作者 | 黄心怡
在星纪魅族选择All in AI后,另一智能手机巨头OPPO也选择重金投入。
2月20日,OPPO首席产品官刘作虎在OPPO AI战略发布会上表示,未来将在云端算力上持续投入,通过自建的OPPO AI滨海湾数据中心,部署Titan超大模型、Turbo大模型、Tiny轻量模型三个级别的模型对应不同应用场景,实现端云联合部署。
在会后采访中,刘作虎对《科创板日报》表示,“在对AI的投入上,我们可以说是没有上限。”
IDC预计,2024年中国市场新一代AI手机出货量将达到3700万台,2027年将达到1.5亿台,并且新一代AI手机所占市场份额超过50%。不过,当前AI与手机的融合依然面临着内存传输速率瓶颈、内存空间受限、云端算力成本等诸多挑战。
▌AI手机带动新一轮换机潮
IDC判断,2024年起,新一代AI手机将大幅增长,带动新一轮换机潮。预计2024年全球新一代AI手机的出货量将达到1.7亿部,约占智能手机整体出货量的15%。
在中国市场,随着新的芯片和用户使用场景的快速迭代,新一代AI手机所占份额将在2024年后迅速攀升,2027年达到1.5亿台,市场份额超过50%。
“AI不是高端产品的专属,它应该是一种普惠的技术。所有的产品都值得AI的思维重新思考该怎么去做。”刘作虎在接受《科创板日报》采访时表示,以前手机虽然叫智能手机,但其实是不智能的。而在新的AI技术有望让手机变成了真正的智能手机,实现以用户为中心,每一个人都应该有一个超级助理,让这个手机懂我,一站式地把所有的需求搞定。当然,这个事情没有那么简单,还需要打通整个手机所有的生态。”
AI和手机的融合被行业视为新的创新锚点,对于产业链生态带来新的发展。IDC认为,16GB RAM将成为新一代AI手机的基础配置,SoC以外的硬件需要一同配套升级。同时,新一代AI手机在存储、屏幕、影像设备的升级将带来硬件升级和成本提升,厂商可利用科技创新及其相关功能卖点撬动终端价格。
▌内存和芯片之间传输速率要提升10倍
当前AI大模型要在手机落地依然面临不小的挑战。在手机端运行本地大模型,要求更高的内存传输速率和更大的内存空间。
但无论是CPU还是GPU,采用的都是存算分离的冯诺依曼架构。计算单元要先从内存中读取数据,计算完成后再存回内存,才能最终输出。
过去几十年中,存储器与处理器的发展严重失衡。存储器读取速率的提升远远跟不上处理器性能的增长。无论处理器所在的“入口”一端处理了多少数据,也只能通过存储器狭窄的“出口”输出,严重影响了数据处理的效率。
“目前来看,随着大模型的发展,内存和芯片之间的传输速率需要提升10倍。而打破内存与计算隔阂的存算一体架构是一个可能解。”刘作虎称。
据了解,存算一体和近存计算技术是直接在存储器内部或附近进行计算,通过把计算和存储功能融合在一起,提高数据处理和计算的效率和成本。
有资深分析师对《科创板日报》记者表示,“AI手机一定会利好存算一体技术的发展,存算一体。但还是要看最终的需求端有多大。”
▌端云结合是趋势
大模型应用需要处理大量数据,并在训练过程中占用大量内存和计算资源。当前的手机内存难以支撑超过70B规模的端侧大模型,这让端云结合成为必然。
IDC中国高级分析师郭天翔认为,端测的计算能力和功耗控制存在瓶颈。“再大的模型,手机也带不起来了。以后应该都是端云结合的方式。”
刘作虎认为,端和云各有各的优缺点。“比如AI通话摘要。首先要语音识别,识别之后再去做推理。语音识别可以在端侧完成。但是推理需要更大的算力,就放在云端完成。云端的难点在于其成本很高。如果是端侧,手机购买后就没有额外的成本。”
刘作虎表示,需要根据不同的场景,来思考用端还是用云,场景不同、策略也不同。
“例如大家会用云相册,但普通老百姓用云相册的实际比例是比较低的,甚至百分之八九十的用户,还是习惯把照片保留在手机上面。如果要针对相册做一些AI的能力怎么办?不能强迫用户必须把相册传到云上,才能体验这个AI功能,用户没有这种使用习惯,在这种场景下一定是做端侧体验。”
OPPO AI中心产品总监张峻称,OPPO会在端云协同模型这个方向上进行坚定地探索。比如,基于Lora架构来做更灵活的端云协同架构。
“用端侧小型模型来解决一些问题的同时,结合用户在不同垂域的需求,以及用户更个性化、专属化的需求,会有一些外挂的模型加载到端侧上来,更大的计算要求可能直接就分流到云上运转,这是整个Lora架构的基本思想。但坦白讲,我们在实际的落地和研究过程中还处于探索阶段。”张峻如是表示。
推荐阅读