最近的MDDC大会上,联发科提到了所谓的Agentic AI UX,并且说这会成为未来2-3年的小目标。这对AI手机而言,究竟意味着什么?

遥想当年iPhone 5s发布时,媒体热议这款手机里头的M7协处理器。当时有自媒体发文称,M7是巨大创新,举例说作为传感器中枢的M7,能够以更低的能耗,做到以前我们无法想象的事情。

比如说当你在任务列表中添加下班后买水果的项目,则在手机检测到你的位置接近水果店时,就会自动提醒你买水果......现在我们当然知道iPhone 5s乃至后续的iPhone都没有这么智能过,因为这个场景应用并不单纯是传感器和协处理器配合就能轻易做到的。但在AI手机时代,这种能力或许就不稀奇了。

上周的MDDC联发科技天玑开发者大会上,联发科(MediaTek)展示了属于AI手机的几个相似场景,让我们印象相当深刻:比如询问AI助手有没有什么火锅或烤肉推荐,AI助手基于行事历中的信息,得知用户2周后要在发布上做主题演讲,并且还观察到用户已经持续健身2个月、身体健康指标追踪也显示再坚持几天就能达到目标,所以提醒用户要保持体态,建议改选健身餐;

再比如形如上述场景的,在了解用户的导航路径以后,提醒用户顺路可购买他平常喜欢的东西......

搭载天玑9400+的OPPO Find X8系列手机在展区亮相,联发科将天玑9400+开启Agentic AI UX的起点

这套逻辑和体验被联发科称为Agentic AI UX,智能体化的AI用户体验。近半年Agentic AI都是热词——前不久NVIDIA的GTC开发者大会主题有一大部分也围绕Agentic AI,我们也就Agentic AI给数据中心带来的机会做了解读。借着MDDC的召开,本文谈谈联发科眼中Agentic AI在端侧的发展,或许也是在预见未来2-3年的AI手机。

 

端侧做Agentic AI,需要什么?

持续关注电子工程专辑人工智能技术文章的读者,对Agentic AI应当不会陌生:其典型特征即具备逻辑推理能力的AI模型,也就是所谓的reasoning model。云上的此类AI服务,如开启了深度思考的DeepSeek——当然,可能还需要加上多模态输入支持之类的属性。和NVIDIA对不同AI阶段的划分一致,陈冠州(联发科技董事 董经理暨营运长)也在演讲中将Agentic AI视作生成式AI以后的新趋势。

此前我们也多番撰文提过reasoning model相较传统LLM大语言模型的一大差别,在于其推理(inference)算力需求大增:因为逻辑推理(reason)模型面对用户响应时,从思考到输出的token生成数量,是传统LLM输出token数量的10倍以上。换句话说,Agentic AI是用更高的inference算力为代价,来换取更高的智能水平。

那么这件事情在手机这样的端侧,真的可行吗?徐敬全(联发科技资深副总经理)在主题演讲中演示用最新的天玑9400+芯片,针对一道数学题(不等式|x+5|<10的解中有多少个整数)做深度思考,可得出正确答案(19个);而没有做reason逻辑推理时,模型的响应速度虽然快,但答案却是错误的。

我们固然不能指望端侧模型像数据中心千亿、万亿参数规模的模型那样,可基于复杂又长的逻辑推理链条做推理,但显然如天玑9400/9400+这样的芯片是具备执行Agentic AI的逻辑推理能力的。

本文不打算在新发布的天玑9400+芯片上花太多篇幅:它本质上当属天玑9400的同代演进款,改进可能包括了核心提频等,故而可达成更高的极限性能——感兴趣的读者可以看看我们去年对天玑9400的详细解读

值得一提的,是其AI方面的增进包括:(1)在ETHZ的AI Benchmark中,天玑9400+的AI推理能力相比天玑9400提升了25%;(2)加入天玑Speculative Decodings+(SpD+)增强型推理解码能力,相比天玑9400的标准SpD提速20%;(3)开始支持DeepSeek-R1多种规格的distill蒸馏模型;

实际上天玑9400+能够做到更复杂的AI逻辑推理,以及达成潜在Agentic AI UX(智能体化AI用户体验),应该说在天玑9400发布之际就有迹可循的。虽然联发科在本次开发者大会上没有特别去提,但我们大致总结了几个天玑9400/天玑9400+支持Agentic AI的技术基础:

首先是硬件层面,强调这一代芯片对于多模态输入、MoE、LoRA端侧训练等的支持。

体现在基础技术上,比如针对多模态输入支持方面的,低位宽KV缓存(low-bit quantization for KV cache)、GQA(grouped-query attention)等可显著降低内存用量的技术点,达成输入文本长度显著提升,也就为多模态输入支持提供了基础,也提升了token生成的速度。要对逻辑推理模型reasoning model做出支持,这些可以认为是先决条件。还有对于LoRA端侧“训练”,相关NPU的“backpropagation算子硬件训练加速”、“时域张量指令加速”等特性支持。

其次是生态构建:即要真正在手机上达成连贯的AI使用体验,除了联发科这样的芯片厂商,还需要各层级参与者的支持。去年在发布天玑9400之时,联发科就提到了“天玑AI智能体化引擎(Agentic AI Engine)”——我们对其理解为构建天玑AI生态的基础,包括提供标准化定义接口,让各种app都能基于标准接口来做互通。当时联发科也发起了天玑AI先锋计划,糅合模型厂商、OEM厂商、ISV与应用开发者等各层级的合作伙伴。

今年MDDC期间,联发科也特别搞了个天玑AI先锋计划“锐意创新奖”,表彰携程、美图、腾讯混元、面壁智能、抖音、GiiNEX、COCOS等合作伙伴。李彦辑(联发科技无线通信事业部总经理)在演讲中说,天玑AI生态圈的合作伙伴数量今年实现了3倍增长,“几乎所有主流应用厂商都已经接入天玑AI开发套件,共同打造AI应用新生态”。

这次特别针对Agentic AI UX,联发科又发起了“天玑智能体化体验领航计划”,会上能看到的参与企业除了联发科自己,还有摩托罗拉、荣耀、面壁智能、OPPO、vivo、阿里云、小米、传音、微软等。陈冠州说,期望在天玑技术的基础上,与合作伙伴一起,在2-3年内实现Agentic AI UX的愿景。

那么联发科心目中的Agentic AI UX智能体化AI用户体验究竟是什么样?或者说基于reasoning model解上面那道数学题的雏形,转向协助日常使用体验时,AI手机又会是什么样?

 

手机上的Agentic AI能做到什么?

徐敬全在大会主题演讲的圆桌环节坦言,即便AI手机“朝着非常正向、以超出预期的速度发展”,但在AI手机上还没有出现真正的杀手级应用(killer application),“很多地方还是需要行业一起努力”。

我们对这个问题的看法一向是乐观的,这种乐观基于两个此前多番讨论的明确趋势:(1)国外研究机构的数据显示过去4-5年内,LLM每百万token推理成本下降了1000多倍(从GPT3大几十美元的推理价格,到Llama3.2的不到0.1美元);(2)AI模型要达成相同能力,所需算力每年降低4-10倍。

圆桌环节,李大海(面壁智能联合创始人兼CEO)也提到,“同尺寸下,模型能力在快速提升。”他举例去年还需要在云上才能达成的AI能力,今年就能在端侧实现。陈冠州也说过去“几百几十B参数量的大语言模型能做到的事,现在几个B就能做到”。

基于此,我们说AI效率提升、使用成本下降。这会带动更多行业、场景普及AI,更重要的是带动应用层面的创新——这些创新甚至可能是现在的人们意想不到的——就像半导体行业摩尔定律高速推进时,相继出现互联网、智能手机等杀手级应用。所以在我们看来,AI手机、AI PC的杀手级应用出现,只是时间问题。且文首提及联发科畅想中的Agentic AI UX体验,本身已经包含有提升生活、工作、娱乐质量的重要特性了。只不过这其中还缺一环:生态。

陈冠州在开场演讲中提到:“手机里有着不同的场景:购物、游戏、创作等等。现在这些场景和特定应用是绑定关系,一个场景一个应用。”而随着AI Agentic UX的普及,“这些场景会被模糊化。智能体本身可以提供无缝、智慧的出色体验,覆盖各类应用场景。”这是个很理想的发展方向。但我们知道,这一目标涉及到AI模型,与应用、用户双方的互动,自然需要手机整个系统层面的架构、软硬件方案的共同演进。

所以说到底,Agentic AI UX的实现,关键问题仍是生态建设:这也是联发科目前努力着手在做的。那么联发科期望能够达成的Agentic AI UX具体是什么样的,或者说潜在的AI手机可以达成哪些智能体化的体验?联发科自己将其总结为“五大特征”,分别是主动及时、知你懂你、互动协作、学习进化、专属隐私信息守护。

在联发科看来,手机本身就存储了一些“静态资讯”——如用户行事历中记录的行程安排;与此同时手机也在不停接收各种“动态资讯”,如微信、电话等。“比如我太太给我发短信,让我下班去接小孩。AI助手看到这则动态资讯以后,会去检查已有的行程安排,如果发现我晚上有其他安排,那么就可能直接回复我太太,无法去接小孩放学。”陈冠州举例说。

这一例体现的就是“主动及时”,相较于过去AI只能做被动响应,手机具备了同时处理“动态”与“静态”信息的能力;而“知你懂你”,即AI助手有能力发现用户的潜在需求,而非仅基于片段的机械化理解——如前文提到顺道买水果的例子,也都可以基于这样的能力去实现;

“互动协作”体现在文首所述AI助手基于用户的未来行程及运动历史,在用户点餐时提醒用户“控制体态”——这也是Agentic AI具备上下文理解能力,同时处理动态、静态信息的范例;“学习进化”是指对上述三项能力的持续跟进,“越用越懂你、越用越主动”,真正实现个人化的需求定制;当然,掌握主动和被动信息的手机,此时相比任何人都更了解用户,自然就要求“专属隐私信息守护”。

这“五大特征”在联发科看来,是未来通往GAI(通用人工智能)的组成部分。“AI从对话式,到现在能做逻辑推理,并且理解人类更深层的需求——AI就是大脑。未来所有的终端都会装上大脑,大脑陪伴着用户、了解用户、服务用户。”陈冠州说,联发科每年芯片出货面向的数十亿边缘设备,都会成为AI体验的重要载体。而这些需要“OEM、AI模型、应用合作伙伴一起努力,才有机会实现这样的愿景”。

实际上,去年联发科召开首届MDDC大会,背景也在于此。

 

端侧AI开发工具情况如何?

MDDC作为开发者大会,面向开发者时,为Agentic AI UX构建生态的起点就是开发工具。李彦辑谈到,天玑AI开发套件发布以来年度下载量增长了5倍,获得CSDN 2024年度开发工具奖,而且相比“S公司开发套件”和“Q公司开发套件”,开发者“推荐排名”第一。所以我们也有必要看看天玑开发工具走到哪一步了,这也有利于我们了解当代端侧AI开发工具的发展水平。

从AI模型角度来看,天玑AI开发套件v2.0增加了大量新的模型支持,包括LVM视觉大模型、LLM大语言模型——如前文提到的DeepSeek R1不同参数规模的蒸馏模型,以及MiniCPM, Qwen2, Hunyuan等主流端侧模型;另外“优化技术”部分也升级了很多项目,如真正意义上端侧的LoRA fine-tune支持,前文提到的SpD+(增强型推测解码),和随DeepSeek爆火现在也很火的MLA(多层注意力架构)、MoE等;还有更灵活的“大模型工具箱”...

稍谈一谈更灵活的大语言工具箱,陈柏谕(Mediatek AI资深技术专家)在技术演讲中说,这是从固定参数化控制 → 灵活性的转变:旧版的工具箱主要通过参数调整来做模型适配设定,以相对固定的方式去支持模型架构,只能适配已知模型。

所以天玑AI开发套件v2.0的新版大语言工具箱,在保留参数调整特性的前提下,“开放了Python代码直接控制”,“开发者可以通过这种方式在天玑平台适配自己的新模型”。陈柏谕说这种转变能够节省6-8周的开发时间。

就reasoning model逻辑推理模型的支持,这里有几点是特别值得一说的。

其一是增强型推测解码加速(SpD+, Speculative Decoding Plus)——SpD+在本届开发者大会上被反复提及。SpD本身是一种加速LLM推理过程的技术,相比传统单次生成1个token,基于“draft-then-verify”的方法来做加速。

据说联发科“独有SpD+算法优化再加速”,相比标准版SpD的token生成速度提升了20%;“相比没有SpD加速”可提速2.3倍。这本身也是个特别适配端侧应用reasoning model逻辑推理模型的技术方法,达成了有效的token生成加速。

其二是“完整支持DeepSeek四大关键技术”,MLA, MoE, KV Compression, low bit computing——关注DeepSeek的同学对这几个技术方法应该不会陌生,恰巧大部分也对应上了天玑9400/9400+的几个主要AI硬件加速特性,前文已经提过。这多少也能看出对芯片设计而言,技术前瞻的重要性。

另外,前文还提到用DeepSeek R1-Distilled解数学题(不等式|x+5|<10的解中有多少个整数),开启逻辑推理后得到正确答案。正是这几个技术点支持达成内存带宽需求降低、token生成速度提升以后,才做到了端侧逻辑推理的体验可接受。

值得一提的是,这次的技术论坛也特别提到联发科与OPPO合作的端侧MoE——动态专家选择。虽然不是什么新技术方法,但DeepSeek爆火之后,MoE也算是占尽风头。因为非MoE的dense LLM在手机这类资源吃紧的端侧设备,有时显得不够高效。基于MoE动态专家选择,用小权重达成相同的目的,token生成速度提升40%,功耗也更低。这在我们看来,是个在端侧很值得推广的技术方法。

除了天玑AI开发套件v2.0,联发科这次新发布“天玑开发工具集”(Dimensity Development Studio)包含有Neuron Studio和Dimensity Profiler两部分。前者是面向AI模型到应用的整合开发环境;后者则是个“系统级全性能一站式分析工具”,主要着眼在游戏开发。因为本文探讨的主要是AI,所以仅对Neuron Studio做个介绍。

李彦辑将Neuron Studio称作是“AI应用全流程开发工具”,特性包含“开发一站式整合”“神经网络自动化调优”和“跨模型全链路分析”。本次功能更新包括加载和处理速度提升3x,“从模型到应用的全链路分析工具”、“一站式整合MLKits工具链”,以及“自动化调优神经网络架构”。

所谓的“全链路”应用性能剖析,主要是指针对多个模型或组件构成的AI应用(如Stable Diffusion就包括Text Encoder, UNET, VAE Decoder几个阶段),呈现跨多模型的profiling分析结果,提供CPU/NPU工作负载不同时点的状态,且分析颗粒度从此前的ms进一步精细到了μs。

美图的自研PIX GO模型,据说就是在天玑AI开发套件弹性架构的基础上,配合这种μs级分析能力,达成端侧抠图、扩图等特性的效率最优——联发科给出的数据是整体提升了模型30%的开发效率。

而“一站式整合MLKits工具链”改进,是达成了更多工具的整合,主要是新增了PTQ(后训练阶段量化)和转换,以及AI tuning。因为“一站式”,所以“开发者在这里就能把模型工具全部做完”。值得一提的是,新增的AI tuning模型调优,被陈柏谕称作是“压箱宝”——借助AI tuning来自动化调优模型带宽与性能。

“它能根据不同的天玑平台,来自动找到最佳设定。”陈柏谕说,“比如降噪算法,我们的实验室数据是,AI tuning可以降低8%的延迟,68%的DRAM带宽和53%的footpint。借助这个工具,人人都是天玑平台的调优专家。”“相比专家调优,能省下7天的时间。”

最后还有个端侧LoRA fine-tuning特性实现——其实去年联发科也提过天玑9400支持在端侧做LoRA fine-tuning,最终可实现应用真正的个性化使用(比如基于个人相册得到专属模型,最终实现真正个性化的生图)。

不过陈柏谕提到,此前的端侧LoRA fine-tune只能借助CPU进行,现在针对这一流程天玑平台已经支持NPU加速,fine-tune时间缩减到此前的2%,原本需要以天计的fine-tune时间可以缩短到半小时。虽然目前我们尚不清楚端侧的LoRA fune-tuning是否已经真正在应用中落地。

 

生态还持续建设

以上基本理清了联发科目前尝试打造的Agentic AI UX智能体化AI用户体验,具体是什么意思以及联发科为此做了什么。这也是我们目前能看到的未来的AI手机雏形和准备工作。

需要再度重申的是,这个预期2-3年周期才可达成的愿景,不是作为芯片厂商的联发科一家就能做到的。MDDC开发者大会,应当也是期望加速生态培养。我们从芯片厂商这类MDDC, GTC开发者大会看到的,更多的还是AI时代,芯片厂商需要操心的事情越来越多,早已不限于传统认知里仅相关于半导体的芯片设计、制造工艺等问题…

本次宣布更具体的AI服务与应用成果诸如前文已经提到的联发科和OPPO合作,做到了MoE技术方法在端侧的部署;赋能美图打造PIX GO模型;和vivo与全民K歌合作,开发“天玑AI人声萃取技术”提升人声质量;赋能绝影多模态智能座舱,“快速完成绝影自有模型移植”,并且令首字词生成速度相比云端提升70%——加上了网络延迟的考量;

另外还有天玑AI开发套件接入NVIDIA TAO生态圈——几年前我们特别撰文介绍过TAO平台——2021年GTC上,NVIDIA宣布TAO之时提到这是个可针对NVIDIA AI预训练模型做微调和适配的工具,后续TAO平台有了更大的外延,其核心在于简化机器学习过程中相对耗时的部分,包括数据准备、训练、优化等。

李彦辑针对这部分的合作提到,“天玑AI开发者能够获取更多NVIDIA TAO生态的开发资源;TAO生态开发者也可以将开发成果轻松移植到天玑各类端侧平台;从而实现一次开发、全域应用的生态破圈。”具体的生态合作细节,感兴趣的同学可以关注联发科和NVIDIA的官方信息——从联发科的新闻稿来看,双方这一层面的合作应该是从去年就开始的。

其实本届MDDC的产品发布中,还有面向游戏开发者的技术和工具引入,因为并非本文要阐述的重点,此处也就不再多做介绍了——尤其Dimensity Profiler针对游戏开发过程中的性能分析做了各种强化;联发科的星速引擎自适应调控技术很快也要加入到Android动态性能框架中等等......

徐敬全在圆桌环节总结时说,基于智能体化AI用户体验的五大特征,除了“隐私保护”始终是端侧AI的基础与底线,“主动及时”“知你懂你”以现在的技术要实现已经不难,“尤其芯片和手机在知你懂你的感知能力,主动及时的响应上都不遥远”;“但‘互动协作’和‘学习进化’仍然相对欠缺。虽然天玑平台目前已经能够提供初步的学习进化能力,但我觉得和理想境界还有距离。”

所以我们看到未来AI手机还有相当的进化空间,无论是芯片AI特性的增加、算力与效率的提升,还是操作系统、模型、应用层面的持续创新,以及打通不同场景和应用壁垒,真正实现AI贯通各场景,实现智能体化AI用户体验效率最大化,多层级、多维度的协作依旧是不可或缺的。

OPPO平台软件中心总经理谭皓在会上说,以前手机带一些AI功能,但充其量还是用户去适应手机的;而现在的目标,是要让手机去真正适应用户。我们认为借此来形容未来的AI手机再合适不过。即便要达成这一目标仍旧不易,今年MDDC的召开却已经是个良好的开端。

责编:Illumi
本文为EET电子工程专辑原创文章,禁止转载。请尊重知识产权,违者本司保留追究责任的权利。
您可能感兴趣
有分析认为,这次关税调整被视为特朗普政府修正此前“对等关税”政策的一部分,标志着美国在对华贸易政策上的某种松动。此举不仅有助于缓解中美贸易摩擦,还可能为未来进一步调整关税政策奠定基础。
包括宏碁、华硕、戴尔、惠普、联想在内的主流 PC 厂商已通知供应链,暂停所有产地销往美国的笔记本电脑及相关零组件出货,为期两周。
OPPO 在 “Find X8 系列暨智能生态旗舰新品发布会” 上正式推出年度影像旗舰Find X8 Ultra及全新小屏智能手表OPPO Watch X2 Mini……
立讯精密正与客户探讨应对关税的策略,包括将部分生产转移至美国等中国以外地区。关于是否计划在美国投资建厂?立讯精密回应称,公司目前没有在美国投资建厂相关计划......
目前,苹果正在积极优化Vision Pro 2的物料清单成本(BOM),目标是将其成本降低至第一代产品的50%。此外,苹果还在开发AR眼镜,并计划在未来几年内推出更多相关产品。
美国关税政策将迫使中国企业加快多元化布局,并推动产业链和供应链的调整。未来,随着中国进一步推进外贸多元化战略和内需增长,“单一市场依赖”的风险有望逐步降低,从而更好地应对美国关税政策的挑战。
如何针对芯粒异构集成的复杂性,提出新的热仿真方法,这对Chiplet热管理技术提出了新的要求。
负载突降(Load Dump)是指当车辆电池突然与发电机断开时,因发电机未及时调节而产生的高压浪涌。ISO 16750-2 Pulse 5a标准专门针对这一情况设计,要求电子设备能承受高达数十伏甚至百伏级的浪涌脉冲......
OV50X图像传感器采用TheiaCel™技术,能够在各种光照条件下拍摄卓越的照片和视频
智能检测系统对于保护学校、体育场、购物中心和人群密集的医院等公共场所的安全至关重要。全球安全检测市场在2023年价值10亿美元,预计到 2030年将超过20亿美元。传统的安全措施(如被动摄像头和金属探测器)存在局限性,包括排队速度慢和依赖事后证据。拥挤的环境和各种违禁品使检查更加复杂。为了应对这些挑战,客户采用了 AI 驱动的安检解决方案来提高效率、减少等待时间并改善用户体验。
IT之家 4 月 14 日消息,西门子数字化工业软件日前宣布完成对 DownStream Technologies 的收购。西门子表示,DownStream 是印刷电路板(PCB)设计领域制造数据准备
今天的文章有点特别,算是有感而发吧,想和大家聊聊跟我们未来前途相关的事情。希望大家看完后都能重视起来。2025年开年以来,可以说无疑又是一个充满挑战的一年。汽车行业的裁员旋风更是从去年吹到了现在,面对
点击左上角“锂电联盟会长”,即可关注!近日,中国科学院团队宣布成功研发出一种基于钠离子技术的新型环保电池,其能量密度较传统锂电池提升近300%,且成本降低40%。这一成果被业内视为新能源领域的重大突破
      智能电源管理公司Eaton宣布加入ENLIGHTEN项目联盟。这项雄心勃勃的研发工作为期四年至2028年,由欧盟共同资助,旨在开发、测试和部署运行电压为1200V的下一代电动汽车(EV)动
混合动力系统就是使用了汽油、柴油、氢气或甲醇的内燃机和电力2种驱动方式的系统。其优势在于车辆起步用电机实现驱动,发动机可以完全不用工作,处于停机状态,当车速达到一定值后,发动机再进行接入。这样的好处是
软件定义汽车(Software Defined Vehicles,SDV)已成为汽车产业近年来达成的共识发展趋势。在智能化、网联化变革趋势下,汽车逐步由机械代步工具向新一代移动智能终端转变。功能需求推
(广告分割线)4月14日消息,据外媒报道,天风国际分析师郭明錤日前表示,受美国关税政策影响,苹果未来几个月的供应链可能面临重大中断。他说,苹果在农历新年之后开始备货,囤积了超过两个月的 iPhone库
知识酷Pro 👆学显示行业知识找小酷!第1917篇推文加州大学旧金山分校的研究人员使一名瘫痪男子能够控制一个机械臂,该机械臂通过计算机接收来自大脑的信号。他能通过想象做一些动作来抓取、移动和放下物体。
星标公众号,让嵌入式知识 “投喂” 不停歇!大家好,我是杂烩君。当下,很多嵌入式设备都运行着RTOS、Linux系统。这两者有什么区别呢?一、多方面对比1. 实时性实时性即保证任务在特定时间内完成。衡