2023年,随着以ChatGPT为代表的AI大模型爆火,算力需求大幅上升,也推升了算力的核心AI芯片的需求。如何在新趋势、新挑战下快速响应需求,推出切实可用的软硬件解决方案,成为了摆在AI芯片企业面前的重要课题。在2023中国临港国际半导体大会上,商汤科技联合创始人、大装置事业群总裁杨帆以“AI大模型技术发展对芯片的关键挑战”为主题,分享了当前AI技术趋势下的新挑战,以及商汤科技在AI大模型方面的布局情况。
商汤科技联合创始人兼大装置事业群总裁杨帆
杨帆表示,最近一年,AI大模型实现了快速的增长。可以说,人工智能新范式(AGI)已经到来。今年4月,商汤科技也推出了“商汤日日新SenseNova”大模型,主要包括中文语言大模型应用平台、AI 内容创作社区平台、AI 数字人视频生成平台、场景 3D 内容生成平台、物体 3D 内容生成平台5大应用平台,“我们相信下一代大模型还是会进入到多模态的领域。”
据介绍,商汤科技大模型可以应用于智能客服、营销内容生成(主要包括AI营销素材生成和数字人直播)、选股问答等智能化服务,同时还可以满足“大模型+”多行业应用,比如能源、汽车、医疗、文旅等。
“最近半年,我们可能感受还不强烈,主要在于很多基于大模型的应用还处在试用或者小范围市场化阶段,但到了2024年绝大多数人应该能感受到大模型带来的力量。这些新的技术和应用的出现,会让我们感受到过去AI所提供的内容和服务还是太简单了,同时我们相信未来它可以拥有更大的力量。”杨帆这样看AI大模型未来发展趋势。
“过去的一年,大家都感受到了大模型取得了令所有人所称道的成绩,其背后实际上是强大的算力支撑。如果从2012年这一轮深度学习开始实现有效应用算起,它的算法网络结构其实就是持续极高速的增长,大概每六个多月可能就要翻一倍。单一AI算法对于算力的需求就增加了30万倍。”杨帆表示,“其实数据规模就决定需要一个更复杂的网络,就像人的大脑一样,需要更多的大脑的节点连成一个网络,才能够承载和消化这些数据中隐含的价值、规律和信息。虽然我们并不知道它是怎么去提炼的,但是这个规模关系是明确的。一个更加复杂的网络结构或者大脑结构势必需要更大规模的算力。”
杨帆介绍,随着技术门槛的不断提高,算力成为发展的关键基石。近期热点技术应用如ChatGPT、大模型等技术应用对AI算力及数据的需求逐步上涨。作为一个大型语言模型,ChatGPT使用了大量的训练数据,因此需要高效的存储系统来存储这些数据。此外,训练模型需要大量的计算资源来进行训练,需要高性能的处理器来支持训练。
杨帆指出,过去十年,数据、模型、算力这三大AI要素持续的规模化,推动着整个人工智能的技术进步,但至今我们还没有触及到极限所在。
“可以看到,伴随着数据进一步提升,我们仍然没有触摸到AI的能力极限。我们也不知道,如果能够获得更高一个量级的数据,我们用再大一个量级的算力支撑去训练它的时候会发生什么?这是今天在人工智能领域所面临的挑战。”杨帆表示,如果把人工智能领域未来面临的挑战再映射到集成电路上,我们在芯片算力上将面临更大的挑战。而在国外新的AI禁令下,中国企业在AI大模型发展上正面临更大的挑战,不仅国外AI芯片出口受限,而且国内AI芯片供给不足,特别是要进行更大数量级的AI大模型训练,需要耗费更多的资源。
当然,他也坚信,正是在这样的挑战之下,中国产业链生态将形成更深度的合作,包括芯片制造、软硬件适配等。为此,商汤科技也做了很多工作以及相关布局,比如加大与国内AI芯片厂商合作,成立算力产业生态联盟,推动一些行业标准的建立,同时还在临港建设智能计算中心(目前国内最大单体人工智能计算中心)。
此外,杨帆也希望包括人工智能软件厂商、芯片厂商在内的产业链企业协同配合,共同推进人工智能的发展。
![](https://www.eet-china.com/images/2.0/interested-icon.png)