【AI简报20230714期】人工智能在日常生活中的应用,国产AI芯片最新进展公布!

1. 大模型时代,国产AI芯片最新进展!算力集群化是必然趋势

原文:https://mp.weixin.qq.com/s/k-InpBMMJTUltuMcB2hKSg
在刚过去的2023世界人工智能大会上,大模型可以说是其中的大亮点之一,华为盘古、商汤日日新、网易伏羲等30多款国产AI大模型集中亮相。与此同时,各类人工智能芯片公司、算力提供商也针对大模型展示了相应的方案。
大模型时代,国产AI芯片进展如何?
在这次大会上,瀚博半导体、燧原科技、登临科技、天数智芯等纷纷展示了针对大模型的产品方案,呈现出国产AI芯片在大模型领域的进展情况。
瀚博半导体成立于2018年12月,是一家自研GPU芯片及解决方案提供商。在此次大会上,瀚博发布了第二代GPU SG100,并推出南禺系列GPU加速卡VG1600、VG1800、VG14,以及LLM大模型AI加速卡VA1L、AIGC大模型一体机、VA12高性能生成式AI加速卡等6款新品。
据介绍,瀚博SG100芯片采用7nm先进制程,具备业界领先的渲染性能,同时兼具低延时高吞吐的AI算力和强大的视频处理能力。
值得关注的,针对大模型时代算力需求,瀚博本次首发了LLM大模型AI加速卡VA1L,具备200 TOPS INT8/72 TFLOPS FP16算力,并支持ChatGPT、LLaMA、Stable Diffusion等主流AIGC网络模型。
与此同时,瀚博此次还推出了AIGC大模型一体机,共使用8张LLM大模型AI加速卡VA1L,支持512GB显存,进而支持1750亿参数的大模型。
另外,作为瀚博VA1和VA10的升级版,VA12是一块通用AI加速卡,支持检测、分类、分割、视频增强、语义理解、BERT、Transfomer和视频编解码等应用。
燧原科技在此次大会上发布了燧原曜图文生图MaaS平台服务产品。该产品以燧原科技“邃思”系列芯片为算力支撑,由首都在线提供计算服务,燧原曜图MaaS平台服务产品为用户提供面向AIGC时代的高效易用、安全可靠、企业级的文生图服务。
燧原科技表示,它具备开箱即用可用、所想即所见、创意无限的文本生成图像能力,通过软硬一体方案降低大规模AIGC应用的工程难度与算力成本,开启AIGC应用规模化落地时代。
燧原科技创始人兼CEO赵立东在某论坛上提到,目前燧原已经为大型科研机构部署了千卡规模的AI训练算力集群,并成功落地;而且与腾讯合作,在OCR文字识别、智能交互、智能会议等方面,性能达到了业界同类产品两倍以上,性价比上具有很高优势。此外,在智慧城市方面,燧原完成2022年成都高新区国产化AI视频基础设施平台项目建设。
此次大会上,登临科技展示了最新一代创新通用GPU产品Goldwasser II系列以及基于开源大语言模型可交互界面。据了解,Goldwasser II针对基于Transformer和生成式AI 大模型进行专门优化,在性能有大幅提升,已于2022年流片,目前已开始规模化量产和商业客户验证。据现有客户测试结果,二代产品针对基于transformer类型的模型提供3-5倍的性能提升,大幅降低类ChatGPT及生成式AI应用的硬件成本。
天数智芯在此次会上也展示了在大模型训练、推理所取得的显著进展,包括图片识别/以图搜图、3D建模、大模型推理等。在大模型领域,天数智芯今年上半年,搭建了40P算力320张天垓100加速卡算力集群,完成智源研究院70亿参数大模型全量训练,
天垓100是天数智芯2018年研发的通用AI训练芯片,据天数智芯董事长盖鲁江介绍,目前天垓100这款产品还已经成功跑通了清华智谱 AI 大模型ChatGLM,Meta研发的LLaMA模型。此外,天数智芯正在帮智源研究院跑650亿参数的模型,预计10月份可以跑完。
针对于A800芯片在无许可证的情况下将被禁售的话题,盖鲁江谈到,事实上,不管英伟达的产品能不能卖给中国,我们的产品已经能够用起来了。
算力集群化是发展趋势
伴随大模型带来的生成式AI突破,人工智能正在进入一个新的时代。算力是人工智能产业创新的基础,大模型的持续创新,驱动算力需求的爆炸式增长。可以说,大模型训练的效率或者是创新的速度,根本上取决于算力的大小。
然而,中国的算力已经成为一个越来越稀缺的资源。华为轮值董事长胡厚崑在某论坛上谈到,大模型的研发高度依赖高端AI芯片、集群及生态。高计算性能、高通信带宽和大显存成为大模型训练必不可少的算力底座,单AI芯片进步速度还未跟上大模型对大算力的需求,算力集群化成为不可逆转的发展趋势。
在2023世界人工智能大会上,华为宣布昇腾AI集群全面升级,集群规模从最初的4000卡集群扩展至16000卡,拥有更快的训练速度和30天以上的稳定训练周期。
胡厚崑表示,华为在各个单点创新的基础上,充分发挥云、计算、存储、网络以及能源的综合优势,进行架构创新,推出了昇腾AI集群,相当于把AI算力中心当成一台超级计算机来设计,使得昇腾AI集群性能更高,并且可靠性更高。
据他介绍,昇腾AI集群目前已经可以达到10%以上的大模型训练效率的提升,可以提供10倍以上的系统稳定的提高,支持长期稳定训练。
华为昇腾计算业务总裁张迪煊表示,基于昇腾AI,原生孵化和适配了30多个大模型,到目前为止,中国有一半左右的大模型创新,都是由昇腾AI来支持的。
除了华为,阿里、腾讯等也打造了较大的算力集群,不过主要还是依靠英伟达的GPU芯片。阿里云表示,其拥有国内最强的智能算力储备,智算集群可支持最大十万卡GPU规模,承载多个万亿参数大模型同时在线训练。
腾讯云此前大量采购了英伟达A100/H800芯片,发布新一代HCC高性能计算集群,用于大模型训练、自动驾驶、科学计算等领域。基于新一代集群,腾讯团队在同等数据集下,将万亿参数的AI大模型混元NLP训练由50天缩短到4天。
小结
无论是大模型的训练,还是后期的推理部署,对算力的需求都相当大。虽然,当前国产AI芯片与国际领先GPU产品在大模型的训练上有差距,不过可以看到,已经有不少产品,在较大模型的训练上已经取得成绩,后续必然还会有更大的进展。同时,为了满足大模型对大算力的需求,算力集群化将会是未来趋势。

2. 大模型加速涌向移动端!ControlNet手机出图只需12秒,高通AI掌门人:LLaMA也只是时间问题

原文:https://mp.weixin.qq.com/s/je05z93KcAIT81NvoyFsuw
大模型重塑一切的浪潮,正在加速涌向移动应用。
不久前,高通刚在MWC上露了一手纯靠手机跑Stable Diffusion,15秒就能出图的骚操作:
3个月后的CVPR 2023上,参数加量到15亿,ControlNet也已在手机端闪亮登场,出图全程仅用了不到12秒:

更令人意想不到的速度是,高通技术公司产品管理高级副总裁兼AI负责人Ziad Asghar透露:
从技术角度来说,把这些10亿+参数大模型搬进手机,只需要不到一个月的时间
并且这还只是个开始。
在与量子位的交流中,Ziad认为:
大模型正在迅速重塑人机交互的方式。这会让移动应用的使用场景和使用方式发生翻天覆地的变化。
“大模型改变终端交互方式”
每一个看过《钢铁侠》的人,都很难不羡慕钢铁侠无所不能的助手贾维斯。

尽管语音助手早已不是什么新鲜事物,但其现如今的形态多少还是离科幻电影中的智能助手有点差距。
而大模型,在Ziad看来,正是一个破局者。
大模型有能力真正重塑我们与应用交互的方式。
这种改变的一种具体的表现,就是all in one
也就是说,通过大模型加持下的数字助手这一个应用入口,人们就可以在手机这样的终端上操控一切:
通过自然语言指令,数字助手能自动帮你管理所有手机上的APP,完成办理银行业务、撰写电子邮件、制定旅程并订票等等各种操作。

更为关键的是,这样的数字助手还能做到“私人订制”——
手机上的个性化数据,与能够理解文字、语音、图像、视频等多模态输入的大语言模型相结合,就能使数字助手更为精准地把握使用者的偏好。
并且这样的个性化体验,可以在不牺牲隐私的情况下实现。
从技术的角度来说,背后关键,其实就是如今把Stable Diffusion和ControlNet搬进手机的混合AI架构及作为支撑的量化、编译和硬件加速优化等AI技术。
混合AI,指的是终端和云端协同工作,在适当场景和时间下分配AI计算的工作负载,以更为高效地利用算力资源。
量化、编译和硬件加速优化,则是实现混合AI的关键AI技术,受到高通等终端AI厂商的长期关注和押注。
量化,是将更大的模型在精度不变的情况下,从浮点数转变成整数,节省计算时间;又或是在确保模型性能的同时,对其大小进行压缩,使之更容易部署在终端。
编译器是AI模型能够以最高性能和最低功耗高效运行的关键。AI编译器将输入的神经网络转化为可以在目标硬件上运行的代码,同时针对时延、性能和功耗进行优化。
硬件加速方面,以高通为例,其AI引擎中的关键核心Hexagon处理器,采用专用供电系统,支持微切片推理、INT4精度、Transformer网络加速等,能够在提供更高性能的同时,降低能耗和内存占用。
数据显示,Transformer加速大幅提升了生成式AI中充分使用的多头注意力机制的推理速度,在使用MobileBERT的特定用例中能带来4.35倍的AI性能提升。

以Stable Diffusion为例,现在,高通的研究人员通过量化、编译和硬件加速优化,已经能够在搭载第二代骁龙8移动平台的手机上,以15秒20步推理的速度运行这一模型,生成出512×512像素的图片。

这样一来,整个推理过程可以完全只靠手机实现——开着飞行模式不联网也能做到。
这类AI技术的部署并非易事,Ziad表示在相关软件、工具和硬件方面,高通准备了2-3年的时间。
但现在,当高通AI模型增效工具包、高通AI软件栈和高通AI引擎等软硬件工具齐备之后,正如前文所言,高通只花了不到一个月的时间,就实现了Stable Diffusion在骁龙平台上的高速运行。
也就是说,当基础技术准备就绪,包括大模型在内的生成式AI部署,就会更加容易,原本无法想象的“大模型部署到终端变成数字助手”,现在看来也并非不可能。
具体而言,在硬件上混合AI和软件AI技术的“双重”架构下,部署在手机等终端中的大模型,可以在终端侧根据用户习惯不断优化和更新用户画像,从而增强和打造定制化的生成式AI提示。这些提示会以终端侧为中心进行处理,只在必要时向云端分流任务。

Ziad也进一步向我们解释说:
云不了解你,但终端设备了解你。如果模型可以在设备上进行微调,那它的功能将非常强大。
这也是突破大模型幻觉和记忆瓶颈的方式之一。高通可以做到通过一系列技术让大模型在不联网的情况下,借助终端设备数据长时间提供“专属”服务,同时也保护了用户隐私。
值得关注的是,Ziad还透露,在Stable Diffusion和ControlNet之外,基于高通全栈式的软件和硬件能力,研究人员正在将更多生成式AI模型迁移到手机之中,参数量也正在向百亿级别进发。
很快,你就会在终端上看到像LLaMA 7B/13B这样的模型。一切工具已经就绪,剩下的只是时间问题。
而且,虽然目前能在终端侧部署的只是“特定”的大模型,但随着技术的不断应用成熟,能部署的大模型数量、模态类型和部署形式,都会飞速进化。Ziad表示:
随着更多更好的AI算法被开源出来,我们也能更快地沿用这套软硬件技术将它们部署到终端侧,这其中就包括文生视频等各种多模态AI。
这样来看,未来用户将自己想用的大模型迁移到手机端,成为超级助手的核心,也并非不可能实现。
大模型正在重塑移动互联网
实际上,手机上的交互变革,还只是冰山一角。
早在生成式AI、大模型技术爆发之前,在移动互联网时代,AI需求已经呈现出向边缘设备转移的趋势。
正如Ziad的观点“终端侧AI是AI的未来”一样,随着以大模型为代表的生成式AI浪潮加速改变人机交互方式,更多终端侧如笔记本电脑、AR/VR、汽车和物联网终端等,也都会因为这场变革迎来重塑,甚至反过来加速AI规模化落地。
在这个过程中,不仅硬件会诞生新的衡量标准,软件上以大模型为核心的超级AI应用,更是有可能出现。
首先是硬件上,由于终端侧算力会成为延展生成式AI落地应用不可或缺的一部分,对于移动端芯片本身来说,AI处理能力也会日益凸显,甚至成为新的设计基准之一。
随着大模型变得更受欢迎、更多应用不断接入其能力,更多潜在的用户也会意识到大模型具备的优势,从而导致这类技术使用次数的迅猛上升。
但云端算力终究有限。Ziad认为:
随着AI计算需求的增加,云端算力必然无法承载如此庞大的计算量,从而导致单次查询成本急剧增加。
要解决这一问题,就应当让更多算力需求“外溢”到终端,依靠终端算力来缓解这一问题。
为了让更多大模型在终端就能处理甚至运行,从而降低调用成本,必然需要在确保用户体验的同时,提升移动端芯片处理AI的能力。
长此以往,AI处理能力会成为衡量硬件能力的benchmark,如同过去手机芯片比拼通用算力和ISP影像能力一样,成为整个移动端芯片的新“赛点”。
等多的内容,如果感兴趣,可以直接点击原文,您会收获更多的知识。

3. 英特尔AI芯片中国定制版发布!打的就是英伟达A100

原文:https://mp.weixin.qq.com/s/5njVFAcZnMP0rEb5VZcLhA
AIGC时代,谁说炼大模型就一定得用GPU?
英特至强CPU,运行扩散模型Stable Diffusion只需5秒就能出图。
而在这两天,专门搭载在该CPU上使用的AI加速器更是新鲜出炉。
它叫Gaudi2,面向中国市场发布,用于加速AI训练及推理,有了它,大规模部署AI便多了一种新选择。

性能上,它在MLPerf最新报告中的多种训练和推理基准测试中都直接超越了英伟达A100,并提供了约2倍的性价比。
至于H100,它虽然还不能敌过,但若拉上成本,则也能“扳回一局”。

这款主打超强性价比的AI加速器,究竟什么来头?
全新Gaudi2加速器,性能超A100
Gaudi2深度学习加速器暨Gaudi2夹层卡HL-225B,以第一代Gaudi高性能架构为基础,加速高性能大语言模型运行。
(ps. Gaudi1代处理器诞生于2019年,其背后公司来自以色列,当年年底被英特尔以20亿美元收购,如今成为英特尔“叫板”英伟达的重要底气。)
Gaudi2采用7nm制程工艺,具备24个可编程Tensor处理器核心(TPCs),支持面向AI的各类高级数据类型:FP8、BF16、FP16、TF32和FP32。
它配备21个100 Gbps(RoCEv2)以太网接口,可通过直接路由实现Gaudi处理器间通信(相比原版少了3个,但英特尔公司执行副总裁Sandra Rivera介绍,这对整体性能影响基本不大)。
同时,它还能做到2.4TB/秒的总内存带宽,先进的HBM控制器则针对随机访问和线性访问进行了优化,在各种访问模式下都可以提供这一保证。
此外,48MB片上SRAM和集成多媒体处理引擎亦是标配。

就在上个月公布的MLCommons® MLPerf®基准测试中,Gaudi2在1750亿参数的GPT-3模型训练上表现出色,使用384个加速器上耗时311分钟就完成了训练。
虽然相比之下,英伟达只需61分钟便可,但这样的成绩需要512个H100——由于Gaudi2的成本要远低于H100,所以要论性价比,Sandra Rivera表示,Gaudi2是更具诱惑力的选择。
与此同时,Gaudi2在基于8个和64个加速器助力的BERT、8个加速器助力的ResNet-50和Unet3D训练结果上,全部优于A100。
此外,Gaudi2也可为大规模的多模态和语言模型提供出色的推理性能。
在最近的Hugging Face评估中,其在大规模推理方面的表现,包括在运行Stable Diffusion、70亿以及1760亿参数BLOOMZ模型时,在行业内均保持领先。
能耗方面,训练计算机视觉模型时,Gaudi2的每瓦性能是A100的2倍,推理176B参数的BLOOMZ时,功耗则可降低40%。

——不仅性能和功耗强大,英特尔还提供了配套的成熟软件支持:SynapseAI。
它可以方便开发者轻松构建模型,或将当前基于GPU的模型业务和系统迁移到基于全新Gaudi2服务器。
同时,SynapseAI集成了对TensorFlow和PyTorch框架的支持,提供众多流行的计算机视觉和自然语言参考模型,可以满足深度学习开发者的多样化需求。
另外,说到Gaudi2服务器,现在,英特尔已与浪潮信息合作,打造并发售基于Gaudi2深度学习加速器的浪潮信息AI服务器NF5698G7。
该服务器集成了8颗Gaudi2加速卡HL-225B,还包含双路第四代英特尔至强可扩展处理器,进一步帮助大家高效部署大模型。

最后,值得一提的是,在发布会后的交流环节中,当被问及英特尔是否有一个预期,能占领多少AI加速芯片的市场时,Sandra Rivera表示:
国内AI产品需求非常大,产品完全不够用。因此市场就在那里,在这种情况下我们不用特别设什么份额的目标,就把最好的产品带出来,满足市场需求,帮助大家创新,这就是我们想要做的事情。
而据量子位现场获悉,明年,能够进一步缩小差距甚至超越英伟达H100的Gaudi3就将问世。
与此同时,2025年之时,英特尔还将整合既有的GPU Max产品线和Gaudi系列,取两者之长,推出更加完整的下一代GPU产品。
而在这之中,英特尔将对大家最为关心的可持续软件生态做大笔投入。

4. 李飞飞「具身智能」新成果!机器人接入大模型直接听懂人话,0预训练就能完成复杂指令

原文:https://mp.weixin.qq.com/s/XleXS_5shzZNiOSxUFZfgQ
李飞飞团队具身智能最新成果来了:
大模型接入机器人,把复杂指令转化成具体行动规划,无需额外数据和训练。

从此,人类可以很随意地用自然语言给机器人下达指令,如:
打开上面的抽屉,小心花瓶!

大语言模型+视觉语言模型就能从3D空间中分析出目标和需要绕过的障碍,帮助机器人做行动规划。

然后重点来了, 真实世界中的机器人在未经“培训”的情况下,就能直接执行这个任务。

新方法实现了零样本的日常操作任务轨迹合成,也就是机器人从没见过的任务也能一次执行,连给他做个示范都不需要。
可操作的物体也是开放的,不用事先划定范围,开瓶子、按开关、拔充电线都能完成。
目前项目主页和论文都已上线,代码即将推出,并且已经引起学术界广泛兴趣。

李飞飞:计算机视觉的3颗北极星
大约一年前,李飞飞在美国文理学会会刊上撰文,指出计算机视觉发展的三个方向:
  • 具身智能(Embodied AI)
  • 视觉推理(Visual Reasoning)
  • 场景理解(Scene Understanding)
李飞飞认为,具身智能不单指人形机器人,任何能在空间中移动的有形智能机器都是人工智能的一种形式。
正如ImageNet旨在表示广泛且多样化的现实世界图像一样,具身智能研究也需要解决复杂多样的人类任务,从叠衣服到探索新城市。
遵循指令执行这些任务需要视觉,但需要的不仅仅是视觉,也需要视觉推理理解场景中的三维关系。
最后机器还要做到理解场景中的人,包括人类意图和社会关系。比如看到一个人打开冰箱能判断出他饿了,或者看到一个小孩坐在大人腿上能判断出他们是亲子关系。
机器人结合大模型可能正是解决这些问题的一个途径。

5. 国产7nm全功能GPU上海发布!还有大模型加速卡、AIGC大模型一体机等6款新品

原文:https://mp.weixin.qq.com/s/MhFOeWOowpk_j0CB9zcFQQ
7月6日下午,瀚博半导体在2023世界人工智能大会上正式发布第二代GPU SG 100。
一并推出的还有南禺系列GPU加速卡 VG1600、VG1800、VG14以及LLM大模型AI加速卡VA1L、AIGC大模型一体机、VA12高性能生成式AI加速卡等6款新品,为AI大模型、图形渲染和高质量内容生产提供完整解决方案。
本次发布会以“智渲同芯,共生未来”为主题,瀚博半导体创始人兼CTO张磊在发布会上发表了《从像素到杰作:国产芯片加速AI大模型和元宇宙》主题演讲,吸引众多行业伙伴、知名媒体以及投资机构到场。
张磊以AGI时代的算力需求与挑战为引,全面展示了瀚博针对人工智能与元宇宙行业的最新产品研发成果,此次瀚博半导体新品发布会赋能大模型创新应用,联合上下游企业共同打造国产大模型生态圈,以全新姿态把握时代机遇,开启人工智能+元宇宙的瀚博算力序章。

第二代GPU SG100: 集渲染、AI、视频于一体的7nm全功能GPU
瀚博此次重磅推出了集成高性能渲染、超低延时AI和强视频处理能力的7nm全功能GPU芯片产品SG100。

瀚博SG100芯片采用7nm先进制程,具备业界领先的渲染性能,同时兼具低延时高吞吐的AI算力和强大的视频处理能力。
搭载瀚博自研GPU软件栈,业界一流的SR-IOV硬件虚拟化技术,支持Windows/Linux下的DirectX 11、OpenGL、Vulkan等API接口,支持H.264、H.265、AV1等多种视频编解码格式,可广泛支持数字孪生、数字人、云桌面、云手机、云游戏、云渲染、工业软件等多领域应用,助力打造元宇宙产业算力底座。
演讲中,张磊也通过实际案例展示了瀚博产品基于Windows/Linux下的渲染实例效果、教育云电脑、工业软件、多路高画质云游戏以及超写实数字人等应用场景,为现场观众直观展示了瀚博第二代全功能GPU SG100的强大算力。
南禺系列加速卡:智渲一体 全面覆盖云端及桌面应用
发布会上,瀚博也针对不同的应用场景推出了三款南禺系列全新GPU加速卡产品。
三款新品分别针对云游戏、云桌面与工作站提供相应算力支持,也为高质量内容生产提供了高效的算力支撑。
此次最新发布的南禺系列GPU加速卡 VG1600完美结合渲染与视频处理,打造出沉浸式云游戏体验,为玩家创造更真实的游玩场景。
其次,VG1800 也为远程工作带来全面升级,可流畅支持各类办公软件、教育APP和工业设计软件等,提供出色的云桌面用户体验。
更有支持Windows 操作系统下DirectX与 OpenGL等API接口的国产工作站显卡VG14,能够胜任多任务处理、大型专业软件运行等多元办公场景。

LLM大模型AI加速卡及一体机方案:大模型应用最低门槛
今年,以大模型等应用为典型代表打开了人工智能的广阔前景。未来,具有并行计算能力的GPU芯片作为大模型计算的“大脑”将为大模型生成学习提供源源不断的算力支撑。
针对大模型时代算力需求,瀚博本次首发了LLM大模型AI加速卡VA1L,具备200 TOPS INT8/72 TFLOPS FP16算力,并支持ChatGPT、LLaMA、Stable Diffusion等主流AIGC网络模型。

与此同时,瀚博更重磅推出AIGC大模型一体机,共使用8张LLM大模型AI加速卡VA1L,支持512GB显存,进而支持1750亿参数的大模型。
本次大模型一体机解决方案拥有业内最低门槛,也是目前针对AI大语言模型最低价格的大模型一体机方案。
此外,新品还提供两个特殊选配:具有对话功能的2卡单独运行语音转文字或者文字转语音版本以及使用SG 100做云端实时渲染的2U 11卡版本,提供大模型会话数字人实时渲染,使大模型推理更高效,服务于大模型行业发展。

发布会上,张磊也为观众展示了AI大模型“智能对话”、“文生图”等应用示例,生动展现了瀚博大模型新品支撑的广泛应用场景。
VA12: 高性能生成式AI加速卡
针对生成式AI应用和其他通用AI应用,瀚博本次也推出全新高性能智能加速卡VA12。
作为250W板卡,VA12有512 TOPS的INT 8的算力和160 TFLOPS的FP16算力,更高效支持StableDiffusion。
与此同时,作为瀚博VA1和VA10的升级版,VA12也是一块通用AI加速卡,支持检测、分类、分割、视频增强、语义理解、BERT、Transfomer和视频编解码等应用。
VA 12的发布将为未来AIGC平台的发展构筑算力底座,让未来的数字内容生产拥有更高效的计算能力与更多元的可能性。

6. 人工智能在日常生活中的十大应用

原文:https://mp.weixin.qq.com/s/HqVbMOBwpIaHt1eQz3C2Cg
7月6日下午,瀚博半导体在2023世界人工智能大会上正式发布第二代GPU SG 100。
一并推出的还有南禺系列GPU加速卡 VG1600、VG1800、VG14以及LLM大模型AI加速卡VA1L、AIGC大模型一体机、VA12高性能生成式AI加速卡等6款新品,为AI大模型、图形渲染和高质量内容生产提供完整解决方案。
本次发布会以“智渲同芯,共生未来”为主题,瀚博半导体创始人兼CTO张磊在发布会上发表了《从像素到杰作:国产芯片加速AI大模型和元宇宙》主题演讲,吸引众多行业伙伴、知名媒体以及投资机构到场。

今年,人工智能在公众使用方面取得了惊人的新进展。一张人工智能生成的图像甚至在与人类艺术家竞争时获得了艺术奖(https://www.nytimes.com/2022/09/02/technology/ai-artificial-intelligence-artists.html)。
事实是,人工智能就在我们身边。
它被用来帮助筛查癌症,打击偷猎濒危大象的行为,并能够从太空探测考古遗址。但人工智能并不局限于科学前沿。事实上,人工智能无处不在。
你可能在日常生活中也使用人工智能。
“人工智能技术渗透到了我们生活的方方面面,这几乎是潜移默化的,”IEEE高级会员Guangjie Han说,“它为我们的设备提供动力,同时通过分析我们在这些设备上产生的数据而不断进行改进。”
人工智能在日常生活中的常见用途包括:
1. 智能助理:智能手机或智能家居设备上的语音助手由人工智能支持。有时,请求可以在手机上处理。有时请求会被发送到云服务器进行处理。
2. 智能家居设备:通过人工智能,智能恒温器可以自动调整家中的暖通空调系统,而摄像头可以提醒消费者有人、车或包裹到达。
3. 电子商务:人工智能在网上购物中无处不在。值得注意的应用程序扩展包括了产品建议,可以帮助管理销售和退货的聊天机器人,以及定制的购物体验。
4. 零售业的趋势识别:在线商店不仅仅是在你购物时提供推荐,他们还积极使用商店和竞争对手的销售数据来识别趋势。通过使用人工智能进行设计和制造,以便满足公众的需求。
5. 内容推荐:人工智能支持的内容推荐引擎使用产品目录和消费者数据进行培训,以提供更个性化的推荐。
6. 导航和旅行:纸质地图已经成为过去。人工智能生成的路线可以优化旅行时间或减少油耗。
7. 药物研究:通过识别其潜在危险和作用机制,人工智能系统能够帮助寻找新的药物应用。这项技术帮助建立了几个药物发现平台,使企业能够重复使用当前的药物和生物活性物质进行研究。
8. 面部识别解锁手机:看向手机即可解锁。这些功能得到了人工智能的支持,它利用相机和传感器技术来准确测量你的面部。
9. 金融欺诈检测:人工智能非常擅长模式分析,事实证明,我们大多数人使用信用卡的方式相当可预测。这使得它非常适合确定哪些信用卡交易可能是非法的。如果你曾经接到银行的电话,询问你是否进行了交易,那很可能是人工智能算法的结果。
10. 自动更正:人工智能系统使用机器学习、深度学习和自然语言处理来识别文字处理器、短信应用程序和其他文本媒体中的错误语言使用,并提供更正和建议。
在可预见的未来,人工智能系统的大部分工作将集中在构建更大、更少偏见的数据集上,用于训练模型。
“这些系统的训练在很大程度上取决于人工智能模型训练的数据,”IEEE会士(Fellow)Karen Panetta说,“它可以体验的场景越多,效果就越好,但这需要精心策划、注释的数据集。这些数据集必须多样化,以减少偏差,并动态更新,以反映新的条件和现实世界应用中出现的场景。”
同时,这也在提醒人们,在某些改变生活的环境中不要过度依赖人工智能系统。
Panetta说:“人工智能需要被解释。例如,许多公司正在销售评估人们表现并确定薪酬的产品。然而,这些系统做出的决定无法解释人工智能是如何决定结果的。人工智能不应该影响某人的生计。”
尽管人工智能盛行,但它仍有很大的发展和改进空间。

———————End——————


RT-Thread线下入门培训


7月 - 南京


1.免费 2.动手实验+理论 3.主办方免费提供开发板 4.自行携带电脑,及插线板用于笔记本电脑充电 5.参与者需要有C语言、单片机(ARM Cortex-M核)基础,请提前安装好RT-Thread Studio 开发环境


报名通道



立即扫码报名

(报名成功即可参加)





👇 点击阅读原文进入官网

RTThread物联网操作系统 帮助您了解RT-Thread相关的资讯.
评论
  • 光伏逆变器是一种高效的能量转换设备,它能够将光伏太阳能板(PV)产生的不稳定的直流电压转换成与市电频率同步的交流电。这种转换后的电能不仅可以回馈至商用输电网络,还能供独立电网系统使用。光伏逆变器在商业光伏储能电站和家庭独立储能系统等应用领域中得到了广泛的应用。光耦合器,以其高速信号传输、出色的共模抑制比以及单向信号传输和光电隔离的特性,在光伏逆变器中扮演着至关重要的角色。它确保了系统的安全隔离、干扰的有效隔离以及通信信号的精准传输。光耦合器的使用不仅提高了系统的稳定性和安全性,而且由于其低功耗的
    晶台光耦 2024-12-02 10:40 118浏览
  • 11-29学习笔记11-29学习笔记习学习笔记&记录学习学习笔记&记录学习学习笔记&记录学习学习笔记&记录学习笔记&记录学习习笔记&记学习学习笔记&记录学习学习笔记&记录学习习笔记&记录学习学习笔记&记录学习学习笔记记录学习学习笔记&记录学习学习笔记&记录学习学习笔记&记录学习学习笔记&记录学习学习笔记&记录学习习笔记&记录学习学习笔记&记录学习学习笔记&记录学习学习笔记&记录学习学习笔记&记录学习学习笔记&记录学习学习笔记&记录学习学习笔记&学习学习笔记&记录学习学习笔记&记录学习学习笔记&记
    youyeye 2024-12-02 23:58 59浏览
  • 概述 说明(三)探讨的是比较器一般带有滞回(Hysteresis)功能,为了解决输入信号转换速率不够的问题。前文还提到,即便使能滞回(Hysteresis)功能,还是无法解决SiPM读出测试系统需要解决的问题。本文在说明(三)的基础上,继续探讨为SiPM读出测试系统寻求合适的模拟脉冲检出方案。前四代SiPM使用的高速比较器指标缺陷 由于前端模拟信号属于典型的指数脉冲,所以下降沿转换速率(Slew Rate)过慢,导致比较器检出出现不必要的问题。尽管比较器可以使能滞回(Hysteresis)模块功
    coyoo 2024-12-03 12:20 86浏览
  • 作为优秀工程师的你,已身经百战、阅板无数!请先醒醒,新的项目来了,这是一个既要、又要、还要的产品需求,ARM核心板中一个处理器怎么能实现这么丰富的外围接口?踌躇之际,你偶阅此文。于是,“潘多拉”的魔盒打开了!没错,USB资源就是你打开新世界得钥匙,它能做哪些扩展呢?1.1  USB扩网口通用ARM处理器大多带两路网口,如果项目中有多路网路接口的需求,一般会选择在主板外部加交换机/路由器。当然,出于成本考虑,也可以将Switch芯片集成到ARM核心板或底板上,如KSZ9897、
    万象奥科 2024-12-03 10:24 53浏览
  •         温度传感器的精度受哪些因素影响,要先看所用的温度传感器输出哪种信号,不同信号输出的温度传感器影响精度的因素也不同。        现在常用的温度传感器输出信号有以下几种:电阻信号、电流信号、电压信号、数字信号等。以输出电阻信号的温度传感器为例,还细分为正温度系数温度传感器和负温度系数温度传感器,常用的铂电阻PT100/1000温度传感器就是正温度系数,就是说随着温度的升高,输出的电阻值会增大。对于输出
    锦正茂科技 2024-12-03 11:50 97浏览
  • 《高速PCB设计经验规则应用实践》+PCB绘制学习与验证读书首先看目录,我感兴趣的是这一节;作者在书中列举了一条经典规则,然后进行详细分析,通过公式推导图表列举说明了传统的这一规则是受到电容加工特点影响的,在使用了MLCC陶瓷电容后这一条规则已经不再实用了。图书还列举了高速PCB设计需要的专业工具和仿真软件,当然由于篇幅所限,只是介绍了一点点设计步骤;我最感兴趣的部分还是元件布局的经验规则,在这里列举如下:在这里,演示一下,我根据书本知识进行电机驱动的布局:这也算知行合一吧。对于布局书中有一句:
    wuyu2009 2024-11-30 20:30 118浏览
  • 学习学习笔记&记录学习学习笔记&记录学习学习笔记&记录学习学习笔记&记录学习学习笔记&记录学习笔记&记录学习习笔记&记学习学习笔记&记录学习学习笔记&记录学习习笔记&记录学习学习笔记&记录学习学习笔记记录学习学习笔记&记录学习学习笔记&记录学习学习笔记&记录学习学习笔记&记录学习学习笔记&记录学习习笔记&记录学习学习笔记&记录学习学习笔记&记录学习学习笔记&记录学习学习笔记&记录学习学习笔记&记录学习学习笔记&记录学习学习笔记&学习学习笔记&记录学习学习笔记&记录学习学习笔记&记录学习学习笔记&
    youyeye 2024-11-30 14:30 75浏览
  • 最近几年,新能源汽车愈发受到消费者的青睐,其销量也是一路走高。据中汽协公布的数据显示,2024年10月,新能源汽车产销分别完成146.3万辆和143万辆,同比分别增长48%和49.6%。而结合各家新能源车企所公布的销量数据来看,比亚迪再度夺得了销冠宝座,其10月新能源汽车销量达到了502657辆,同比增长66.53%。众所周知,比亚迪是新能源汽车领域的重要参与者,其一举一动向来为外界所关注。日前,比亚迪汽车旗下品牌方程豹汽车推出了新车方程豹豹8,该款车型一上市就迅速吸引了消费者的目光,成为SUV
    刘旷 2024-12-02 09:32 107浏览
  • 戴上XR眼镜去“追龙”是种什么体验?2024年11月30日,由上海自然博物馆(上海科技馆分馆)与三湘印象联合出品、三湘印象旗下观印象艺术发展有限公司(下简称“观印象”)承制的《又见恐龙》XR嘉年华在上海自然博物馆重磅开幕。该体验项目将于12月1日正式对公众开放,持续至2025年3月30日。双向奔赴,恐龙IP撞上元宇宙不久前,上海市经济和信息化委员会等部门联合印发了《上海市超高清视听产业发展行动方案》,特别提到“支持博物馆、主题乐园等场所推动超高清视听技术应用,丰富线下文旅消费体验”。作为上海自然
    电子与消费 2024-11-30 22:03 93浏览
  • 遇到部分串口工具不支持1500000波特率,这时候就需要进行修改,本文以触觉智能RK3562开发板修改系统波特率为115200为例,介绍瑞芯微方案主板Linux修改系统串口波特率教程。温馨提示:瑞芯微方案主板/开发板串口波特率只支持115200或1500000。修改Loader打印波特率查看对应芯片的MINIALL.ini确定要修改的bin文件#查看对应芯片的MINIALL.ini cat rkbin/RKBOOT/RK3562MINIALL.ini修改uart baudrate参数修改以下目
    Industio_触觉智能 2024-12-03 11:28 66浏览
  • 艾迈斯欧司朗全新“样片申请”小程序,逾160种LED、传感器、多芯片组合等产品样片一触即达。轻松3步完成申请,境内免费包邮到家!本期热荐性能显著提升的OSLON® Optimal,GF CSSRML.24ams OSRAM 基于最新芯片技术推出全新LED产品OSLON® Optimal系列,实现了显著的性能升级。该系列提供五种不同颜色的光源选项,包括Hyper Red(660 nm,PDN)、Red(640 nm)、Deep Blue(450 nm,PDN)、Far Red(730 nm)及Ho
    艾迈斯欧司朗 2024-11-29 16:55 174浏览
  • 当前,智能汽车产业迎来重大变局,随着人工智能、5G、大数据等新一代信息技术的迅猛发展,智能网联汽车正呈现强劲发展势头。11月26日,在2024紫光展锐全球合作伙伴大会汽车电子生态论坛上,紫光展锐与上汽海外出行联合发布搭载紫光展锐A7870的上汽海外MG量产车型,并发布A7710系列UWB数字钥匙解决方案平台,可应用于数字钥匙、活体检测、脚踢雷达、自动泊车等多种智能汽车场景。 联合发布量产车型,推动汽车智能化出海紫光展锐与上汽海外出行达成战略合作,联合发布搭载紫光展锐A7870的量产车型
    紫光展锐 2024-12-03 11:38 88浏览
  • RDDI-DAP错误通常与调试接口相关,特别是在使用CMSIS-DAP协议进行嵌入式系统开发时。以下是一些可能的原因和解决方法: 1. 硬件连接问题:     检查调试器(如ST-Link)与目标板之间的连接是否牢固。     确保所有必要的引脚都已正确连接,没有松动或短路。 2. 电源问题:     确保目标板和调试器都有足够的电源供应。     检查电源电压是否符合目标板的规格要求。 3. 固件问题: &n
    丙丁先生 2024-12-01 17:37 91浏览
我要评论
0
点击右上角,分享到朋友圈 我知道啦
请使用浏览器分享功能 我知道啦