最近一周,中国的神秘AI公司、被称为“AI界拼多多”的人工智能初创企业深度求索(DeepSeek)刷屏全球各大主流媒体和社交网站,尤其让美国AI科技圈极为震撼。
其最新发布的R1模型不仅在性能上比肩甚至超越了OpenAI的 o1,并完全开源,且以极低的成本实现了这一突破。
左为梁文锋
1月20日,极少露面的DeepSeek老板梁文锋首次亮相新闻联播,受邀参加座谈会并发言。同一天,DeepSeek在官微上发布了DeepSeek-R1,性能对标OpenAI o1正式版,并同步开源模型权重。
按照官方说法,DeepSeek-R1在后训练阶段大规模使用了强化学习技术,在仅有极少标注数据的情况下,极大提升了模型推理能力。在数学、代码、自然语言推理等任务上,性能比肩OpenAI o1正式版。
DeepSeek-R1 API 服务定价为每百万输入tokens 1 元(缓存命中)/ 4元(缓存未命中),每百万输出tokens 16元。
对比OpenAI o1的 API定价:每百万输入tokens 15美元、每百万输出tokens 60美元。
也就是说,每百万输出定价,DeepSeek-R1大概仅为OpenAI o1的3.65%,拥有极高的性价比。
更让人惊讶的是,DeepSeek-V3在仅使用2048块H800 GPU的情况下,完成了6710亿参数模型的训练,成本仅为557.6万美元,远低于其他顶级模型的训练成本(如GPT-4的10亿美元)。
因此,一些人认为,DeepSeek可能会颠覆NVIDIA在AI硬件领域的主导地位。
1月24日,在国外大模型排名Arena上,DeepSeek-R1基准测试已经升至全类别大模型第三,其中在风格控制类模型(StyleCtrl)分类中与OpenAI o1并列第一。
就在Arena放榜之后,全球关于DeepSeek的讨论再次升级。
NVIDIA的高级研究科学家Jim Fan(范麟熙)评价道:“我们生活在这样一个时代:一家非美国公司正在让OpenAI的初衷得以延续——真正开放、为所有人赋能的前沿研究。”
1月25日,NVIDA的“老对手”AMD火速为DeepSeek“站台”,宣布全新的DeepSeek-V3模型已集成至AMD InstinctGPU上。
美国私人投资基金Noah's Arc Capital Management认为,DeepSeek-V3模型的突破显著降低了AI培训成本,使AMD GPU成为比NVIDIA更具有成本效益的替代品,增强了AMD的市场地位。
那DeepSeek-R1为何让美国乃至全球的AI圈有如此大的反应?因为它突破了一个规则,一个由美国和OpenAI建立起的规则。
以往,全球AI的底层发展路线,是由OpenAI引领的,倡导“大力出奇迹”,以规模制胜。但也种“军备竞赛”的发展模式也将AI发展带入了一个怪圈,为追求更高的性能,大模型的体积只能不断膨胀,参数数量呈现指数级增长,同时带来了惊人的能源消耗和训练成本,一家公司想发展AI,就必须投入高昂的成本向NVIDIA买GPU训练,绝大多数公司根本难以为继。
但DeepSeek的诞生,让低成本、高性能AI成为了可能。大模型对算力投入的需求可能会从训练侧向推理侧倾斜,即未来对推理算力的需求将成为主要驱动力。而NVIDIA等硬件商的传统优势更多集中在训练侧,这可能会对其市场地位和战略布局产生影响。
要知道,前不久美国总统特朗普刚刚在白宫宣布,日本软银集团、美国开放人工智能研究中心和美国甲骨文公司三家企业将投资5000亿美元,用于在美国建设支持人工智能(AI)发展的基础设施。
美股大V“THE SHORT BEAR”在社交媒体上表示,DeepSeek创造了一个AI巨头们的痛苦时刻,根据红杉,美国AI公司每年必须产生约6000亿美元收入来支付其AI硬件费用。但现在看来,这种冒险行为变得越来越无利可图!
还有不少人把DeepSeek称为“美国股市最大的威胁”,甚至把DeepSeek与近期NVIDIA的回调联系在一起。1月24日,NVIDIA股价大跌3.12%,创下公司在年初CES展产品不及预期表现后的最大跌幅。
更重要的是,DeepSeek来自中国!一家名不见经传的“小公司”!
“在美国每天发生的大量创新里,这是非常普通的一个。他们之所以惊讶,是因为这是一个中国公司,在以创新贡献者的身份,加入到他们游戏里去。毕竟大部分中国公司习惯 follow,而不是创新。” 梁文锋说。
他认为,中国AI不可能永远处在跟随的位置。我们经常说中国AI和美国有一两年差距,但真实的gap是原创和模仿之差。如果这个不改变,中国永远只能是追随者,所以有些探索也是逃不掉的。
NVIDIA的领先,不只是一个公司的努力,而是整个西方技术社区和产业共同努力的结果。他们能看到下一代的技术趋势,手里有路线图。中国 AI 的发展,同样需要这样的生态。
很多国产芯片发展不起来,也是因为缺乏配套的技术社区,只有第二手消息,所以中国必然需要有人站到技术的前沿。
苹果App Store中国区免费榜显示,近一周全球刷屏的DeepSeek一举登上首位。同时,DeepSeek在美区苹果App Store免费榜从昨日的第六位飚升至第一位,超越ChatGPT、Meta旗下的社交媒体平台Threads、Google Gemini、Microsoft Copilot等美国科技公司的生成式AI产品。
据了解,这是唯一一次中国应用同时在中国和美区苹果App Store占据第一位。其火爆程度可见一斑了。
近日,一篇在匿名平台teamblind上发布的文章遭疯传,有一位自称是Meta员工称公司内部因DeepSeek模型而进入恐慌模式,并提到DeepSeek-V3在基准测试中,已经让(Meta推出的)Llama 4相形见绌,而更让人难堪的是一家“仅用550万美元训练预算的中国公司”就做到这一点。
该文称,Meta工程师正争分夺秒分析DeepSeek,试图复制其中的一切可能技术,而DeepSeek-R1的出现,也让情况更加严峻。
另据The Information爆料,Meta生成AI小组和基础设施团队的经理和工程师已开设了四个作战室来学习DeepSeek的工作原理。
其中两个动员起来的小组正在试图了解High-Flyer如何降低训练和运行DeepSeek的成本。第三个Meta研究小组正在试图弄清楚High-Flyer可能使用哪些数据来训练其模型。第四作战室正在考虑基于DeepSeek模型属性重构Meta模型的新技术。
AI科技初创公司Scale AI创始人亚历山大·王(Alexandr Wang)接受电视媒体公开采访时表示,中国人工智能公司DeepSeek的AI大模型性能大致与美国最好的模型相当。过去十年来,美国可能一直在人工智能竞赛中领先于中国,但DeepSeek的AI大模型发布可能会“改变一切”。
Meta创始人兼CEO扎克伯格表示,DeepSeek非常先进,并认为中美之间的AI差距非常小。
扎克伯格还表示,中国正在全力冲刺,如果将来有一个开源模型能被全世界广泛使用,我们希望它是一个美国模型。
随着DeepSeek全球爆火,其创始人梁文锋从幕后走到了台前。
20日下午,高层主持召开专家、企业家和教科文卫体等领域代表座谈会。此前,非常少露面的DeepSeek老板梁文锋,受邀参加并发言。
此前接受媒体采访时,梁文锋表示,中国AI不可能永远处在跟随的位置。“我们经常说中国 AI 和美国有一两年差距,但真实的gap是原创和模仿之差。如果这个不改变,中国永远只能是追随者,所以有些探索也是逃不掉的。”
他认为,英伟达的领先,不只是一个公司的努力,而是整个西方技术社区和产业共同努力的结果。
他们能看到下一代的技术趋势,手里有路线图。中国AI的发展,同样需要这样的生态。
很多国产芯片发展不起来,也是因为缺乏配套的技术社区,只有第二手消息,所以中国必然需要有人站到技术的前沿。
谈到开源,梁文锋表示,在颠覆性的技术面前,闭源形成的护城河是短暂的。即使OpenAI闭源,也无法阻止被别人赶超。所以我们把价值沉淀在团队上,我们的同事在这个过程中得到成长,积累很多 =know-how, 形成可以创新的组织和文化,就是我们的护城河。
左为梁文锋
公开资料显示,梁文锋,1985年出生于广东省湛江市。浙江大学毕业,拥有信息与电子工程学系本科和硕士学位。杭州幻方科技有限公司、DeepSeek创始人。
2008年起,梁文锋开始带领团队使用机器学习等技术探索全自动量化交易。2015年,幻方量化正式成立,2019年,其资金管理规模突破百亿元。
2016年10月21日,幻方量化推出第一个AI模型,第一份由深度学习生成的交易仓位上线执行,使用GPU进行计算。2017年,幻方量化宣称实现投资策略全面AI化。
2019年,梁文锋带领团队自主研发了“萤火一号”训练平台,总投资近2亿元,搭载了1100块GPU。两年后,“萤火二号”的投入增加到10亿元,搭载了约1万张英伟达A100显卡。
2021年,在梁文锋参与的论文中提到,他们正在部署的萤火二号系统,“配备了1万张A100 GPU芯片”,在性能上接近DGX-A100(英伟达推出的人工智能专用超级计算机),但成本降低了一半,同时能耗减少了40%。
2021年,幻方的资产管理规模突破千亿大关,跻身国内量化私募领域的“四大天王”之列。
2023年,他宣布将正式进军通用人工智能领域,并创办了深度求索DeepSeek,专注于做真正人类级别的人工智能。2023年7月,幻方量化宣布成立大模型公司DeepSeek,正式进军通用人工智能领域。梁文锋为创始人。
2024年5月,DeepSeek发布混合专家语言模型DeepSeek-V2。同年12月,DeepSeek-V3问世,这款性能优越且性价比极高的大语言模型,被硅谷同行誉为“来自东方的神秘力量”。
2025年1月20日,DeepSeek最新发布的R1模型不仅在性能上比肩甚至超越了OpenAI的 o1,并完全开源,且以极低的成本实现了这一突破。
在AI领域,DeepSeek带来的影响力,一点也不亚于“六代机”。那么,DeepSeek究竟厉害在哪里?
据新浪科技报道,今日,中国工程院院士、清华大学计算机系教授郑纬民指出了DeepSeek其成功出圈的关键所在。
目前,业界对于DeepSeek的喜爱与赞美,主要集中在三个方面。
第一,在技术层面,DeepSeek背后的DeepSeek-V3及公司新近推出的DeepSeek-R1两款模型,分别实现了比肩OpenAI 4o和o1模型的能力。
第二,DeepSeek研发的这两款模型成本更低,仅为OpenAI 4o和o1模型的十分之一左右。
第三,DeepSeek把这一两大模型的技术都开源了,这让更多的AI团队,能够基于最先进同时成本最低的模型,开发更多的AI原生应用。
DeepSeek是如何实现模型成本的降低的呢?郑纬民指出,“DeepSeek自研的MLA架构和DeepSeek MOE架构,为其自身的模型训练成本下降,起到了关键作用。”
他指出,“MLA主要通过改造注意力算子压缩了KV Cache大小,实现了在同样容量下可以存储更多的KV Cache,该架构和DeepSeek-V3模型中FFN 层的改造相配合,实现了一个非常大的稀疏MoE 层,这成为DeepSeek训练成本低最关键的原因。”
据了解,KV Cache是一种优化技术,常被用于存储人工智能模型运行时产生的token的键值对(即key- value数值),以提高计算效率。
具体而言,在模型运算过程中,KV cache会在模型运算过程中充当一个内存库的角色,以存储模型之前处理过的token键值,通过模型运算计算出注意力分数,有效控制被存储token的输入输出,通过“以存换算”避免了多数大模型运算每次都是从第一个token开始运算的重复计算,提升了算力使用效率。
此外,据郑纬民透露,DeepSeek还解决了“非常大同时非常稀疏的MoE模型”使用的性能难题,而这也成了“DeepSeek训练成本低最关键的原因”。
“DeepSeek比较厉害的是训练MoE的能力,成为公开MoE模型训练中第一个能训练成功这么大MoE的企业。”郑纬民说
此外,DeepSeek还充分利用专家网络被稀疏激活的设计,限制了每个token被发送往GPU集群节点(node)的数量,这使得GPU之间通信开销稳定在较低的水位。
早先,图灵奖得主、主导Meta AI研究的首席科学家杨立昆(Yann LeCun)认为,DeepSeek成功的最大收获并非中国竞争对其他国家带来更大威胁,而是AI开源的价值使任何人都能受益。
“对那些看到DeepSeek表现并认为‘中国在AI领域正超越美国’的人而言,你的解读错了”,杨立昆在Threads写道,“正确解读应是‘开源模型正超越专有模型’”。
觉得文章不错,点个“在看”分享一下呗