2025年:大模型ScalingLaw还能继续吗?

原创 SSDFans 2025-01-15 07:58


点击蓝字
关注我们



OpenAI 最近推出了其新的推理模型 o3,该模型在 ARC 数据集上大幅超越了之前的最佳性能(SOTA),并在具有挑战性的 FrontierMath 数据集上取得了令人惊叹的结果。很明显,该模型在推理能力方面是一个重要的进步。

然而,最近关于人工智能进展停滞的报道中包含了一种对进展速度的悲观情绪。许多人可能仍然在思考大型语言模型(LLM)扩展法则,这些法则预测计算、数据和模型大小的增加将导致更好的模型,是否已经“遇到了瓶颈”。我们是否达到了基于变换器的 LLMs 当前范式的可扩展性极限?

除了首次公开发布的推理模型(OpenAI 的 o1、Google 的 Gemini 2.0 Flash,以及即将在 2025 年发布的 o3)之外,大多数模型提供商似乎都在进行表面上看似渐进式的现有模型改进。从这个意义上说,2024 年基本上是一年的发展巩固,许多模型在本质上已经赶上了年初的主流模型 GPT-4。

但这掩盖了像 GPT-4o、Sonnet 3.5、Llama 3 等“主力”模型(即非推理模型)所取得的实际进展,这些模型在 AI 应用中最为频繁。大型实验室一直在推出这些模型的新版本,这些新版本在各个任务上都推动了 SOTA 性能,并且在编程和解决数学问题等任务上带来了巨大的改进。

不可忽视的是,2024 年模型性能的改进主要是由训练后和测试时计算的扩展所驱动的。在预训练方面,新闻并不多。这导致了一些猜测,即(预训练)扩展法则正在崩溃,我们已经达到了当前模型、数据和计算所能达到的极限。

在这篇文章中,将回顾 LLM 扩展法则的历史,并分享对未来方向的看法。从外部预测大型 AI 实验室的进展是困难的。对 2025 年 LLM 扩展可能如何继续的总结:    

预训练:有限 - 计算扩展正在进行中,但我们可能受限于足够规模的新高质量数据;

训练后:更有可能 - 合成数据的使用已被证明非常有效,这可能会继续下去;

推理时:也很有可能 - OpenAI 和 Google/Deepmind 在今年开始了这一趋势,其他参与者将跟进;同时,注意开源复制;在应用层面,我们将看到越来越多的代理产品。

什么是 LLM 扩展法则?

在深入探讨之前,什么是 LLM 扩展法则?简而言之:它们是关于规模(以计算、模型大小和数据集大小衡量)与模型性能之间相关性的经验观察。

有了这个背景,让我们看看我们目前的位置以及我们是如何走到这一步的。

计算最优的预训练 - Kaplan 和 Chinchilla

最初的扩展法则指的是 LLMs 的预训练阶段。Kaplan 扩展法则(OpenAI,2020)建议,随着、预训练计算预算增加,应该更多地扩展模型大小而不是数据。这意味着:给定 10 倍的训练预算增加,应该将模型大小扩展 5.5 倍,数据扩展 1.8 倍。

2020 年由 OpenAI 发布的 GPT-3,很可能遵循了这些扩展法则,并且在给定其大小的情况下,训练数据量异常少。也就是说,它有 1750 亿参数,但仅在 3000 亿token上进行了训练,这相当于大约 1.7 个token/参数。

这些原始扩展法则存在一些缺陷,例如没有考虑嵌入参数,并且通常使用相对较小的模型来估计扩展法则,这并不一定适用于大型模型。Chinchilla 扩展法则(Deepmind,2022)纠正了一些这些缺陷,并得出了非常不同的结论。    

特别是,数据的重要性比以前认为的要大得多,因此模型大小和数据应该与计算同等比例地扩展。这些新发现表明,像 GPT-3 和当时发布的其他模型实际上是严重欠拟合的。一个像 GPT-3 这样的 1750 亿参数的模型应该在大约 3.5T token上进行训练才能达到计算最优,这大约是 20 个token/参数。或者,通过反向论证,像 GPT-3 这样的模型应该小 20 倍,即只有 150 亿参数。

Chinchilla 陷阱:优化推理

仅仅遵循 Chinchilla 扩展法则会导致“Chinchilla 陷阱”,即你最终会得到一个太大、因此在大规模推理时运行成本过高的模型。例如,在 Touvron 等人(Meta,2023)的 Llama 1 论文中,指出损失在 Chinchilla 最优之后继续下降。Llama 1 模型以高达 142 个token/参数的比例进行训练,这是最小的(70 亿)模型,训练在 1T 标记上。这一趋势继续出现在 Llama 2(Meta,2023)中,token翻倍至 2T,导致高达 284 个token/参数的比例。最后,也在 Llama 3(Meta,2024)中出现,比例高达 1,875 个token/参数(80 亿模型在 15T tokne上训练)。训练这些小型模型更长时间使它们达到出人意料地高性能,且在推理时运行成本较低。    

这种证据不仅来自 Llama 3 模型训练在极高的token参数比例上,而且来自文献。例如,Sardana 等人(MosaicML,2023)估计了考虑推理时计算的扩展法则。在他们的实验中,他们训练了高达 10,000 个token/参数 的模型比例,并发现损失在 Chinchilla 最优之后继续下降。这些图表很好地说明了训练小型模型更长时间的点,以及如何导致如果预期有足够高的推理需求,总成本更低。

Sardana et al. (2023)

测试时间计算扩展

不用说,随着数据和参数越来越多地训练模型,计算成本越来越高。在 Llama 3 论文中,旗舰模型的训练使用了 3.8×10^25 FLOPs,这是 Llama 2 的 50 倍。根据 EpochAI,截至 2024 年 12 月,已知的最大训练预算是在 Gemini Ultra 的情况下,为 5×10^25 FLOPs。计算量非常大,尤其是如果考虑将其扩大几个数量级的话。    

OpenAI 2024

作为回应,2024 年发布了像 OpenAI 的 o1 和最近的 o3 这样的模型,这些模型利用测试时计算来生成预测。所以,这些模型不是立即生成答案,而是在测试时生成思维链,或使用 RL 技术来生成更好的答案。通俗地说,可以说我们给了模型更多时间来“思考”再给出答案。这催生了一种完全不同的 LLM 扩展法则,即测试时计算。

推荐听听 OpenAI 的 Noam Brown 的有趣演讲,他谈到了他在训练用于玩扑克、国际象棋、Hex 等游戏的模型时学到的经验,以及测试时计算如何使 SOTA 性能成为可能,这些性能仅通过扩展训练计算是无法实现的。

例如,如果存在训练和推理时间计算之间的权衡,即可以用 10 倍的训练预算换取 15 倍的推理时间计算增加,那么在训练计算已经非常昂贵而推理计算非常便宜的情况下,这样做是有意义的。    

Jones (2021)

扩展法则是否仍然有效,还是我们已经遇到了瓶颈?

这是个大问题,从大型实验室外部很难回答。让我们回顾一下他们内部的说法,同时要意识到他们的陈述可能存在一些偏见。

Anthropic 的 Dario Amodei 表示:“我见过这种情况发生很多次,真的相信扩展可能会继续,而且其中有一些我们还没有在理论上解释清楚的魔力。”

OpenAI 的 Sam Altman 则表示:“没有遇到瓶颈。”

此外,公司仍在扩大他们的数据中心,xAI 的 Colossus 集群托管了 10 万个 H100 节点,并计划将其扩展到至少 100 万个。

尽管在扩展计算能力时存在工程挑战和能源瓶颈,但这一过程正在进行中。然而,计算能力只是 LLM 扩展法则中的一个因素,另外两个因素是模型大小和数据。有了更大的集群,也可以在给定时间内训练更大的模型。不过,数据的扩展则是另一回事。

EpochAI 估计,在索引的网络中有 510T 个token的数据可用,而已知的最大数据集是大约 18T 个token(Qwen2.5)。看起来似乎还有很大的空间可以扩展数据,但其中大部分数据质量较低或重复。再加上从 1-2 年前开始,互联网上新增的大量文本是由 LLM 生成的。尽管还有可能的新数据源可用,例如转录互联网上的所有视频,或者使用不在开放互联网上的文本(例如专有数据),但低垂的果实已经被采摘了。   

EpochAI

扩展的边际效益递减实际上正是幂律关系所预期的。也就是说,为了获得第一单位的改进,需要 1 单位的数据,然后是 10 单位用于下一个改进,接着是 100 单位,以此类推。正如 Yann LeCun 所说,这适用于所有“长尾”领域,即随着数据集大小的增加,输入的多样性不断增长的领域,如对话和问答。

从扩展法则的方程式和图表来看,应该清楚地认识到这些关系是有极限的,这一点也得到了 Kaplan 原始论文[3]的认可。原因在于自然语言中固有的熵,以及损失无法降低到零。因此,虽然目前看来性能似乎只是随着计算、数据、模型大小的对数线性增长,但最终它必须趋于平稳。问题不在于是否会趋于平稳,而在于何时会发生。    

我们现在已经达到了这个点了吗?很难回答,因为这不仅仅是简单地将计算或数据再扩展一个数量级并看看会发生什么。AI 实验室正在构建大型的新集群,这将使他们能够更长时间地训练模型,并观察损失是否继续以相同的速度减少。据我们所知,我们还没有在 10 万个 H100 节点上训练这些模型,更不用说 100 万个了,所以很难判断我们还能将训练损失降低多少。更重要的是,我们只有一个互联网,所以扩展数据是一个更困难的问题。正如我们从 Kaplan 扩展法则中知道的,只有当模型不受这些因素之一的限制时,这些法则才成立。

Ilya Sutskever在NeurIPS 2024

然而,鉴于那些利用测试时计算的模型所表现出的令人印象深刻的表现,以及OpenAI 的 o3 的发布,很明显,扩展测试时计算是未来的发展趋势。

如下面的图表所示,当扩展测试时计算时,在具有挑战性的 Arc 数据集上的性能提升是相当显著的。从 o3 low到 o3 high,模型被赋予了 172 倍更多的计算资源来生成答案。它平均每道题使用 5700 万个token,相当于 13.8 分钟的运行时间,而在低计算设置中,它每道题仅使用 33 万个token,即每道题 1.3 分钟。    

根据 Noam Brown 的说法,这只是开始。明年,我们可能会让模型运行数小时、数天甚至数周来回答真正具有挑战性的问题。

Arc Prize网站

结论

鉴于目前的发展势头和硬件部署情况,人们将会尝试通过投入更多的计算资源来进一步推动扩展法则。这可能是在训练方面,通过延长预训练时间或在训练后投入更多资源,但尤其在推理方面,通过让模型“思考”更长时间后再给出答案。

公众可能并不总是能够接触到最大的模型,这些模型可能性能最佳,但运行成本过高。像 GPT4o 或 Sonnet 3.5 这样的模型,可能更适合用于推理的小型模型。而拥有 4050 亿参数的 Llama 3 模型,虽然相当庞大,但可以作为小型模型的优秀教师模型,或者用于生成合成数据。

今年的趋势,肯定会延续到 2025 年(在一年的这个时间点上,这是一个容易做出的预测):    

  • 代理(Agents)

  • 测试时计算(Test-time compute)

  • 合成数据(Synthetic data)

代理实际上也是测试时计算的一种方式,但这种方式比大型实验室更易于公众和应用开发者接触。尽管如此,大型实验室也在大力投资代理技术。

测试时计算是关键。正如我们在 o1 Gemini 2.0 Flash 和 o3 中所看到的,这些将是解决需要更复杂推理的用例,或者在需要权衡一些训练计算以换取更多推理计算的情况下的解决方案。

至于合成数据,它主要用于训练后,但也可以将清理互联网视为一种合成数据生成的方式。从今年的 LLM 论文中可以看出,合成数据对于 SFT 在数学和编程等任务上的性能提升非常重要。在某些领域,合成数据比其他领域更有用,所以不确定它是否真的能够填补人类撰写数据缺失的空白。

因此,本文的结论是,我们可能已经达到了一个点,即预训练扩展法则并没有完全崩溃,但可能正在放缓,这并不令人惊讶。这主要是因为我们已经耗尽了大量高质量文本的来源。

然而,这并不意味着该领域不会再有任何进展,因为预训练只是拼图的一部分。正如我们所见,扩展测试时计算和使用合成数据,很可能是未来进展的主要驱动力。至少到目前为止,我们可能只是处于测试时扩展法则的早期阶段,所以还有很大的改进空间。    

总之,这是我们看到的 2025 年 LLM 扩展最具潜力的方向:

预训练:有限 - 计算扩展正在进行中,但我们可能受限于足够规模的新高质量数据;

训练后:更有可能 - 合成数据的使用已被证明非常有效,这可能会继续下去;

推理时:也很有可能 - OpenAI 和 Google/Deepmind 在今年开始了这一趋势,其他参与者将跟进;同时,注意开源复制;在应用层面,我们将看到越来越多的代理产品。

参考文献:

[1] T. Brown et al. Language Models are Few-Shot Learners, 2020.[paper]

[2] J. Hoffmann et al. Training Compute-Optimal Large Language Models, 2022.[paper]

[3] J. Kaplan et al. Scaling Laws for Neural Language Models, 2020.[paper]

[4] H. Touvron et al. LLaMA: Open and Efficient Foundation Language Models, 2023.[paper]

[5] H. Touvron et al. Llama 2: Open Foundation and Fine-Tuned Chat Models, 2023.[paper]

[6] Llama Team, AI @ Meta. The Llama 3 Herd of Models, 2024.[paper]

[7] N. Sardana et al. Beyond Chinchilla-Optimal: Accounting for Inference in Language Model Scaling Laws, 2024.

原文链接:https://www.jonvet.com/blog/llm-scaling-in-2025 


高端微信群介绍

创业投资群


AI、IOT、芯片创始人、投资人、分析师、券商

闪存群


覆盖5000多位全球华人闪存、存储芯片精英

云计算群


全闪存、软件定义存储SDS、超融合等公有云和私有云讨论

AI芯片群


讨论AI芯片和GPU、FPGA、CPU异构计算

5G群


物联网、5G芯片讨论

第三代半导体群

氮化镓、碳化硅等化合物半导体讨论

储芯片群

DRAM、NAND、3D XPoint等各类存储介质和主控讨论

汽车电子群

MCU、电源、传感器等汽车电子讨论

光电器件群

光通信、激光器、ToF、AR、VCSEL等光电器件讨论

渠道群

存储和芯片产品报价、行情、渠道、供应链




< 长按识别二维码添加好友 >

加入上述群聊




长按并关注

带你走进万物存储、万物智能、

万物互联信息革命新时代

微信号:SSDFans
   

SSDFans AI+IOT+闪存,万物存储、万物智能、万物互联的闪存2.0时代即将到来,你,准备好了吗?
评论
  • 电动汽车(EV)正在改变交通运输,为传统内燃机提供更清洁、更高效的替代方案。这种转变的核心是电力电子和能源管理方面的创新,而光耦合器在其中发挥着关键作用。这些不起眼的组件可实现可靠的通信、增强安全性并优化电动汽车系统的性能,使其成为正在进行的革命中不可或缺的一部分。光耦合器,也称为光隔离器,是一种使用光传输电信号的设备。通过隔离高压和低压电路,光耦合器可确保安全性、减少干扰并保持信号完整性。这些特性对于电动汽车至关重要,因为精确控制和安全性至关重要。 光耦合器在电动汽车中的作用1.电池
    腾恩科技-彭工 2025-01-10 16:14 75浏览
  • 在不断发展的电子元件领域,继电器——作为切换电路的关键设备,正在经历前所未有的技术变革。固态继电器(SSR)和机械继电器之间的争论由来已久。然而,从未来发展的角度来看,固态继电器正逐渐占据上风。本文将从耐用性、速度和能效三个方面,全面剖析固态继电器为何更具优势,并探讨其在行业中的应用与发展趋势。1. 耐用性:经久耐用的设计机械继电器:机械继电器依靠物理触点完成电路切换。然而,随着时间的推移,这些触点因电弧、氧化和材料老化而逐渐磨损,导致其使用寿命有限。因此,它们更适合低频或对切换耐久性要求不高的
    腾恩科技-彭工 2025-01-10 16:15 97浏览
  • 食物浪费已成为全球亟待解决的严峻挑战,并对环境和经济造成了重大影响。最新统计数据显示,全球高达三分之一的粮食在生产过程中损失或被无谓浪费,这不仅导致了资源消耗,还加剧了温室气体排放,并带来了巨大经济损失。全球领先的光学解决方案供应商艾迈斯欧司朗(SIX:AMS)近日宣布,艾迈斯欧司朗基于AS7341多光谱传感器开发的创新应用来解决食物浪费这一全球性难题。其多光谱传感解决方案为农业与食品行业带来深远变革,该技术通过精确判定最佳收获时机,提升质量控制水平,并在整个供应链中有效减少浪费。 在2024
    艾迈斯欧司朗 2025-01-14 18:45 7浏览
  •   在信号处理过程中,由于信号的时域截断会导致频谱扩展泄露现象。那么导致频谱泄露发生的根本原因是什么?又该采取什么样的改善方法。本文以ADC性能指标的测试场景为例,探讨了对ADC的输出结果进行非周期截断所带来的影响及问题总结。 两个点   为了更好的分析或处理信号,实际应用时需要从频域而非时域的角度观察原信号。但物理意义上只能直接获取信号的时域信息,为了得到信号的频域信息需要利用傅里叶变换这个工具计算出原信号的频谱函数。但对于计算机来说实现这种计算需要面对两个问题: 1.
    TIAN301 2025-01-14 14:15 100浏览
  • 01. 什么是过程能力分析?过程能力研究利用生产过程中初始一批产品的数据,预测制造过程是否能够稳定地生产符合规格的产品。可以把它想象成一种预测。通过历史数据的分析,推断未来是否可以依赖该工艺持续生产高质量产品。客户可能会要求将过程能力研究作为生产件批准程序 (PPAP) 的一部分。这是为了确保制造过程能够持续稳定地生产合格的产品。02. 基本概念在定义制造过程时,目标是确保生产的零件符合上下规格限 (USL 和 LSL)。过程能力衡量制造过程能多大程度上稳定地生产符合规格的产品。核心概念很简单:
    优思学院 2025-01-12 15:43 501浏览
  • 根据Global Info Research(环洋市场咨询)项目团队最新调研,预计2030年全球无人机电池和电源产值达到2834百万美元,2024-2030年期间年复合增长率CAGR为10.1%。 无人机电池是为无人机提供动力并使其飞行的关键。无人机使用的电池类型因无人机的大小和型号而异。一些常见的无人机电池类型包括锂聚合物(LiPo)电池、锂离子电池和镍氢(NiMH)电池。锂聚合物电池是最常用的无人机电池类型,因为其能量密度高、设计轻巧。这些电池以输出功率大、飞行时间长而著称。不过,它们需要
    GIRtina 2025-01-13 10:49 170浏览
  • 说到福特,就要从亨利·福特(Henry Ford)这个人物说起。在发明大王爱迪生的电气工厂担任工程师的福特下班后,总是在自家仓库里努力研究和开发汽车。1896年,福特终于成功制造出一辆三轮车,开启了福特汽车的传奇。最初几年,福特都是独自制造汽车并同时进行销售。 (今天很多人都知道的精益管理中的5S方法,或多或少地受到了福特 CANDO方法的影响。)1903年,福特从牧师、律师、银行家、会计师等十一位股东那里筹集了十万美元,并在自家庭院成立了美国第五百零三家汽车公司——福特汽车公司(Fo
    优思学院 2025-01-10 11:21 51浏览
  • 流量传感器是实现对燃气、废气、生活用水、污水、冷却液、石油等各种流体流量精准计量的关键手段。但随着工业自动化、数字化、智能化与低碳化进程的不断加速,采用传统机械式检测方式的流量传感器已不能满足当代流体计量行业对于测量精度、测量范围、使用寿命与维护成本等方面的精细需求。流量传感器的应用场景(部分)超声波流量传感器,是一种利用超声波技术测量流体流量的新型传感器,其主要通过发射超声波信号并接收反射回来的信号,根据超声波在流体中传播的时间、幅度或相位变化等参数,间接计算流体的流量,具有非侵入式测量、高精
    华普微HOPERF 2025-01-13 14:18 468浏览
  • 新年伊始,又到了对去年做总结,对今年做展望的时刻 不知道你在2024年初立的Flag都实现了吗? 2025年对自己又有什么新的期待呢? 2024年注定是不平凡的一年, 一年里我测评了50余块开发板, 写出了很多科普文章, 从一个小小的工作室成长为科工公司。 展望2025年, 中国香河英茂科工, 会继续深耕于,具身机器人、飞行器、物联网等方面的研发, 我觉得,要向未来学习未来, 未来是什么? 是掌握在孩子们生活中的发现,和精历, 把最好的技术带给孩子,
    丙丁先生 2025-01-11 11:35 447浏览
  • 随着全球向绿色能源转型的加速,对高效、可靠和环保元件的需求从未如此强烈。在这种背景下,国产固态继电器(SSR)在实现太阳能逆变器、风力涡轮机和储能系统等关键技术方面发挥着关键作用。本文探讨了绿色能源系统背景下中国固态继电器行业的前景,并强调了2025年的前景。 1.对绿色能源解决方案日益增长的需求绿色能源系统依靠先进的电源管理技术来最大限度地提高效率并最大限度地减少损失。固态继电器以其耐用性、快速开关速度和抗机械磨损而闻名,正日益成为传统机电继电器的首选。可再生能源(尤其是太阳能和风能
    克里雅半导体科技 2025-01-10 16:18 322浏览
  • PNT、GNSS、GPS均是卫星定位和导航相关领域中的常见缩写词,他们经常会被用到,且在很多情况下会被等同使用或替换使用。我们会把定位导航功能测试叫做PNT性能测试,也会叫做GNSS性能测试。我们会把定位导航终端叫做GNSS模块,也会叫做GPS模块。但是实际上他们之间是有一些重要的区别。伴随着技术发展与越发深入,我们有必要对这三个词汇做以清晰的区分。一、什么是GPS?GPS是Global Positioning System(全球定位系统)的缩写,它是美国建立的全球卫星定位导航系统,是GNSS概
    德思特测试测量 2025-01-13 15:42 475浏览
  • ARMv8-A是ARM公司为满足新需求而重新设计的一个架构,是近20年来ARM架构变动最大的一次。以下是对ARMv8-A的详细介绍: 1. 背景介绍    ARM公司最初并未涉足PC市场,其产品主要针对功耗敏感的移动设备。     随着技术的发展和市场需求的变化,ARM开始扩展到企业设备、服务器等领域,这要求其架构能够支持更大的内存和更复杂的计算任务。 2. 架构特点    ARMv8-A引入了Execution State(执行状
    丙丁先生 2025-01-12 10:30 457浏览
  • 随着通信技术的迅速发展,现代通信设备需要更高效、可靠且紧凑的解决方案来应对日益复杂的系统。中国自主研发和制造的国产接口芯片,正逐渐成为通信设备(从5G基站到工业通信模块)中的重要基石。这些芯片凭借卓越性能、成本效益及灵活性,满足了现代通信基础设施的多样化需求。 1. 接口芯片在通信设备中的关键作用接口芯片作为数据交互的桥梁,是通信设备中不可或缺的核心组件。它们在设备内的各种子系统之间实现无缝数据传输,支持高速数据交换、协议转换和信号调节等功能。无论是5G基站中的数据处理,还是物联网网关
    克里雅半导体科技 2025-01-10 16:20 436浏览
  • 随着数字化的不断推进,LED显示屏行业对4K、8K等超高清画质的需求日益提升。与此同时,Mini及Micro LED技术的日益成熟,推动了间距小于1.2 Pitch的Mini、Micro LED显示屏的快速发展。这类显示屏不仅画质卓越,而且尺寸适中,通常在110至1000英寸之间,非常适合应用于电影院、监控中心、大型会议、以及电影拍摄等多种室内场景。鉴于室内LED显示屏与用户距离较近,因此对于噪音控制、体积小型化、冗余备份能力及电气安全性的要求尤为严格。为满足这一市场需求,开关电源技术推出了专为
    晶台光耦 2025-01-13 10:42 491浏览
  • Snyk 是一家为开发人员提供安全平台的公司,致力于协助他们构建安全的应用程序,并为安全团队提供应对数字世界挑战的工具。以下为 Snyk 如何通过 CircleCI 实现其“交付”使命的案例分析。一、Snyk 的挑战随着客户对安全工具需求的不断增长,Snyk 的开发团队面临多重挑战:加速交付的需求:Snyk 的核心目标是为开发者提供更快、更可靠的安全解决方案,但他们的现有 CI/CD 工具(TravisCI)运行缓慢,无法满足快速开发和部署的要求。扩展能力不足:随着团队规模和代码库的不断扩大,S
    艾体宝IT 2025-01-10 15:52 164浏览
我要评论
0
点击右上角,分享到朋友圈 我知道啦
请使用浏览器分享功能 我知道啦