AI芯片市场风云再起:围攻“英伟达”

电子工程世界 2025-02-13 08:00
▲ 点击上方蓝字关注我们,不错过任何一篇干货文章!
在AI芯片领域,英伟达长期以来一直占据着无可争议的领先地位,稳坐行业霸主的宝座。然而,如今局势似乎正在悄然发生变化。越来越多的厂商正摩拳擦掌,纷纷祭出各自的“杀手锏”,以多元化的策略和创新的产品,向英伟达这座看似坚不可摧的“高峰”发起了一轮又一轮的冲击,试图打破现有的市场格局,重新定义AI芯片的未来走向。


AI 芯片初创公司融资,与 Nvidia 竞争


一家旨在与 Nvidia 竞争的初创芯片制造商周二表示,已融资 2,350 万美元,用于扩大其美国产人工智能芯片的生产。

参与此轮融资的投资者包括以支持埃隆·马斯克的公司而闻名的 Valor Equity Partners、Atreides Management、Flume Ventures 和 Resilience Reserve。

Positron 的芯片用于推理,即使用 AI 模型的阶段,而不是用于训练 AI 模型。目前,对训练芯片的需求更高,但分析师预测,随着更多 AI 应用的部署,对推理芯片的需求可能会超过训练芯片。

随着企业努力应对 AI 资本支出、不断上升的成本和供应商锁定,Positron 为客户提供了高性能、节能的替代方案。Positron 的 Atlas 系统目前在推理方面实现了比 Nvidia H100 GPU 更高的 3.5 倍每美元性能和 3.5 倍的功率效率。Positron 的 FPGA 服务器利用内存优化架构,带宽利用率达到 93% 以上(而 GPU 仅为 10-30%),支持万亿参数模型,同时提供与 Hugging Face 和 OpenAI API 的即插即用兼容性。与 H100/H200 设置相比,这些系统的推理速度提高了 70%,功耗降低了 66%,将数据中心资本支出削减了 50%。

除了规格之外(在受全球政治和经济紧张局势影响的生态系统中,这些规格同样重要),该公司的第一代 Atlas 系统完全在美国设计、制造和组装。


Nvidia 挑战者 Groq 融资15 亿美元


美国人工智能芯片制造商 Groq 报告称,该公司已获得沙特阿拉伯 15 亿美元的承诺。借助这笔资金,这个中东国家希望扩大先进人工智能芯片的供应。

这家硅谷公司由前谷歌员工、TPU 的创造者乔纳森·罗斯创立,以生产优化速度和执行预训练模型命令的推理芯片而闻名。

分析师认为 Groq 是Nvidia 的潜在竞争对手。后者目前是 AI 革命的最大赢家。凭借 Groq 及其自主研发的语言处理单元 (LPU),一个强大的竞争对手已经酝酿已久。15 亿美元投资的消息进一步证实了这一观点。

LPU 计划于 2024 年初推出。虽然其他潜在的 Nvidia 竞争对手专注于训练和推理,但 Groq 的目标非常明确:Groq 是快速 AI 推理。通过与 OpenAI 兼容的 API 链接,该公司旨在吸引用户远离使用 GPT-4o 和 o1 等封闭模型。

语言处理单元 (LPU) 的开发由前谷歌 TPU 设计师 Jonathan Ross 领导。LPU 于 2024 年初推出,可在线试用。与其他潜在的 Nvidia 竞争对手瞄准训练和推理相比,Groq 的目标很明确:“Groq 是快速 AI 推理”。得益于与 OpenAI 兼容的 API 连接,该公司的目标是让用户不再使用 GPT-4o 和 o1 等封闭模型。那么,与 Meta 和 DeepSeek 等公司合作的机会就很大了。

这已经表明,Groq 可能并不打算直接与 Nvidia 竞争。自从我们一年前报道该公司以来,我们注意到像 Groq 这样的公司更愿意直接针对最终用户,而将硬件本身抽象出来。最终目标是尽可能降低延迟。如果您只是想在没有本地硬件的情况下快速运行 Llama 3.3 70B,那么这可能是正确的产品。鉴于 Groq 没有提供有关主要硬件交易的明确信息,我们只能假设除了国家实验室的实验和通过其 API 接触 Groq 的客户之外,这样的交易并不多。

然而,LPU 是另一个调整 GPU 以适应企业实际计算需求的例子。“Groq LPU 架构始于软件优先原则”,该公司表示,这导致了专用于线性代数的芯片的诞生——“人工智能推理的主要要求”。实际上,编译器已经确定了芯片布局,没有路由器或控制器阻碍硬件与自身通信。用 Groq 的话来说,LPU 是一条“装配线”或“传送带”,将数据从其各种片上内存模块和芯片中转移出来。这是为了避免该公司所谓的 Nvidia 的“中心辐射”方法所固有的 GPU 开销。

最终的结果是,该芯片能够达到 750 TOPS。每个芯片包含 230 MB 的 SRAM 和 80 TB/s 的片上内存带宽。鉴于一个 GroqChip 只是 GroqRack 计算集群的一部分,这些基本规格最终并不是该公司最突出的。它最出名的就是快速推理。也许大规模的人工智能采用将使 Groq 找到自己的利基市场,并向世界展示它的成功。到目前为止,我们只能根据撰写本文时对基于 Groq 的 LLM 发出的 1,425,093,318 个请求来判断。


Meta 欲收购韩国 AI 芯片公司 Furiosa AI


据报道,Meta Platforms(Meta)正在考虑收购韩国AI半导体设计初创公司Furiosa AI。

11日(当地时间),美国经济媒体《福布斯》援引消息人士的话报道称,Meta 正在商谈收购 Furiosa AI 事宜,谈判最早可能在本月完成。

Furiosa AI 是一家设计数据中心 AI 半导体的无晶圆厂公司(专门从事半导体设计),由曾在三星电子和 AMD 任职的 CEO 白俊浩于 2017 年创立。继 2021 年推出首款 AI 半导体“Warboy”后,该公司于去年 8 月推出了下一代 AI 半导体“Renegade”(RNGD)。

目前已有多家企业对Furiosa AI表现出兴趣,据悉Meta是其中之一。有分析认为,Meta收购Furiosa AI是为了巩固自身AI芯片研发能力。

目前,Meta 正花费巨额资金批量采购英伟达 AI 芯片,并与博通合作开发定制 AI 芯片。该公司今年计划投资高达 650 亿美元(约 93 万亿韩元),包括用于 AI 研究和新数据中心的建设。

Furiosa AI 迄今已筹集约 1.15 亿美元(约 1671 亿韩元),并于本月初从风险投资公司 Krit Ventures 获得了额外的 20 亿韩元投资。Naver 和 DSC Investment 参与了初始融资,据报道,首席执行官 Baek Joon-ho 持有该公司 18.4% 的股权。


OpenAI 自研芯片,挑战 Nvidia


大型科技公司和人工智能初创公司仍然在很大程度上依赖 Nvidia 的芯片来训练和运行最先进的人工智能模型。然而,这种情况可能很快就会改变。OpenAI 正在带头开展一项大规模的全行业努力,将更便宜的定制人工智能加速器推向市场。如果成功,这一举措可能会削弱 Nvidia 在人工智能硬件领域的主导地位,使该公司陷入更艰难的市场。

OpenAI 即将推出其首款定制设计的 AI 芯片。路透社预计,该公司将在未来几个月将芯片设计发送给台积电进行验证,然后于 2026 年开始量产。该芯片已进入流片阶段,但 OpenAI 可能需要大量员工才能在 AI 加速器市场实现完全自给自足。

这款定制芯片由 Richard Ho 领导的“小型”内部团队设计,他一年多前离开谷歌加入 OpenAI。这个 40 人团队与 Broadcom 合作,Broadcom 是一家备受争议的公司,在创建定制 ASIC 解决方案方面有着良好的记录。两家公司于 2024 年开始谈判以芯片为重点的合作伙伴关系,最终目标是打造新的 AI 芯片。

业内消息人士称,OpenAI 的设计既可以训练也可以运行 AI 模型,但该公司最初只会将其有限量地用于 AI 推理任务。台积电将在其 3nm 技术节点上制造最终的芯片,OpenAI 预计它将包含一定数量的高带宽内存,就像任何其他主要的 AI(或 GPU)硅片设计一样。

尽管在未来几个月内 OpenAI 的芯片在公司基础设施中只扮演次要角色,但在不久的将来,它可能会成为一股重大的颠覆性力量。新设计首先需要顺利通过流片阶段,而 Ho 的团队需要修复在初始制造测试中发现的任何硬件错误。

许多科技公司都在积极努力用自己的定制 AI 加速解决方案取代 Nvidia 产品,但这家 GPU 制造商仍占据着约 80% 的市场份额。微软、谷歌、Meta 和其他大型科技巨头正在雇用数百名工程师来解决芯片问题,而 OpenAI 在时间和员工规模方面都排在最后。

简而言之,OpenAI 需要的不仅仅是目前由 Richard Ho 领导的开发 AI 芯片原型的小型内部团队。在内部,该芯片项目被视为不断发展的 AI 领域未来战略举措的关键工具。在等待台积电的设计验证的同时,OpenAI 工程师已经在计划更先进的迭代,以实现更广泛的应用。


英伟达的弱点,芯片公司群起而攻之


虽然没有哪家公司像 Nvidia 那样,市值飙升至数万亿美元,但 IBM 和(最近)英特尔等公司知道强者确实会衰落。当一个人处于巅峰时,自满情绪就会渗透进来。当 Nvidia 故事中所有关键人物都早早退休享受丰厚的退休金时,可能会发生人才流失。

Nvidia 的另一个潜在弱点在于其实际产品:GPU。它们是功能极其强大的通用并行处理器。它们被设计为比世界上任何常见的处理器都更能处理并行化。然而,它们似乎已经达到了极限。最新的两代芯片(Ada Lovelace 和 Blackwell)已经达到了台积电的最大标线尺寸。

换句话说,实际硅片无法超越其当前规模。Blackwell 应该通过融合芯片来解决这个问题,但这些已经导致了代价高昂的延迟。它们可能也会出现在下一代 Rubin 架构及以后的架构中。除此之外,GPU 的运行方式存在固有的开销,而这些开销是潜在竞争对手无法削减的。GPU 具有多面性,之所以被选为 AI 引擎,并不是因为它们被设计为高效处理 GenAI 工作负载,而是因为它们是手头上最接近的计算单元,而且具有可扩展性。

推翻 Nvidia 的道路是采用特定的 GenAI 中心架构。这种芯片本质上是为 AI 革命量身定制的,拥有随之而来的所有效率和速度。他们的主要优势是简单地摆脱所有 GPU 开销并砍掉使 Nvidia 硬件如此通用的任何不必要的硅片。有些公司正在寻求这样做。

一、Cerebras:晶圆级的“芯片上的模型”

Cerebras Systems做出的承诺确实很高。这家美国公司拥有“世界上最快的推理速度”——比 GPU 快 70 倍——已成为 Nvidia 最突出的替代品之一。如果有人认为 Blackwell 芯片很大,那就看看 Cerebras 的庞然大物吧。他们的处理器是“晶圆级”的。这意味着它们是矩形硅片,大小几乎与代工厂标准 300 毫米晶圆尺寸允许的大小相当。

单个 Cerebras WSE-3 带有 44GB 的片上内存,大约是 Nvidia H100 的 880 倍。真正的胜利是它的内存带宽。这通常是 GenAI 训练和推理的瓶颈:每秒 21 PB,这个数字比 H100 高出七千倍。当然,这都是理论上的吞吐量。即使是所谓的同类基准测试也无法告诉您需要多少优化才能利用这些强大的规格。

Cerebras 的客户名单令人印象深刻,但更让人对公司的未来充满信心。Meta、Docker、Aleph Alpha 和纳斯达克等公司都在使用该公司的技术。这些可能与 Cerebras 的一项或多项产品有关。这些范围从包罗万象的 AI 模型服务到按小时付费或按模型付费的方案,以进行大规模训练、微调和/或推理。Llama 3.3 系列模型、Mistral 和 Starcoder 成为与 Cerebras 兼容的 LLM 的典范,并具有真正的影响力。

Cerebras 极有可能还需要超过迄今为止在六轮融资中筹集的 7.2 亿美元的资金。考虑到 Nvidia 每年在研发上花费高达 800 亿美元,其晶圆级竞争对手最终的 IPO 可能会缩小这一差距。最终,性能和效率也可能对 Cerebras 有利。

显而易见的是,大量的片上内存使芯片设计比通过以太网或 Nvidia 自己的 InfiniBand 连接在一起的 GPU 集群更接近 AI 模型所需的营养。毕竟,权重和激活就在那里,以接近光速的速度提供,而不必通过相对缓慢的互连。我们在这里谈论的是纳秒的差异,但仍然是数量级的。当你把几个月的 AI 训练和推理加在一起时,这种差距就变得巨大了。

二、SambaNova:数据是关键

另一个挑战者则走上了一条不同的架构路线:SambaNova。四年前,在 ChatGPT 出现之前,该公司已经积累了 10 亿美元。与 Cerebras 一样,目前的产品也直指 Nvidia 的 GPU 解决方案,并突出了其固有的 AI 缺陷。与此同时, SambaNova将其 RDU(可重构数据流单元)列为“为下一代 AI 工作负载(称为 Agentic AI)而构建”。换句话说,该公司围绕模型的计算图来组织其硬件,而不是依赖顺序指令。

据称,单个 SN40L RDU 的内存中可以容纳“数百个模型”。这归功于其庞大的 1.5 TB DRAM、64GB 同封装 HBM 和超高速 520MB SRAM 缓存。单个 SN40L 节点可以以每秒超过 1TB 的速度传输数据。从表面上看,Nvidia 的最新一代 GPU Blackwell 已达到 8 TB/s 的速度。尽管如此,就目前情况而言,SambaNova 声称其数据流架构可实现地球上 Llama 3.1 405B 上最快的推理速度。据该公司称,RDU 在处理数据方面的内置效率意味着,在“一小部分占用空间”的情况下,可以获得比传统 GPU 更高的性能。

目前尚不清楚 SambaNova 在企业中的实际部署情况。阿贡国家实验室和劳伦斯利弗莫尔等国家实验室似乎很支持,一些专门针对医疗保健的公司也是如此。SambaNova 的最终目标是为企业提供本地 AI 培训解决方案。尽管资金雄厚,但我们需要看到更多大牌公司涌向 SambaNova,才能更加确定其长期可行性——无论是否通过官方公告。

三、Etched:一款主宰市场的transformer ASIC

与变压器模型最接近的类比是transformer ASIC。正如 Nvidia 挑战者 Etched 对其 Sohu 芯片的描述,变压器是“蚀刻在硅片上的”。它看起来很像 GPU,其 VRM 围绕着硅片,呈矩形附加卡形状。8 个变压器似乎比 8 个 Nvidia B200 GPU 的吞吐量要小,更不用说 8 个早期的 H100 了。最终结果是:使用 Llama 70B 每秒可处理 500,000 个令牌。

144GB HBM3E 仅向单个“核心”提供数据,实际上是将 LLM 的架构转移到硅片上。据说支持甚至达到 100 万亿个参数模型,远远超出了目前最先进的 LLM。完全开源的软件堆栈应该会吸引那些不愿意坚持使用 Nvidia 封闭的 CUDA 花园的人。

至关重要的是,Etched 击中了Nvidia 的痛处。如前所述,GPU 已经达到了极限。如果不采用一些技巧,比如构建通常达不到硅片速度的互连,它们就无法发展。而且,对于一些竞争对手来说,它们并不像 Etched 所做的那样专注于算法。然而,有一件事仍不清楚,那就是搜狐究竟何时会出现。在 2024 年中期引起轰动之后,事情变得相当平静。

四、AMD、英特尔、谷歌、亚马逊……

我们应该注意其他一些更为人熟知的潜在 Nvidia 竞争对手。最明显的是 AMD,它将其 Instinct MI 系列加速器打造为最接近 Nvidia GPU 的嵌入式产品。该公司的一些型号甚至将 Instinct 与 Epyc 集成到芯片设计中。这融合了 GPU 和 CPU 功能,可提供有前途的一体化 AI 套件。问题在于,其 ROCm 软件似乎未被充分采用和重视。CUDA 占主导地位,Nvidia 也是如此。为什么要为不像其竞争对手那样无处不在的芯片开发框架或模型管道?

英特尔也面临类似的问题,甚至更为严重。过去两年,英特尔的 Gaudi GPU 产品线并未产生推动 AMD 股价上涨的那种需求。除此之外,随着首席执行官帕特·基辛格 (Pat Gelsinger) 的离职,英特尔似乎失去了方向,在其他细分市场面临严峻挑战时,该公司在 AI 方面表现得毫无作为。如果没有业绩领先优势或 AMD 所拥有的挑战者地位,改变命运的希望就很渺茫。

与此同时,云提供商是 Nvidia 最大的客户之一。他们都希望摆脱对 AI 芯片巨头的依赖。他们正在通过打造自己的替代方案来实现这一目标。谷歌多年来一直这样做,其张量处理单元 (TPU) 是那些希望在云端运行 AI 的人的首选。然而,如果它们只能通过 Google Cloud 获得,它们就永远不会无处不在。

AWS 令人印象深刻的 Trainium 芯片和 Inferentia 系列也是如此,它们都可通过 AWS 获得。这些产品也永远不会在亚马逊拥有的数据中心之外找到。谷歌和 AWS(微软可能会效仿)需要构建一个开发人员堆栈来抽象架构。这通常意味着向 Nvidia 选项的可移植转变永远不会遥远。毕竟,只有当他们本来就有可能选择你的堆栈时,你才能吸引主要受众。


结论:看不到尽头


Nvidia 的替代品还有很多。我们可以继续讨论 Graphcore,自 2023 年出现可怕的消息以来,我们就没有再谈论过它。或者 Tenstorrent,它正在开源 RISC-V 架构上构建 AI 芯片。上面看到的选择只是整个竞争环境的一小部分。在中国,也有寒武纪、海光、华为、燧原、摩尔线程、沐曦、天数智芯和壁仞等一批芯片公司对英伟达发起总攻。我们认为,在硬件领域,总有机会出现一个意想不到的候选人,就像 DeepSeek 在 AI 模型制作者竞赛中所做的那样。

我们将回到开始的地方。Nvidia 在 GenAI 市场牢牢占据主导地位,尤其是在训练方面。尽管上述 AI 芯片初创公司展示了高标准,但我们没有看到任何可以阻止普通 AI 基础设施决策者购买 Nvidia 的东西。任何替代方案都必须以出色的效率承诺、绝对的性能冠军或两者兼而有之来向前迈进。

即便如此,现任者也不会轻易放手。Nvidia 已经忙于渗透尚未涉足的 AI 领域。除了在消费机器领域的主导地位外,它现在还通过 Project Digits 提出了完全专用于 GenAI 的开发套件。与此同时,Jetson Nano 服务于边缘部署。没有竞争对手,甚至连 Nvidia 最接近的竞争对手 AMD 都没有这种灵活性。这将帮助该公司渡过未来的风暴,即使它需要放弃 GPU 的全能地位才能取得进一步的成功。当你有 (约) 3 万亿美元的市值支持时,转向专用的 transformer/GenAI 处理器是最容易做到的。
来源:半导体行业观察等网络综合


· END ·


欢迎将我们设为“星标”,这样才能第一时间收到推送消息。

关注EEWorld旗下订阅号:“汽车开发圈”

回复“Auto”,免费领Autosar入门与实践资料包!


扫码添加小助手回复“进群”

和电子工程师们面对面交流经验

电子工程世界 关注EEWORLD电子工程世界,即时参与讨论电子工程世界最火话题,抢先知晓电子工程业界资讯。
评论 (0)
  • 文/Leon编辑/cc孙聪颖作为全球AI领域的黑马,DeepSeek成功搅乱了中国AI大模型市场的格局。科技大厂们选择合作,接入其模型疯抢用户;而AI独角兽们则陷入两难境地,上演了“Do Or Die”的抉择。其中,有着“大模型六小虎”之称的六家AI独角兽公司(智谱AI、百川智能、月之暗面、MiniMax、阶跃星辰及零一万物),纷纷开始转型:2025年伊始,李开复的零一万物宣布转型,不再追逐超大模型,而是聚焦AI商业化应用;紧接着,消息称百川智能放弃B端金融市场,聚焦AI医疗;月之暗面开始削减K
    华尔街科技眼 2025-03-12 17:37 172浏览
  • 引言汽车行业正经历一场巨变。随着电动汽车、高级驾驶辅助系统(ADAS)和自动驾驶技术的普及,电子元件面临的要求从未如此严格。在这些复杂系统的核心,存在着一个看似简单却至关重要的元件——精密电阻。贞光科技代理品牌光颉科技的电阻选型过程,特别是在精度要求高达 0.01% 的薄膜和厚膜技术之间的选择,已成为全球汽车工程师的关键决策点。当几毫欧姆的差异可能影响传感器的灵敏度或控制系统的精确性时,选择正确的电阻不仅仅是满足规格的问题——它关系到车辆在极端条件下的安全性、可靠性和性能。在这份全面指南中,我们
    贞光科技 2025-03-12 17:25 118浏览
  • DeepSeek自成立之初就散发着大胆创新的气息。明明核心开发团队只有一百多人,却能以惊人的效率实现许多大厂望尘莫及的技术成果,原因不仅在于资金或硬件,而是在于扁平架构携手塑造的蜂窝创新生态。创办人梁文锋多次强调,与其与大厂竞争一时的人才风潮,不如全力培养自家的优质员工,形成不可替代的内部生态。正因这样,他对DeepSeek内部人才体系有着一套别具一格的见解。他十分重视中式教育价值,因而DeepSeek团队几乎清一色都是中国式学霸。许多人来自北大清华,或者在各种数据比赛中多次获奖,可谓百里挑一。
    优思学院 2025-03-13 12:15 75浏览
  • 文/杜杰编辑/cc孙聪颖‍主打影像功能的小米15 Ultra手机,成为2025开年的第一款旗舰机型。从发布节奏上来看,小米历代Ultra机型,几乎都选择在开年发布,远远早于其他厂商秋季主力机型的发布时间。这毫无疑问会掀起“Ultra旗舰大战”,今年影像手机将再次被卷上新高度。无意臆断小米是否有意“领跑”一场“军备竞赛”,但各种复杂的情绪难以掩盖。岁岁年年机不同,但将2-3年内记忆中那些关于旗舰机的发布会拼凑起来,会发现,包括小米在内,旗舰机的革新点,除了摄影参数的不同,似乎没什么明显变化。贵为旗
    华尔街科技眼 2025-03-13 12:30 89浏览
  • 前言在快速迭代的科技浪潮中,汽车电子技术的飞速发展不仅重塑了行业的面貌,也对测试工具提出了更高的挑战与要求。作为汽车电子测试领域的先锋,TPT软件始终致力于为用户提供高效、精准、可靠的测试解决方案。新思科技出品的TPT软件迎来了又一次重大更新,最新版本TPT 2024.12将进一步满足汽车行业日益增长的测试需求,推动汽车电子技术的持续革新。基于当前汽车客户的实际需求与痛点,结合最新的技术趋势,对TPT软件进行了全面的优化与升级。从模型故障注入测试到服务器函数替代C代码函数,从更准确的需求链接到P
    北汇信息 2025-03-13 14:43 70浏览
  • 2025年,科技浪潮汹涌澎湃的当下,智能数字化变革正进行得如火如荼,从去年二季度开始,触觉智能RK3562核心板上市以来,受到了火爆的关注,上百家客户选用了此方案,也获得了众多的好评与认可,为客户的降本增效提供了广阔的空间。随着原厂的更新,功能也迎来了一波重大的更新,无论是商业级(RK3562)还是工业级(RK3562J),都可支持NPU和2×CAN,不再二选一。我们触觉智能做了一个艰难又大胆的决定,为大家带来两大重磅福利,请继续往下看~福利一:RK3562核心板149元特惠再续,支持2×CAN
    Industio_触觉智能 2025-03-12 14:45 31浏览
  •        随着人工智能算力集群的爆发式增长,以及5.5G/6G通信技术的演进,网络数据传输速率的需求正以每年30%的速度递增。万兆以太网(10G Base-T)作为支撑下一代数据中心、高端交换机的核心组件,其性能直接决定了网络设备的稳定性与效率。然而,万兆网络变压器的技术门槛极高:回波损耗需低于-20dB(比千兆产品严格30%),耐压值需突破1500V(传统产品仅为1000V),且需在高频信号下抑制电磁干扰。全球仅有6家企业具备规模化量产能力,而美信科
    中科领创 2025-03-13 11:24 55浏览
  • 曾经听过一个“隐形经理”的故事:有家公司,新人进来后,会惊讶地发现老板几乎从不在办公室。可大家依旧各司其职,还能在关键时刻自发协作,把项目完成得滴水不漏。新员工起初以为老板是“放羊式”管理,结果去茶水间和老员工聊过才发现,这位看似“隐形”的管理者其实“无处不在”,他提前铺好了企业文化、制度和激励机制,让一切运行自如。我的观点很简单:管理者的最高境界就是——“无为而治”。也就是说,你的存在感不需要每天都凸显,但你的思路、愿景、机制早已渗透到组织血液里。为什么呢?因为真正高明的管理,不在于事必躬亲,
    优思学院 2025-03-12 18:24 84浏览
  • 本文介绍Android系统主板应用配置默认获取管理所有文件权限方法,基于触觉智能SBC3588行业主板演示,搭载了瑞芯微RK3588芯片,八核处理器,6T高算力NPU;音视频接口、通信接口等各类接口一应俱全,支持安卓Android、Linux、开源鸿蒙OpenHarmony、银河麒麟Kylin等操作系统。配置前提在配置前,建议先将应用配置成系统应用,不然配置后系统每次重启后都会弹窗提示是否获取权限。应用配置成系统应用,可参考以下链接方法:瑞芯微开发板/主板Android系统APK签名文件使用方法
    Industio_触觉智能 2025-03-12 14:34 56浏览
  • 北京时间3月11日,国内领先的二手消费电子产品交易和服务平台万物新生(爱回收)集团(纽交所股票代码:RERE)发布2024财年第四季度和全年业绩报告。财报显示,2024年第四季度万物新生集团总收入48.5亿元,超出业绩指引,同比增长25.2%。单季non-GAAP经营利润1.3亿元(non-GAAP口径,即经调整口径,均不含员工股权激励费用、无形资产摊销及因收购产生的递延成本,下同),并汇报创历史新高的GAAP净利润7742万元,同比增长近27倍。总览全年,万物新生总收入同比增长25.9%达到1
    华尔街科技眼 2025-03-13 12:23 76浏览
  • 一、行业背景与需求痛点智能电子指纹锁作为智能家居的核心入口,近年来市场规模持续增长,用户对产品的功能性、安全性和设计紧凑性提出更高要求:极致空间利用率:锁体内部PCB空间有限,需高度集成化设计。语音交互需求:操作引导(如指纹识别状态、低电量提醒)、安全告警(防撬、试错报警)等语音反馈。智能化扩展能力:集成传感器以增强安全性(如温度监测、防撬检测)和用户体验。成本与可靠性平衡:在复杂环境下确保低功耗、高稳定性,同时控制硬件成本。WTV380-P(QFN32)语音芯片凭借4mm×4mm超小封装、多传
    广州唯创电子 2025-03-13 09:24 79浏览
  • 在海洋监测领域,基于无人艇能够实现高效、实时、自动化的海洋数据采集,从而为海洋环境保护、资源开发等提供有力支持。其中,无人艇的控制算法训练往往需要大量高质量的数据支持。然而,海洋数据采集也面临数据噪声和误差、数据融合与协同和复杂海洋环境适应等诸多挑战,制约着无人艇技术的发展。针对这些挑战,我们探索并推出一套基于多传感器融合的海洋数据采集系统,能够高效地采集和处理海洋环境中的多维度数据,为无人艇的自主航行和控制算法训练提供高质量的数据支持。一、方案架构无人艇要在复杂海上环境中实现自主导航,尤其是完
    康谋 2025-03-13 09:53 67浏览
  • 一、行业背景与用户需求随着健康消费升级,智能眼部按摩仪逐渐成为缓解眼疲劳、改善睡眠的热门产品。用户对这类设备的需求不再局限于基础按摩功能,而是追求更智能化、人性化的体验,例如:语音交互:实时反馈按摩模式、操作提示、安全提醒。环境感知:通过传感器检测佩戴状态、温度、压力等,提升安全性与舒适度。低功耗长续航:适应便携场景,延长设备使用时间。高性价比方案:在控制成本的同时实现功能多样化。针对这些需求,WTV380-8S语音芯片凭借其高性能、多传感器扩展能力及超高性价比,成为眼部按摩仪智能化升级的理想选
    广州唯创电子 2025-03-13 09:26 66浏览
  • 在追求更快、更稳的无线通信路上,传统射频架构深陷带宽-功耗-成本的“不可能三角”:带宽每翻倍,系统复杂度与功耗增幅远超线性增长。传统方案通过“分立式功放+多级变频链路+JESD204B 接口”的组合试图平衡性能与成本,却难以满足实时性严苛的超大规模 MIMO 通信等场景需求。在此背景下,AXW49 射频开发板以“直采+异构”重构射频范式:基于 AMD Zynq UltraScale+™ RFSoC Gen3XCZU49DR 芯片的 16 通道 14 位 2.5GSPS ADC 与 16
    ALINX 2025-03-13 09:27 45浏览
我要评论
0
0
点击右上角,分享到朋友圈 我知道啦
请使用浏览器分享功能 我知道啦