【投资】Q3科技巨头公司斥资620亿美元投入AI

来源:爱集微 #集成电路#
1116

1.Q3科技巨头公司斥资620亿美元投入AI

2.OpenAI CFO:下一代尖端AI模型将耗资数十亿美元

3.三菱电机寻求在日本建立功率芯片联盟

4.Marvell开发定制HBM内存解决方案 :接口缩小,兼容XPU

5.富士通展示144核Monaka Arm芯片:采用2nm/5nm工艺,内存上3D堆叠CPU内核

6.捷顺科技:因项目交付周期影响,传统智能硬件收入下滑


1.Q3科技巨头公司斥资620亿美元投入AI

自ChatGPT横空出世以来的两年里,人工智能(AI)已成为投资者关注的焦点,其影响力超过过去二十年中的任何其他技术突破。科技巨头们每个季度都在投入数百亿美元,以增强开发和运行AI系统所需的计算能力。

对于最大的支持者来说,AI的影响将是惊人的:它将取代大批员工,帮助研究人员发现救命药物,并使企业能够开拓新市场。AI还将带来巨大的效率提升,从而在未来几年内推动企业利润的增长。因此,AI相关股票在2022年10月开始的牛市中占据大部分份额。

自2022年11月30日以来的指数值或股价变化,来源:彭博社

然而,尽管AI的前景无疑是光明的,但目前它还没有带来多少收入。最近的一项盖洛普民意调查显示,只有4%的美国工人表示他们每天都在使用AI,超过三分之二的人表示他们从未使用过AI。诺贝尔经济学奖得主、麻省理工学院教授Daron Acemoglu认为,人们对AI进步的普遍预期过于乐观。“目前的AI模型在某些方面确实令人印象深刻,但它们仍然不适合广泛应用。”

一些投资者感觉到类似上世纪90年代的感觉,当时新生的互联网也带来类似热潮。这种在线转型花费的时间比预期的要长得多,造成了股价与基本面之间的严重错位,最终导致了一场史诗般的崩盘。一些大型科技股的交易价格相对于其收益再次远高于历史平均水平。

如今,无论有意与否,大多数投资者都在某种程度上押注于AI。拥有标准普尔500指数基金的三分之一资金投向包括英伟达、微软和苹果在内的八家公司,这些公司将自己的部分未来押在AI上。更不用说从AI耗电数据中心中受益的公用事业等相关行业了。

科技巨头利润丰厚,并承担了大部分AI支出。在2024年第三季度,Alphabet、亚马逊、苹果、Meta和微软资本支出共计620亿美元。这一创纪录的数字比去年同期增长50%以上。这些公司显然负担得起这种消费狂潮。他们仍然创造了760亿美元的自由现金流。投资者普遍支持大型科技公司的资本支出,因为该行业过去取得了成功。

纽约投资公司Roundhill Financial CEO Dave Mazza认为,AI将带来足够的收入,但投资者可能会失去耐心。

《AI万金油》(AI Snake Oil)一书的合著者、普林斯顿大学计算机科学教授Arvind Narayanan表示,AI取得巨大回报需要一两年以上的时间。

2.OpenAI CFO:下一代尖端AI模型将耗资数十亿美元

OpenAI的财务主管Sarah Friar表示,OpenAI预计构建更先进人工智能(AI)模型的成本将继续大幅增长。这家初创公司刚刚上线了新的AI视频生成器Sora。

最近几周,科技界领袖一直在争论AI开发人员是否在通过向模型提供更多数据和计算能力来构建更先进的AI系统时遇到了障碍。但Sarah Friar似乎不太担心技术限制,而是担心财务限制。

“我们认为我们在扩展定律方面没有遇到任何障碍,”OpenAI首席财务官(CFO)Sarah Friar表示,“可能有一个软壁垒,也就是我们能给公司筹集或带来多少钱。”

在加入公司的头四个月里,Sarah Friar通过风险投资和循环信贷额度帮助OpenAI筹集了100亿美元的流动资金。OpenAI还正在完成软银额外的15亿美元招标收购。

按照几乎任何标准来看,这都是一笔巨款。但从长远来看,这可能对OpenAI来说还不够,因为构建越来越大的“前沿” AI模型的成本不断上升,这些模型有朝一日可能会在许多领域匹敌或超越人类的能力。Sarah Friar表示,OpenAI的下一个尖端GPT模型将耗资数十亿美元来开发。

Sarah Friar表示:“我认为我们绝对仍处于这条轨道上,”需要“越来越大、越来越昂贵的模型”。虽然该公司正在充实其企业业务并探索不同类型的定价来抵消这些成本,但Sarah Friar表示,她的工作最终“很大程度上是筹款,因为我们是一家仍在探寻收入来源的年轻公司。”OpenAI的私营公司属性是其竞争优势。最重要的是,OpenAI拥有世界上最优秀的人才来继续推动这一前沿的发展。

Sarah Friar还谈到了与微软的“时代定义”的合作伙伴关系,因为微软当时带来了大量计算,OpenAI提供算法和数据等来构建前沿模型。今年早些时候,OpenAI与甲骨文达成交易,展开新的合作关系,但微软仍是该公司非常重要的合作伙伴。

近期,OpenAI正式上线了备受期待的视频生成功能Sora,该功能于今年2月份首次亮相。新产品可以制作长达20秒的逼真视频,例如狐狸扑向新雪,以及更具想象力的作品。很明显,OpenAI为开发这款软件付出了不少努力:它易于使用,并且能够根据简短的文本提示创建清晰、详细的视频。这可能会让竞争对手感到不小的惊愕。

不过,Sora也存在一些困扰其他AI视频制作者的问题,其中包括偶尔忽视物理学和常见物体的基本物理属性。例如,在一段苹果爆炸的视频中,苹果碎了,然后碎片变成一滩血红色液体。在另一次尝试中,苹果掉落下来后碎了,然后不知何故又立即重新组合起来。

3.三菱电机寻求在日本建立功率芯片联盟

三菱电机CEO表示,该公司正在与日本国内竞争对手就功率芯片合作进行谈判,并提倡日本结盟制造驱动全球设备的关键部件。

三菱电机CEO Kei Uruma表示,尽管管理层普遍支持合作,但此类讨论在行政层面受阻,没有取得进展。不过,随着日本公司进一步落后于德国市场领导者英飞凌科技,紧迫感正在增强。

“日本的竞争对手太多了,”Kei Uruma说,功率芯片行业需要不断的技术创新,趁还有机会赢得市场份额时合作是明智的。

全球各地的工业技术公司都在竞相开发更小、更轻、更高效的半导体,以驱动电动汽车和其他空间受限且移动性强的高压电子设备,而这些电子设备在排放意识强的世界中是不可或缺的。

而日本在电动汽车市场当面进展缓慢,该国正在提供补贴,帮助计划在下一代功率芯片(如碳化硅(SiC)制成的芯片)上投资2000亿日元(13亿美元)或更多的公司。这促使东芝和罗姆、电装和富士电机建立联合制造合作关系。

根据研究公司Omdia的数据,三菱电机在2023年占全球功率半导体销售额的5.5%,而英飞凌占22.8%,安森美半导体占11.2%。

功率半导体是三菱电机的关键增长领域,其业务涵盖数据中心冷却系统和工厂自动化。该公司预计,功率芯片将帮助其半导体和设备部门本财年实现360亿日元的营业利润,增长约20%。该公司正在熊本县建造一个新的8英寸碳化硅晶圆厂,并投资Coherent的碳化硅业务。

Kei Uruma表示,该公司可能还需要进行收购以增强其数字平台Serendie,该平台旨在分析其空调、工厂自动化和电网设备业务的数据。他说,三菱电机需要在截至2031年3月的财年之前将Serendie的员工人数增加两倍至20000人,如果有必要,将考虑达成价值数千亿日元的交易。

4.Marvell开发定制HBM内存解决方案 :接口缩小,兼容XPU

在Analyst Day 2024,Marvell(美满电子)宣布推出用于定制XPU的定制高带宽存储器(CHBM)解决方案,该XPU面向AI应用。该方案是与领先的内存制造商合作开发的,CHBM承诺为特定的XPU设计优化性能、功耗、内存容量、芯片尺寸和成本。CHBM将与Marvell的定制XPU兼容,并且至少在初期不会成为JEDEC定义的HBM标准的一部分。

Marvell的定制HBM解决方案允许为特定应用定制接口和堆栈,尽管公司尚未透露任何细节。Marvell的目标之一是减少行业标准HBM接口在处理器内部所占用的空间,从而释放可用于计算和功能的区域。公司声称,凭借其专有的芯片间I/O,它不仅能够在其定制XPU中多封装25%的逻辑,还可能在与计算Chiplet相邻的地方多安装33%的CHBM内存封装,从而增加处理器可用的DRAM量。此外,公司预计内存接口功耗将降低高达70%。

由于Marvell的CHBM不依赖于JEDEC指定的标准,因此在硬件方面,它将需要一个新控制器和可定制的物理接口、新的芯片间接口以及彻底改造的HBM基础芯片。新的Marvell芯片间HBM接口带宽为20Tbps/mm(2.5TB/s每毫米),这比目前HBM提供的5Tbps/mm(625GB/s每毫米)有显著提升。随着时间的推移,Marvell设想无缓冲内存的带宽将达到50Tbps/mm(6.25TB/s每毫米)。

Marvell没有具体说明其CHBM接口的宽度。除了表示其“通过串行化和加速其内部AI计算加速器硅芯片与HBM基础芯片之间的I/O接口来增强XPU”外,Marvell没有透露其定制HBM解决方案的许多细节,这某种程度上暗示了与行业标准HBM3E或HBM4解决方案相比,接口宽度较窄。然而,看起来CHBM解决方案将是可定制的。

“通过为特定性能、功耗和总体拥有成本定制HBM来增强XPU,是AI加速器设计和交付新范式中的最新一步,”Marvell定制、计算和存储组高级副总裁兼总经理Will Chu表示。“我们非常感谢与领先的内存设计商合作,以加速这场革命,并帮助云数据中心运营商继续扩展其XPU和基础设施,以迎接AI时代。”

与美光、三星和SK海力士的合作对于Marvell CHBM的成功实施至关重要,因为这为定制HBM的相对广泛利用奠定了基础。

5.富士通展示144核Monaka Arm芯片:采用2nm/5nm工艺,内存上3D堆叠CPU内核

富士通展示了用于数据中心的基于Armv9的144 核Monaka处理器的样品,并透露了一些细节。该公司透露,该处理器正在与博通合作开发,并依赖于博通的3.5D eXtreme Dimension系统级封装平台。日本理化学研究所计算科学中心 (R-CCS) 主任、东京工业大学教授Satoshi Matsuoka发布了这张图片。

富士通的Monaka是一个巨大的CoWoS系统级封装 (SiP),它有四个36核计算芯片,采用台积电的2nm工艺技术制造,内置144个基于Armv9的增强型内核,这些内核以面对面(F2F)的方式堆叠在SRAM块顶部,使用混合铜键合(HCB)。SRAM块(本质上是巨大的缓存)采用台积电的5nm工艺技术生产。计算和缓存堆栈伴随着一个相对庞大的I/O芯片,该芯片集成内存控制器、PCIe 6.0通道(顶部有CXL 3.0,用于连接加速器和扩展器)以及数据中心级CPU所期望的其他接口。

正如预期的那样,Monaka面向广泛的数据中心工作负载,不依赖高带宽存储器(HBM),而是使用主流DDR5 DRAM(可能在其MR-DIMM和MCR-DIMM实现中)来提供足够的容量并减少数据中心处理器的成本。

富士通的Monaka处理器将使用基于Armv9-A指令集架构构建的内核,并结合可扩展矢量扩展2(SVE2)。富士通尚未为该设计指定固定的矢量长度,范围为128位到2048位。鉴于A64FX支持高达512位的矢量,Monaka处理器可能会支持类似或更大的矢量。 Monaka将采用先进的安全功能,包括Armv9-A的机密计算架构(CCA),提供增强的工作负载隔离和强大的保护。

Monaka将与AMD EPYC和英特尔Xeon处理器竞争,因此它必须提供无可争议的优势。这种优势可能是能源效率,因为富士通的目标是在2026-2027年之前将其效率提高到竞争对手的两倍,同时依靠空气冷却。由于Monaka是基于Arm的CPU,因此可能比x86处理器更节能。

富士通用于数据中心的Monaka处理器将于2027财年(2026年4月1日-2027年3月31日)上市。

6.捷顺科技:因项目交付周期影响,传统智能硬件收入下滑

近日,捷顺科技在接受机构调研时表示,到目前为止,公司传统智能硬件签单与上年同期基本持平,因项目交付周期影响,传统智能硬件收入出现了下滑,公司的创新业务保持了较高的增长。

据介绍,捷顺科技智慧停车运营、停车资产运营、软件及云服务收入在2024年前三季度同比都保持了较高的增速,其中前三季度智慧停车运营收入同比增长22%,停车资产运营收入同比增长42%,软件及云服务收入同比增长31%。

截至2024年11月30日,捷停车累计触达用户数近1.3亿,2024年前三季度用户数增长近1千万;捷停车覆盖联网车场数近5.3万个,2024年前三季度新增联网车场数近1.1万个,2024年前三季度线上交易流水超120亿元。在各项运营数据保持较好增长势头下,捷停车2024年前三季度运营收入同比上年保持了20%以上的增长。

关于前三季度整体利润同比下降48.81%,捷顺科技表示,主要受收入下滑影响。受整体经济环境影响,公司传统智能硬件业务收入出现了下滑。

责编: 爱集微
来源:爱集微 #集成电路#
THE END

*此内容为集微网原创,著作权归集微网所有,爱集微,爱原创

关闭
加载

PDF 加载中...