首页 > 资讯 > 财经 > 正文

花了100多亿美元建AI模型 微软又豪掷数亿美元投资专用硬件

中国基金网原创

  玩得起 AI 解决方案的非顶级大公司莫属,因不但要花大钱投资 AI 模型,还要投巨资开发硬件,以完美支持 AI 模型训练,以及与自家应用服务整合优化与商业化。

  2019 年微软手捧 10 亿美元资金与 OpenAI 初次合作,已视为科技界押对宝的最佳典范。 今年1月微软再接再厉又增加100亿美元,让微软进入备受瞩目的AI领导厂商行列,伴随而来的亮丽股市表现无疑是获市场正面肯定的证明。

  但 ChatGPT 必须运行于微软数据中心耗费巨资部署的 Azure 硬件,才能顺利完成 AI 模型训练,以及与自家 Bing、Github Copilot 及 Microsoft 365 Copilot 最佳化整合。 虽然微软并未正面透露 Azure 硬件投资金额,但彭博社13 日报导指,微软已花费数亿美元训练 ChatGPT 专用硬件。

  微软也在 13 日发布两篇官方博客文章详述如何打造专门运行 ChatGPT 的 AI 基础设施,以为 Bing 服务核心。 随着ND A100 v4虚拟机(建立于Nvidia A100 GPU专供AI处理作业)进驻,微软数据中心又再导入基于更新硬件(并未透露到底有多少硬件)的ND H100 v5虚拟机,支持8到数千颗Nvidia H100 GPU等各尺寸虚拟机,明显加速AI模型性能。

  全新虚拟机支持通过 NVSwitch 和 NVLink 4.0 互连的 Nvidia H100 Tensor Core GPU、400gb/s Quantum-2 CX7 InfiniBand 联网,以及具 PCIe Gen5 互连和 DDR5 内存的第四代Intel Xeon 可扩充处理器。

  另一篇文章微软谈到如何与 OpenAI 合作,协助打造 ChatGPT 模型超级计算机,以连 Nvidia 都没想过的新方式将数千颗 GPU 连接。 为了获最佳效能,微软凭更新累积的经验大量优化系统。

  总之,Azure 基础设施针对模型的训练优化,但整个 AI 平台花了好几年才逐步改善。 Bing AI 背后集结数量庞大且分散全球 60 个 Azure 区域的无数 GPU、网路硬件和虚拟化软件。 目前ND H100 v5虚拟实例适用预览版,最终成为Azure产品组合的标准成员,但并未透露时程。

中国基金网遵守行业规则,本站所转载的稿件都标注作者和来源。 中国基金网原创文章,请转载时务必注明文章作者和来源“中国基金网”, 不尊重本站原创的行为将受到激光网的追责,转载稿件或作者投稿可能会经编辑修改或者补充, 如有异议可投诉至:Email:342 4350 938@qq.com