谷歌和Hugging Face宣布建立AI合作伙伴关系
谷歌云和开源生成式人工智能平台提供商Hugging Face周四透露,他们已经合作,使开发人员能够将谷歌云的基础架构用于所有Hugging Face服务。
新的合作伙伴关系允许开发人员使用 Google Cloud 的计算、张量处理单元 和 GPU 来训练和提供开放模型。
开发人员现在可以使用 Google 的 Vertex AI 从 Hugging Face 平台训练 Hugging Face 模型。
此次合作还意味着 Hugging Face 开发人员将可以使用 Cloud TPU v5e AI 加速器,并在未来支持由 Nvidia H100 Tensor Core GPU 提供支持的 A3 VM 虚拟机。
谷歌和开源
随着 Meta Llama 2 等开源工具和技术的普及,以及对曾经开放但现在关闭的模型(例如来自 OpenAI 的模型)的批评越来越多。
对于谷歌来说,这种合作关系是向前迈出的一步,Futurum Research分析师Mark Beccue说。
谷歌拥有开源项目,如TensorFlow平台和Kubernetes集群管理系统。但是,它的大部分产品都不是开放的。
“(谷歌)向开源的转变表明了市场是如何演变的,”Beccue说。“我们看到了这种趋势,其中有私人部分,也有开源。这对每个人来说都是这些的结合。
此外,对于拥有专有模型的供应商来说,重要的是,他们不仅要说他们支持开源模型,还要表明他们为开源模型做出了贡献,Forrester分析师Mike Gualtieri说。
“这与软件本身的模式非常相似,”他说。
Hugging Face的好处
对于Hugging Face来说,这种合作关系有助于其与不同组织合作的使命,使其能够为开发人员创建一个开放平台,据产品负责人Jeff Boudier称。
“这次合作将帮助我们通过Hugging Face平台提供最好的开源,”Boudier说。
他补充说,谷歌对开放科学的贡献,其GPU和TPU的定制硬件产品,以及人工智能和机器学习软件平台Vertex AI,使其成为一个可行的合作伙伴关系。
Hugging Face已经与AWS和Microsoft等其他云提供商建立了合作伙伴关系。
然而,谷歌与Microsoft和AWS的区别在于,谷歌采用了Jupiter的数据中心结构,这使得谷歌能够“创建跨GPU的直接连接功能”,Gartner分析师Chirag Dekate说。
“从模型可扩展性的角度来看,你可以从最小的模型开始,并以令人难以置信的效率和性能扩展到最大的模型,”他继续说道。
给企业带来的好处
Hugging Face和谷歌云并不是唯一从合作伙伴关系中受益的参与者。
Dekate说,对于企业来说,这样的合作伙伴关系可以帮助他们从生成式人工智能的构思阶段到实施阶段。
目前,三大云提供商(AWS,Microsoft和Google)正在竞争提供全功能AI堆栈。其中包括从 AI 基础设施到模型目录,再到 MLOps 和生成式 AI 应用程序的所有内容。
“随着企业加速探索和实施生成式人工智能,他们正试图探索哪个云提供商......最适合他们的企业工作负载,“Dekate 说。
他继续说,企业也在努力寻找最符合其数据环境的合适尺寸的模型,同时在其架构中引入更多模式。
一种方法是选择提供一系列不同模型或与模型无关的提供商,例如 Hugging Face。
“企业不仅受益于谷歌云的人工智能平台,还受益于Hugging Face的模型,”Dekate补充道。
此外,许多企业都在运行混合的多云生态系统。有些人在AWS,Microsoft Azure和Google Cloud Platform上运行他们的应用程序。
因此,这样的合作伙伴关系是企业在任何云平台上使用 Hugging Face 的机会。
“我认为,对于正在加速其生成式人工智能实施向量的企业来说,这是一个令人难以置信的价值加速器,”Dekate说。