Google的云部门周三表示,客户将能够在他们自己的数据中心运行其 Gemini 人工智能模型。

Google 在一篇博客文章中表示,第三季度将提供对 Google Distributed Cloud 的早期访问。该服务的目标客户是那些希望使用 Google 的云技术,同时保持对其数据控制权的企业。

作为公告的一部分,Google 表示 Nvidia 将把 Gemini 模型引入该公司的 Blackwell 图形处理器 (GPU)。公司可以通过 Google 或其他渠道购买这些芯片。

OpenAI 和 Anthropic 是 Google 在开发大型语言模型方面的主要竞争对手,它们一直不愿提供在物理数据中心访问的权限,因为这会降低它们对技术质量和速度的控制。Cohere 提供了一个选项,允许客户在自己的基础设施上部署模型,但这家人工智能初创公司表示,与通过该公司或使用云服务相比,这种方式设置起来更慢。

Google 的这一举动可能会吸引一批新的潜在客户。尽管近年来云服务已变得很普遍,但许多公司、学校和政府机构仍然维护着自己的数据中心硬件。即使是遵守美国政府秘密和绝密分类级别的客户,也将能够通过与互联网断开连接的 Google Distributed Cloud 的气隙版本来使用 Gemini。

根据技术行业研究机构 Gartner 的数据,2023 年云基础设施支出总额达到 1400 亿美元。Gartner 表示,2023 年 Google 占据了 8% 的市场份额,而 Amazon 控制了 39%,Microsoft 占据了 23%。上个月,Google 宣布了一项 320 亿美元的协议,收购云安全初创公司 Wiz。

Google Cloud 负责人 Thomas Kurian 在 Wiz 宣布后的一次电话会议上表示:“我们对多云的承诺,以及我们在基础设施和人工智能方面的投资,是我们看到客户大量涌入的部分原因。”

Google 的 Gemini 模型可以处理文本、音频和视频,支持 100 多种语言。