跳转到主要内容

category

2024年2月22日,谷歌宣布了Gemma,这是一个轻量级、最先进的开放模型家族,采用了与我们创建Gemini模型相同的研究和技术。我们很高兴与大家分享,谷歌云客户今天可以开始在Vertex AI中定制和构建Gemma模型,并在谷歌Kubernetes引擎(GKE)上运行它们。Gemma的发布和我们更新的平台功能是我们致力于让人工智能对谷歌云上的开发者更加开放和可访问的下一阶段。

Gemma现在可以在谷歌云上使用

Gemma模型与我们有能力的Gemini模型共享技术和基础设施组件。与其他开放式机型相比,这使Gemma机型的尺寸能够达到同类最佳性能。我们发布了两种尺寸的砝码:Gemma 2B和Gemma 7B。每种尺寸都发布了经过预训练和指令调整的变体,以实现研究和开发。

Gemma支持谷歌云开发人员现在喜欢和使用的工具,包括Colab和Kaggle笔记本电脑,以及JAX、PyTorch、Keras 3.0和Hugging Face Transformers等框架。Gemma模型可以在笔记本电脑、工作站或谷歌云上运行。有了这些新的开放模型,开发人员现在可以使用Vertex AI进行构建和自定义,并在GKE上运行。为了最大限度地提高业界领先的性能,我们与NVIDIA合作,为NVIDIA GPU优化Gemma。

在Vertex AI中解锁Gemma的力量

Gemma加入了Vertex AI Model Garden的130多个模型,包括我们最近宣布的Gemini扩展访问范围:Gemini 1.0 Pro、1.0 Ultra和1.5 Pro模型。

通过在Vertex AI上使用Gemma模型,开发人员可以利用端到端ML平台,使调整、管理和监控模型变得简单直观。有了Vertex AI,建设者可以减少运营开销,并专注于创建针对其用例进行优化的Gemma定制版本。例如,在Vertex AI上使用Gemma模型,开发人员可以:

  • 为文本生成、摘要和问答等轻量级任务构建生成型人工智能应用程序
  • 使用轻量级但定制的模型进行探索和实验,实现研发
  • 支持需要低延迟的实时生成AI用例,如流式文本

Vertex AI使开发人员能够轻松地将自己调整的模型转变为可扩展的端点,为各种规模的人工智能应用程序提供动力。

Gemma 在GKE上实现从原型到生产的规模

GKE提供了构建自定义应用程序的工具,从简单项目的原型到在企业规模上推出。如今,开发人员还可以直接在GKE上部署Gemma,创建自己的一代人工智能应用程序,用于构建原型或测试模型功能:

  • 使用熟悉的工具链将自定义、微调的模型与应用程序一起部署在可移植容器中
  • 自定义模型服务和基础架构配置,而无需调配或维护节点
  • 快速集成人工智能基础设施,具备扩展能力,以满足最苛刻的训练和推理场景

GKE提供高效的资源管理、一致的操作环境和自动缩放。此外,它有助于通过谷歌云人工智能加速器(包括GPU和TPU)的轻松协调来增强这些环境,以便在构建生成人工智能模型时更快地进行训练和推理。

立即在谷歌云上开始使用Gemma

今天,您可以在谷歌云的Vertex AI和GKE中开始使用Gemma模型。有关Gemma的更多信息,请访问ai.google.dev/Gemma上的快速入门指南。