首页 > 业界 > 关键词  > Gemma最新资讯  > 正文

谷歌开源Gemma:参数小、性能超越Llama2,可轻松在笔记本上运行

2024-02-22 09:14 · 稿源:站长之家

划重点:

1. 💻 Gemma是谷歌开源的大语言模型,性能强悍,可商用。采用Gemini架构,有20亿、70亿参数版本,测试显示在数学、推理、代码方面超过Llama-2。

2. 🚀 Gemma支持普通笔记本、台式机运行,无需庞大的AI算力。开发者可通过Kaggle、Hugging Face等平台获取模型,同时谷歌提供详细的开发者指南和Responsible Generative AI Toolkit。

3. 🌐 Gemma优化跨框架、设备、硬件,支持多框架工具、跨设备兼容性、高级硬件平台,与NVIDIA合作优化,适用于Google Cloud。性能测试表明Gemma在主流平台上表现优异,是一款参数小而性能强大的大模型。

image.png

站长之家(ChinaZ.com)2月22日 消息:谷歌于2月22日宣布开源大语言模型Gemma,成为其生成式AI领域的新力量。Gemma采用Gemini架构,有20亿、70亿两个版本,分别支持预训练和指令微调。

据谷歌公布的测试结果显示,Gemma70亿模型在数学、推理、代码方面的能力超过了Llama-2的70亿和130亿,成为小参数类ChatGPT模型中最强的之一。

最令人振奋的是,Gemma不仅性能强大,而且可商用,并且轻松在普通笔记本、台式机上运行,无需庞大的AI算力。这使得开发者可以更加便捷地应用Gemma模型,而Kaggle和Hugging Face等平台也提供了方便的获取途径。同时,为了帮助使用Gemma的开发者更安全地构建AI应用程序,谷歌推出了Responsible Generative AI Toolkit等一系列工具。

Gemma的优势不仅在于性能和可用性,还体现在其全面的优化。谷歌强调,开发者可以在多框架工具中进行推理和微调,跨设备兼容性也是Gemma的一大特色,支持笔记本电脑、台式机、物联网、移动设备和云等多种设备类型。与NVIDIA的合作使得Gemma在GPU优化上表现出色,涵盖了从数据中心到云端再到本地RTX AI PC的多个硬件平台。

image.png

对于使用Google Cloud的开发者,Gemma同样得到了优化。Vertex AI提供全面的MLOps工具集,支持一键式部署,并具有内置推理优化功能。高级定制功能通过完全管理的顶点人工智能工具或自我管理的GKE实现,包括部署到GPU、TPU和CPU平台上具有成本效益的基础设施。

谷歌通过Gemma的性能测试展示了其在主流平台中的优越表现,尤其在数学、推理、代码等方面的标准学术基准测试平均分数都高于同规模的Llama2和Mistral模型。这表明,Gemma作为一款参数相对较小但性能异常强大的大模型,将为开发者提供更灵活、高效的AI应用解决方案。

项目入口网址:https://top.aibase.com/tool/gemma

技术报告:https://goo.gle/GemmaReport

举报

  • 相关推荐
  • 大家在看

今日大家都在搜的词:

热文

  • 3 天
  • 7天