当地时间6月28日,谷歌面向全球研究人员和开发人员发布Gemma2大语言模型,共有90亿参数(9B)和270亿参数(27B)两种大小。
谷歌表示,Gemma2-27B模型的性能媲美两倍规模的主流模型,而且只需要一片英伟达H100ensorCoreGPU或TPU主机就能实现这种性能,从而大大降低了部署成本。
谷歌还计划在未来几个月发布参数为26亿的Gemma2模型,更适合智能手机的人工智能应用场景。