为应对 OpenAI 此前推出的众多新产品,谷歌周三推出下一代重要人工智能模型 Gemini 2.0 Flash,可以原生生成图像和音频,同时支持文本生成。2.0 Flash 还可以使用第三方应用程序和服务,使其能够访问谷歌搜索、执行代码等功能。
从周三起,2.0 Flash 的实验版本将通过 Gemini API 和谷歌的 AI 开发平台(AI Studio 和 Vertex AI)提供。然而,音频和图像生成功能仅对 “早期接入合作伙伴” 开放,并计划在明年 1 月全面推出。
未来几个月内,谷歌表示将推出 2.0 Flash 的不同版本,用于 Android Studio、Chrome DevTools、Firebase、Gemini Code Assist 等产品。
Flash 的升级
第一代 Flash(1.5 Flash)只能生成文本,且并未设计用于特别高要求的工作负载。据谷歌称,新版本 2.0 Flash 模型更具多样性,部分原因是它能够调用工具(如搜索)并与外部 API 交互。
谷歌 Gemini 模型产品负责人 Tulsee Doshi 表示,
“我们知道,Flash 因其在速度和性能上的良好平衡而备受开发者喜爱。在 2.0 Flash 中,它依然保持了速度的优势,但现在更加强大。”
谷歌声称,根据公司内部测试,2.0 Flash 在某些基准测试中的运行速度是 Gemini 1.5 Pro 模型的两倍,并在编码和图像分析等领域 “显著” 改进。事实上,该公司表示,2.0 Flash 凭借其更好的数学性能和 “事实性” 取代了 1.5 Pro,成为 Gemini 的旗舰模型。
正如前文提到的,2.0 Flash 可以生成并修改图像,同时支持文本生成。该模型还可以读取照片、视频以及音频录制内容,从而回答与这些内容相关的问题(例如:“他说了什么?”)。
音频生成是 2.0 Flash 的另一个关键功能,Doshi 将其描述为 “可操控” 和 “可定制”。例如,该模型可以用八种针对不同口音和语言优化的声音来朗读文本。
不过,谷歌并未提供 2.0 Flash 生成的图像或音频样本,因此无法判断其输出质量与其他模型的比较。
谷歌表示,它正在使用其 SynthID 技术为 2.0 Flash 生成的所有音频和图像添加水印。在支持 SynthID 的软件和平台(即部分谷歌产品)上,该模型的输出将被标记为合成内容。
此举旨在缓解人们对滥用的担忧。事实上,“深度伪造”(deepfake)正成为日益严重的威胁。据身份验证服务 Sumsub 的数据,从 2023 年到 2024 年,全球检测到的深度伪造数量增长了四倍。
多模态 API
2.0 Flash 的生产力版本将于明年 1 月推出。但与此同时,谷歌推出了一个 API,名为 Multimodal Live API,以帮助开发者构建具有实时音频和视频流功能的应用程序。
通过 Multimodal Live API,谷歌表示开发者可以创建具有来自摄像头或屏幕音频和视频输入的实时多模态应用程序。该 API 支持工具集成以完成任务,并能够处理 “自然对话模式”,例如打断——与 OpenAI 的实时 API 功能类似。
Multimodal Live API 已于周三上午全面开放使用。