谷歌推出Gemini 3.1 Flash-Lite,这是其最快、最具成本效益的模型,适用于高频开发。该模型每百万输入令牌0.25美元、每百万输出令牌1.50美元,速度比2.5 Flash快2.5倍,适合实时体验和复杂任务。
谷歌的Gemini 3.1 Flash Lite已在AI Gateway上推出,性能优于2.5版本,特别在翻译、数据提取和代码补全方面有显著提升。该模型适合高负载任务,使用时需在AI SDK中设置为google/gemini-3.1-flash-lite-preview。AI Gateway提供统一API,支持模型调用和性能优化。
Gemini 2.5系列发布了稳定的Flash和Pro模型,并预览了新款Flash-Lite模型。Flash-Lite在编码、数学和推理方面表现出色,适合高效能任务,支持多种输入方式,且延迟更低。
Gemini 2.5系列推出了稳定的Pro和Flash模型,并预览了性价比高的Flash-Lite模型,后者在编码、数学和推理方面表现优异,适合高负载、低延迟任务。
谷歌推出Gemini 2.0 Flash-Lite模型,专为大规模文本输出优化,性能优于1.5 Flash,但不支持图像和音频输出。Gemini 2.0 Pro是最佳编码性能模型,尽管基准测试提升有限,但实际应用表现更佳,且在文本理解和代码生成方面优于GPT-4。
12月,我们发布了Gemini 2.0 Flash的实验版本,提升了开发者的低延迟和性能。现已向所有用户开放的2.0 Flash,此外还推出了专注于编码性能的2.0 Pro实验版和成本效益高的2.0 Flash-Lite。所有模型支持多模态输入,未来将有更多更新。
完成下面两步后,将自动完成登录并继续当前操作。