💡
原文英文,约600词,阅读约需2分钟。
📝
内容提要
谷歌在BigQuery推出了第三方生成AI推理功能,允许数据团队通过SQL部署Hugging Face或Vertex AI模型。该功能简化了模型管理,自动配置计算资源,用户只需两条SQL语句即可创建和运行模型,并支持自定义设置,兼容13,000多个Hugging Face文本嵌入模型,提升了数据分析和工程师的效率。
🎯
关键要点
- 谷歌在BigQuery推出了第三方生成AI推理功能,允许数据团队通过SQL部署Hugging Face或Vertex AI模型。
- 该功能简化了模型管理,自动配置计算资源,用户只需两条SQL语句即可创建和运行模型。
- BigQuery的SQL接口使得整个工作流程简化为两条SQL语句,用户可以快速部署模型。
- 用户可以使用AI.GENERATE_TEXT或AI.GENERATE_EMBEDDING进行推理,直接从BigQuery表中查询数据。
- 该功能支持生产用例的自定义设置,包括机器类型、复制数量和端点闲置时间。
- BigQuery支持超过13,000个Hugging Face文本嵌入模型和170,000多个文本生成模型。
- 数据分析师可以在SQL环境中实验ML模型,而数据工程师可以更简单地构建ML驱动的数据管道。
- BigQuery与Snowflake的Cortex AI和Databricks的Model Serving竞争,可能因其与Hugging Face模型目录的直接集成而具有优势。
- 提供了Gemma模型的文本生成和嵌入生成的文档和教程。
❓
延伸问答
谷歌BigQuery的新功能有什么主要优势?
该功能简化了模型管理,用户只需两条SQL语句即可创建和运行Hugging Face或Vertex AI模型,自动配置计算资源。
如何在BigQuery中部署Hugging Face模型?
用户可以使用CREATE MODEL语句指定模型ID,BigQuery会自动配置计算资源并完成部署。
BigQuery支持多少种Hugging Face模型?
BigQuery支持超过13,000个Hugging Face文本嵌入模型和170,000多个文本生成模型。
BigQuery的SQL接口如何简化机器学习工作流程?
整个工作流程简化为两条SQL语句,用户可以快速部署和运行模型,无需管理复杂的基础设施。
用户如何自定义BigQuery中的模型设置?
用户可以在CREATE MODEL语句中设置机器类型、复制数量和端点闲置时间等参数。
BigQuery与其他平台相比有什么竞争优势?
BigQuery直接集成Hugging Face模型目录,可能在用户体验上优于Snowflake和Databricks。
➡️