谷歌推出云GPU,支持开源大语言模型
原文英文,约1200词,阅读约需5分钟。发表于: 。If you are a big fan of open source AI but don’t have the computing capacity to run AI models The post Google Serves Up Cloud GPUs With a Side of Open Source LLMs appeared first on The New Stack.
谷歌将Nvidia的L4 GPU引入其云服务,允许开发者运行开源AI模型,提供了在本地PC上运行模型的替代方案,节省时间。谷歌的Cloud Run服务现在包括开源模型Gemma 2和Llama 3.1,并提供L4 GPU进行推理。目前尚未披露在L4 GPU上运行这些模型的定价。谷歌此举旨在为运行AI提供更经济实惠的硬件访问。