法国开源Mistral AI挑战ChatGPT
原文中文,约1500字,阅读约需4分钟。发表于: 。本周一,Mistral AI 公司发布了一个名为 Mixtral 8x7B 的新人工智能语言模型,这是一个具有开放权重的 "专家混合"(MoE)模型,据说在性能上可以真正与 OpenAI 的 GPT-3.5 相媲美。这意味着我们离拥有一个 ChatGPT-3.5 级别的人工智能助手越来越近了,只要实施得当,它就能在我们的设备上自由地本地运行。 总部位于巴黎的 Mistral 公司由...
Mistral AI发布了名为Mixtral 8x7B的新AI语言模型,性能与OpenAI的GPT-3.5相媲美。该模型可以在本地运行,支持多种语言,类似于ChatGPT,可完成合成任务、数据分析、软件故障排除和编程。Mixtral MoE模型是一个真正的GPT-3.5级模型,可以在M1上以30 token/秒的速度运行。该模型使用开放权重,可在Hugging Face和BitTorrent下载。Mistral还提供Mistral模型的API测试版访问权限。