Semantic Kernel进阶:多模型的支持
原文中文,约3300字,阅读约需8分钟。发表于: 。大家可能已经知道,Semantic Kernel默认主要支持两款模型:OpenAI和AzureOpenAI。对于开发者来说,这显然是不够的,尤其是当我们希望对接国内的一些强大模型,比如百度的文心一言、阿里的通义千问、搜狗的百川、智谱ChatGLM、科大讯飞的星火等。那么,我们应该怎么做呢?答案就是利用一个叫做"one-api"的开源项目。项目地址:https://github.com/s...
Semantic Kernel默认支持OpenAI和AzureOpenAI模型,但开发者希望对接国内的其他模型。可以使用开源项目one-api,支持多种大模型,负载均衡访问多个渠道,支持stream模式和多机部署。one-api支持Docker部署,数据和日志保存在宿主机目录。可以使用OpenAIHttpClientHandler类将请求重定向到one-api。通过one-api的多模型支撑和灵活的部署配置,可以为用户提供更丰富和个性化的服务。