SemanticKernel/C#:实现接口,接入本地嵌入模型
💡
原文中文,约6700字,阅读约需16分钟。
📝
内容提要
本文介绍了如何通过Codeblaze.SemanticKernel项目实现ITextEmbeddingGenerationService接口,接入本地嵌入模型。通过实现接口中的方法和属性,可以将Ollama中的嵌入模型接入到Codeblaze.SemanticKernel中。文章还提供了使用OllamaTextEmbeddingGeneration类和扩展方法WithOllamaTextEmbeddingGeneration的示例代码。最后,作者展示了使用界面测试了RAG效果和回答效果。
🎯
关键要点
- 本文介绍了如何通过Codeblaze.SemanticKernel项目实现ITextEmbeddingGenerationService接口,接入本地嵌入模型。
- Codeblaze.SemanticKernel项目实现了多个接口,包括ITextGenerationService、IChatCompletionService和ITextEmbeddingGenerationService。
- Ollama的对话支持OpenAI格式,但嵌入模型尚未兼容,因此需要实现ITextEmbeddingGenerationService接口。
- ITextEmbeddingGenerationService接口用于生成浮点类型文本嵌入。
- OllamaBase类用于实现Ollama的基本功能,包括PingOllamaAsync方法。
- OllamaTextEmbeddingGeneration类实现了GenerateEmbeddingsAsync方法,通过向Ollama发送请求获取嵌入数组。
- 扩展方法WithOllamaTextEmbeddingGeneration用于将Ollama作为文本嵌入生成后端接入语义记忆。
- 示例代码展示了如何使用MemoryBuilder构建文本记忆,并接入Ollama的嵌入模型。
- 使用WPF界面测试了RAG效果和回答效果,展示了嵌入模型的应用。
🏷️
标签
➡️