Semantic Kernel 入门系列:突破提示词的限制
原文中文,约1400字,阅读约需4分钟。发表于: 。无尽的上下文LLM对自然语言的理解和掌握在知识内容的解读和总结方面提供了强大的能力。但是由于训练数据本身来自于公共领域,也就注定了无法在一些小众或者私有的领域能够足够的好的应答。因此如何给LLM 提供足够多的信息上下文,就是如今的LLM AI应用可以充分发挥能力的地方了。我们默认可以想到的是在提示词中提供足够的上下文信息,然而像OpenAI的模型总是有一个Max Tokens 的限制,也就意味着不...
LLM AI在解读和总结知识内容方面具有强大能力,但在小众或私有领域应答受限。提供上下文信息是关键,可通过搜索相关内容信息再提供给LLM解决。Native Function和Embedding可匹配相关信息和计算相似性,突破关键词匹配的限制。了解LLM的脾性很重要,Semantic Kernel在这方面做了一些工作。