LLM的函数调用过程 - 蝈蝈俊

💡 原文中文,约2100字,阅读约需5分钟。
📝

内容提要

大型语言模型(LLM)支持函数调用的过程包括三个核心步骤:函数注册与描述、意图识别与参数提取、结构化输出。用户输入自然语言后,模型匹配相关函数并生成参数,最终返回函数名称和参数值。以天气预报为例,LLM调用天气API并返回结果。通过MCP协议展示了服务端和客户端的示例。

🎯

关键要点

  • 大型语言模型(LLM)支持函数调用的核心步骤包括函数注册与描述、意图识别与参数提取、结构化输出。
  • 开发者在API调用时提供函数名称、参数说明及功能描述(JSON格式)。
  • 模型根据用户输入的自然语言匹配相关函数并生成参数。
  • 模型返回函数名称和参数值(JSON格式),由外部系统执行实际调用。
  • 以天气预报为例,用户输入提示后,模型会查找函数列表并生成响应。
  • Agent解析LLM响应并调用相应的函数,最终将结果返回给用户。
  • MCP协议示例展示了如何实现天气预报的服务端和客户端。
  • 服务端通过API获取天气数据,客户端配置后可以直接向服务端发送请求。
  • 客户端代码中包含两次对LLM的调用,第一次获取响应,第二次执行工具并返回结果。
➡️

继续阅读