Supabase Edge Functions现在支持使用Mozilla Llamafile作为推理服务器运行AI推理。Llamafile允许您在本地分发和运行LLMs,无需安装。您可以使用Supabase Edge Functions或OpenAI Deno SDK轻松调用Llamafile服务器。要在本地提供函数,请安装Supabase CLI和Docker Desktop或Orbstack。您可以使用Docker和Fly.io部署Llamafile。开源LLMs目前仅限邀请使用,但Supabase计划扩展对更多模型的支持。
完成下面两步后,将自动完成登录并继续当前操作。