标签
rag
相关的文章:本列表汇集了关于RAG架构的最新研究与应用,探讨如何通过智能化技术提升问答系统的效率与准确性。
RAG-MCP 性能剖析:在 Amazon Bedrock 中多维度测试提示词优化的效果
在 Amazon Bedrock 中结合 RAG 与 MCP 高效缓解提示词膨胀问题
本文详细介绍了在 Amazon Bedrock 中结合 RAG 与 MCP 来解决大语言模型工具选择中的提示词膨胀问题。文章阐述了 RAG-MCP 的架构设计、实现步骤和优化策略,包括工具数据获取、向量化存储和语义检索等核心环节。
大语言模型(LLM)在处理复杂任务时存在提示词膨胀问题。AWS Bedrock Knowledge Bases结合检索增强生成(RAG)和模型上下文协议(MCP),通过动态选择工具的向量数据库,减少提示词长度,提高推理效率和准确性。本文探讨RAG-MCP架构设计及实现步骤,为开发者提供实践参考。

使用DeepEval和LlamaIndex评估RAG
This is a guest post from one of our partners.IntroductionDeepEval is an open-source LLM evaluation library in Python that enables engineers to unit test all types of LLM applications—whether...
DeepEval是一个开源Python库,用于评估各种LLM应用,提供50多种度量标准。结合LlamaIndex框架,用户可以构建复杂的RAG管道,通过定义答案相关性、忠实度和上下文精度等度量标准,优化模型性能并进行有效评估。

GraphRAG与RAG的细微差别
While large language models (LLMs) hold immense promise for building AI applications and agentic systems, ensuring they generate reliable and The post Navigating the Nuances of GraphRAG vs. RAG...
大型语言模型(LLMs)在生成可靠输出时面临挑战。检索增强生成(RAG)通过外部知识改善这一问题,但基于向量的方法在处理复杂关系时存在局限。GraphRAG结合知识图谱,提升了准确性和可解释性,适合多跳推理。选择RAG或GraphRAG应根据具体应用需求。

5 Advanced RAG Architectures Beyond Traditional Methods
Retrieval-augmented generation (RAG) has shaken up the world of language models by combining the best of two worlds:
LlamaCloud扩展企业级RAG的四种方式
LlamaIndex is an industry-leading set of frameworks for building generative AI agents, with its roots in the understanding that your results are only as good as your data. Getting that data from...
LlamaIndex是一个生成AI代理的框架,解决数据获取、解析和检索问题。LlamaCloud平台简化企业级应用扩展,关注多租户系统的资源分配和访问控制。LlamaParse能够将多种格式转换为标准文本,支持文档解析和故障处理,帮助用户专注于核心应用开发。

爆改RAG!用“上下文压缩”让你的AI检索系统又快又准
别急,今天教你一招“上下文压缩”,让你的RAG系统脱胎换骨,效率翻倍,答案更准,内存更省,老板看了都说好!”,检索出来的段落里,既有“AI的历史”,又有“AI的优点”,还有“AI的缺点”,真正和伦理相关的内容,可能只占三分之一。对每个检索到的chunk,调用大模型,按指定压缩方式(Selective/Summary/Extraction)处理,只保留和问题相关的内容。RAG系统的本质,就是“...
RAG(检索增强生成)系统通过上下文压缩技术提高检索效率和答案准确性。上下文压缩包括选择性保留、摘要和句子抽取三种方式,能有效减少无关信息。通过预处理、向量化、压缩和生成答案,RAG系统优化文档处理,节省内存并加快推理速度。