RAG 代表检索增强生成。 这个首字母缩略词强调了其核心原则:通过检索实时或频繁更新的数据来增强基础人工智能系统或人工智能模型,以提供更具情境性的答案。
检索增强生成 (RAG) 已成为生成 AI 中的一种有效技术,它将外部可用数据(通常是专有数据或特定领域数据)集成到使用大型语言模型 (LLM) 的工作流程中。 RAG 检索相关上下文,并在发出请求之前将其添加为额外的提示上下文,从而提高 AI 响应的效率和准确性,超越了仅利用其训练数据集的独立模型所能达到的水平。
RAG 用于解决人工智能中的一个基本挑战:即使底层 LLM 已经使用过时的信息进行训练,如何使静态模型与最新、最相关的数据保持同步。 常见的 RAG应用包括:
大多数生成式人工智能模型在固定的训练周期内学习信息。 当训练结束时,模型仅保留到某个时间点或某些数据约束内的知识。 RAG 通过在推理时(即用户查询到达的那一刻)从外部来源提取新鲜的相关数据来扩展这些知识。
为了使 RAG 可靠地运行,组织通常会维护一个更新的语料库(包含结构化和非结构化数据),可通过矢量数据库或知识图轻松访问。 正确管理该语料库涉及数据提取、清理、嵌入和索引,确保检索引擎可以快速隔离上下文适当的信息。
人工智能的进步(例如扩展上下文窗口)似乎可以通过让模型原生考虑大量文本来降低 RAG 对消费者的重要性。 然而,对于拥有分布在多云环境中的海量数据的企业级组织来说,仍然面临着快速变化且广泛分布的数据源。 RAG 通过选择性地利用最相关的授权信息来应对这一挑战,而不会使模型的上下文窗口超载或冒数据蔓延的风险。 随着人工智能越来越深入地融入企业工作流程,RAG 将继续成为提供及时、内容丰富且高精度输出的关键战略。