生成式AI系列(六):大语言模型与RAG技术

目录


大语言模型,目前还无做到训练推理一体化(大白话就是大模型不能一边应用一边自身学习),训练的数据有一定的滞后性,无法即时学习新的数据。因此会产生误导性的 “幻觉”,依赖的信息可能过时,处理特定知识时效率不高,缺乏专业领域的深度洞察,同时在推理能力上也有所欠缺。

正是这样的背景下,检索增强生成技术Retrieval-Augmented Generation,RAG)应时而生,成为大语言模型利用外部知识库的一个有力的支撑工具。

RAG的基础原理

在大语言模型生成用户问题的答案之前,RAG先从广泛的文档数据库中检索相关信息,然后利用这些信息来引导生成过程,极大地提升了内容的准确性和相关性。RAG 有效地缓解了幻觉问题,提高了知识更新的速度,并增强了内容生成的可追溯性,使得大型语言模型在实际应用中变得更加实用和可信。

生成式AI系列(六):大语言模型与RAG技术


这是RAG技术的一个基础架构,我们详细分析下它的流程:

① Prompt + Query: 用户输入一个查询(Query),系统将其与一个预定义的提示(Prompt)结合,形成完整的查询语句。这个提示可以引导语言模型生成符合特定任务要求的回复。

② 形成的查询语句被发送到信息检索模块。

③ 信息检索模块在知识库(Knowledge Sources)中搜索与查询相关的信息片段,这些片段将被用于增强查询的上下文信息。知识库可以包括各种结构化或非结构化的数据源,如网页、文档、数据库等。

④ 检索出的相关信息片段被与原始的查询语句以及提示结合,形成增强后的上下文信息。

⑤ Generated Text Response: 增强后的上下文信息被输入到一个大型语言模型。大语言模型基于这个上下文生成最终的文本回复。

⑥ 生成的文本回复被返回给用户,完成一次查询-回复的过程。


RAG的基本结构有哪些呢?

生成式AI系列(六):大语言模型与RAG技术


如何更好地使用RAG技术?


首先明确一点的是,RAG技术依旧在快速的发展,需要持续跟踪它的发展动态。通常情况下,需要确保如下的优化来更好的使用RAG技术:

① 知识库的构建与维护:

② 信息检索的优化:

③ 提示的设计:

④ 多轮对话的处理:

⑤ 人机协同:


RAG与微调之间的关系


讨论了RAG技术,再聊聊RAG与FT之间的关系。什么是FT(Fine Tune)?FT中文翻译为微调,也称为精调。它指的是在大模型的预训练基础上进行额外的训练,以适应特定的任务或数据集。

RAG与FT的特点对比,如下图:

生成式AI系列(六):大语言模型与RAG技术

RAG 就像给模型一本教科书,用于定制的信息检索,非常适合特定的查询。另一方面,FT 就像一个学生随着时间的推移内化知识,更适合模仿特定的结构、风格或格式。FT 可以通过增强基础模型知识、调整输出和教授复杂指令来提高模型的性能和效率。然而,它不那么擅长整合新知识或快速迭代新的用例。RAG 和 FT,并不是相互排斥的,它们可以是互补的,联合使用可能会产生最佳性能。

生成式AI系列(六):大语言模型与RAG技术


RAG技术的发展趋势


RAG技术,对于大模型的实际应用,有着举足轻重、不可或缺的作用,尤其是协助大模型可以处理外部的知识库能力,以及实时的获取最新的知识和信息(搜索引擎与RAG相结合)。

RAG技术的信息检索,也并非简单的关键词搜索匹配,而是利用大模型能力捕捉用户语言的复杂模式和语义信息,从外部知识库中筛选出最匹配用户需求的知识块。

RAG技术使用的领域也非常广泛,RAG在文本、代码、音频、图像、视频、3D,结构化知识、以及AI4S等多个不同模态中不同具体任务上有着具体的应用。

RAG未来潜在的研究方向包括:


总结

要想用好大模型,需要充分理解RAG技术。RAG 的应用已经不仅仅局限于问答系统,其影响力正在扩展到更多领域。现在,推荐系统、信息抽取和报告生成等多种任务都开始受益于 RAG 技术的应用。与此同时,RAG 自身的新技术栈迭代也处于井喷状态。



返回:生成式AI系列(六):大语言模型与RAG技术

本文由“公众号文章抓取器”生成,请忽略上文所有联系方式或指引式信息。有问题可以联系:五人工作室,官网:www.Wuren.Work,QQ微信同号1976.424.585