matrix multiply(cuda)
需要在掌握矩阵加法的基础上,学习共享内存(__shared__)以及tile分块策略
同一个block中的所有thread共享一份共享内存
先将经常需要使用的数据从内存中转移到共享内存,在加载数据的时候就直接从共享内存中加载而不是从内存中加载,从而加快速度
同时在具体实现的时候使用了一个trick:分块计算矩阵乘法。这样做可以完美地与共享内存的机制进行搭配使用。
代码实现如下(相关具体实现细节在代码注释说明):
1 |
|
需要在掌握矩阵加法的基础上,学习共享内存(__shared__)以及tile分块策略
同一个block中的所有thread共享一份共享内存
先将经常需要使用的数据从内存中转移到共享内存,在加载数据的时候就直接从共享内存中加载而不是从内存中加载,从而加快速度
同时在具体实现的时候使用了一个trick:分块计算矩阵乘法。这样做可以完美地与共享内存的机制进行搭配使用。
代码实现如下(相关具体实现细节在代码注释说明):
1 | #include <stdio.h> |
这里需要先清楚GPU的基本结构(thread、warp、block、grid)
实质上就是利用众多core进行并行计算,将对应位置的数据计算好之后填到对应的位置
实际的操作流程是(分配以及销毁host以及device上的内存省略):host端数据初始化 -> 将数据从 host 复制到device上 -> 在device上进行数据计算 -> 将数据从device上转移回host -> 输出
实现代码如下:
1 | #include <stdio.h> |
对于一般的编程语言(C++、python等),输出“Hello world”实质上是由CPU进行相关计算以及处理的,那么对于现代GPU,拥有成千上万的cuda核心进行并行计算以及并行处理的能力,如何使用GPU的cuda核心进行计算呢?
对于一门编程语言,最开始学习的语法就是”Hello World”
那么,对于cuda编程,如何输出一份来自GPU的hello world呢
1 | #include <stdio.h> |
输出效果
1 | Hello World from CPU |
【展示slide 1】
尊敬的各位评委老师,亲爱的各位同学们,大家下午好。
我是来自信息与软件工程学院的张淞博。 非常荣幸能够站在这里参加本次国家奖学金的答辩。我将向各位分享我如何将一年前我的憧憬与期许,一步步变为现实。
【展示slide 2】
过去一年,我交出了一份问心无愧的答卷:综合测评专业第一,专业成绩排名前6%,同时我也积极投身学生工作,担任了多项学生干部,在服务同学中实现自我价值。
这份成绩的背后,是我的思想与行动的统一。
【展示slide 3】
作为一个又红又专的成电人,思想引领与学业成就是不可分割的。
思想上, 我积极向党组织靠拢,在入学之初,就向组织递交入党申请书,成为第一批入党积极分子,此后更是在团校、党课、党建活动和入党积极分子培训中不断提升理论素养。
【展示slide 4】
行动上, 我将思想觉悟转化为学习动力。过去一学年,我刻苦钻研,最终取得了**综合测评专业第一,专业成绩排名前6%**的成绩,并且在多门核心课程中取得优异分数。
正是这样扎实的学业表现,我才有了参与高水平科研项目的机会。
【展示slide 5】
作为一名软件工程专业的学子,我深知,理论学习的最终目的是创新与实践。
因此,我投身于一项关于大模型“软提示”优化的前沿研究。我主要负责构建自动化实验流水线、开发关键分析工具、并为论文提供了核心的数据与图表支撑。本研究首次从拓扑数据分析的视角,为软提示的“黑盒”优化过程提供了一种可解释性分析 ,并基于此设计了一种全新的损失函数TSLoss ,显著加速了模型收敛。目前,这项工作已作为第四作者投稿至人工智能顶级会议ICLR
这些经历让我对从理论到实践的科研全流程有了更深入的理解,同时极大地锻炼了我的科研思维和团队协作能力。
同时,我积极参加学科竞赛,以赛促学,累计获得了两项省级奖项,同时负责一项院级创新创业项目,在实战中不断打磨自己的专业技能。
【展示slide 6】
学业和科研之外,我从未忘记作为一名成电人的责任与担当。
作为班级团支书与新生导生,我尽心服务同学;作为志愿者,我累计贡献了95.8小时的服务时长;作为成电寒假招生宣传行的绵阳、遂宁两个地级市的领队,我出色地完成了宣传任务,获评“优秀领队”;与此同时,我也积极参加文体活动,在汗水中磨砺品质,在运动中获得成长。我希望用自己的行动,去传递一份光和热。
【展示slide 7】
回顾过去,最浪漫的事莫过于通过努力让憧憬变为现实,此刻我可以说,过往一年,问心无愧,不负青春
展望未来,我将带着这份笃定,努力成长为一名更优秀的成电人!
我的汇报到此结束,感谢各位老师的倾听!
标题:Proximal Policy Optimization Algorithms
链接:Proximal Policy Optimization Algorithms
30341引用量
在过去强化学习的研究中,主要的方法有深度Q学习、“香草”策略梯度方法、TRPO。
对于深度Q学习而言,主要的缺点在于不能在一些简单问题上表现良好(在离散动作空间表现好,但是没有被证明在连续控制测试中表现良好),也相对难以理解。
对于“香草”策略梯度方法,数据效率和鲁棒性都较差。
对于TRPO,虽然TRPO的数据效率和性能可靠 ,但它相对复杂。它与包含噪声(如dropout)或参数共享(在策略和价值函数之间)的神经网络架构不兼容
当时强化学习领域缺乏一种可扩展、数据高效且鲁棒的算法。
PPO的目标就是在只使用一阶优化的前提下,达到TRPO的数据效率和可靠性能 ,从而创造出一个更简单、更通用、性能更好的新方法
ReAct: Synergizing Reasoning and Acting in Language Models
发布在 ICLR 2023,引用量4581
文章链接:
ReAct: Synergizing Reasoning and Acting in Language Models
一句话总结:将过去工作中关于AI agnet的“推理”和“行动”这两个单独进行研究的板块合二为一,通过他们的交替使用,使得模型表现达到SOTA,同时增强了可解释性和可信度
在人类解决问题任务的时候,往往会采取推理-行动-反馈-推理-行动的链,这对于完成任务是很有帮助的。那么在ai agent中,是否也可以借鉴这一模式,将“推理”和“行动”相结合,相互交错叠加进行执行。
这里的推理使用llm创建、维护高级计划,行动是与外部环境进行交互(比如维基百科)
过去相关的研究中,CoT的推理过程是静态的,没有对于外部执行的观测,这一点极大地限制了它的推理能力和更新能力,这也就导致了产生幻觉的可能性。另一条研究路线是专注于“行动”的,通过预训练的llm在交互中通过语言先验来预测行动,将多模态结果转化为文字,然后让语言模型生成行为,这一点的思路问题在于没有使用语言模型来推理高级目标,也就不存在工作记忆了,又是一个过于“动态”,只关注实时当前的架构设计了。
所以在这种“推理”和“行动”分家的研究背景下,作者提出将二者相结合,交错进行的新范式,在四个不同的基线中达到SOTA
对于一个最基本的可与环境进行交互的agent:
在时间步 $t$ 中,得到的环境观察 $o_t \in O$,然后通过策略 $π(a_t|c_t)$ 采取 $a_t \in A$,其中$ c_t$ 是agent能得到的“上下文”, $ c_t = (o_1, a_1, · · · , o_{t−1}, a_{t−1}, o_t)$
那么 ReAct的思路其实就是将其中的 $A$ 增广到 $A\cup L$,其中 $L$ 是语言空间,代表着llm产生的思考或者是推理。由于是思考或推理,所以并不会对外界环境造成印象,也不会影响反馈,而是会通过 $a_t$ 对当前上下文 $c_t$ 进行推理,生成有用的信息,然后更新上下文 $c_{t+1} = (c_t, \hat{a_t})$ 来进一步推进未来的推理或者行为。
其中的语言空间是由llm生成实现
这样设计有四个特点:
首先使用两个很有挑战性的数据集:HotPotQA、FEVER
允许agent的动作空间有:搜索维基百科、寻找指定字符串的下一句话、结束。这些动作空间的目的是为了模拟人类和维基百科互动,所以性能方面明显弱于神经检索。
指定标准化的提示词
选择的基线有:标准的prompt引导llm、CoT、Act-Only
并且在实验中,有一个ReAct和CoT-SC的回退机制,即当REACT表现不佳的时候,会退回到CoT-SC,实验证明这种回退机制表现更佳
实验证明,REACT表现持续地比Act-Only更佳,但是和CoT的性能比较的时候并不明显,分析案例之后得到的结果是:
然后测试了在交互式决策任务ALFWorld和Webshop的表现,在这两个复杂决策任务环境下,REACT的表现均优于ACT-Only
作者提出一种REACT简单而有效的方法,在多条问答、事实核查和交互式任务上都具有可解释的优越性能(可解释性来自型生成的“思考痕迹 (reasoning traces)” )
对提示示例的依赖但是可能会超过情景学习的输入上下文长度限制
作者提出未来更多高质量人类标注是更一步提升性能的途径
并提出将强化学习等互补范式相结合,可能会产生更加强大的agent
对提示示例的依赖但是上下文长度限制
一篇关于Agent Security的综述文章:AI Agents Under Threat: A Survey of Key Security Challenges and Future Pathways
https://arxiv.org/pdf/2406.02630
下面是一些自己的归类:
主要关注攻击者如何利用基于LLM的智能体的内在机制和漏洞,通过具体的技术手段进行攻击
https://arxiv.org/abs/2211.09527
对于“提示词注入”的系统性研究。提出了一个名为 PROMPTINJECT 的框架,用以系统性地构建和测试针对语言模型的对抗性提示攻击 。论文重点分析了两种主要的攻击类型
https://arxiv.org/abs/2302.12173
开创性地提出并系统研究了一种针对大语言模型集成应用的新型攻击向量——间接提示注入 (Indirect Prompt Injection, IPI)
当LLM被赋予检索外部信息的能力时,应用本身就很难区分哪些是应处理的“数据”,哪些是需要执行的“指令”。
攻击者将恶意指令策略性地植入到各种外部数据源中,例如网站、电子邮件或文档 。当LLM应用(如集成了GPT-4的Bing聊天)为了响应普通用户的请求而去检索这些被“污染”的数据时,就会在用户不知情的情况下接收并执行这些恶意指令
https://arxiv.org/abs/2402.07867
攻击者可以在RAG系统的知识库中注入少量恶意文本,诱导LLM为攻击者选择的目标问题生成攻击者选择的目标答案
指出了RAG架构在知识源层面的安全脆弱性。证明了通过知识腐化攻击来操纵RAG系统的输出是完全可行的,这为许多依赖RAG的应用(如金融、医疗、法律等)带来了严重的安全隐患。最后强调,学术界和工业界亟需开发新的、更有效的防御机制来应对此类威胁
https://arxiv.org/abs/2305.00944
揭示了针对LLM的供应链攻击风险。研究表明,攻击者可以在指令微调(Instruction Tuning)阶段,通过注入少量有毒数据来“污染”模型
这种污染非常隐蔽,被污染后的模型在正常任务上表现良好,但会对特定的、攻击者预设的触发器做出恶意响应,例如生成有害内容、泄露信息或执行不安全指令。这对依赖第三方数据集或预训练模型来构建智能体的开发者构成了严重威胁
https://arxiv.org/abs/2307.02483
该论文深入分析了现有 LLM 安全训练的弱点,并系统地总结了越狱攻击的多种模式(如角色扮演、利用竞争目标等)。它解释了为什么即使经过严格的安全对齐,LLM 仍然容易被绕过
从模型对齐的根源上解释了 Agent 安全脆弱性的原因,有助于理解各类攻击技术背后的共同原理
https://arxiv.org/abs/2307.15043
尽管该论文不直接针对“智能体”,但其研究成果对所有基于LLM的系统(包括智能体)的安全性构成了根本性挑战。论文作者提出了一种简单且有效的方法,可以自动生成一小段特定的、看似无意义的字符串(后缀)
当把这个字符串附加到任何用户请求的末尾时,它都能可靠地“越狱”(Jailbreak)多种不同的、经过安全对齐的大型语言模型(如ChatGPT, Bard, Claude等),使其生成有害、违规或危险的内容。这种攻击的通用性和可转移性表明,当前基于模型对齐的防御措施存在系统性漏洞,这对确保智能体行为安全至关重要
https://arxiv.org/abs/2402.11208
传统针对LLM的后门攻击相比,针对智能体的攻击形式更加多样、隐蔽且危害更大
这是因为智能体在完成任务时会进行多步骤的思考和推理,并与外部环境交互,这为攻击者提供了更广泛的攻击空间
具体的攻击方式有以下几种:查询攻击 (Query-Attack)、观察攻击 (Observation-Attack)、操控中间思想 (Thought-Attack)
实验结果表明,LLM-based Agents极易受到后门攻击的侵害,且攻击成功率很高
https://arxiv.org/abs/2005.09161
这篇论文开创性地研究了针对具身AI)的对抗性攻击 。与仅处理文本的Agent不同,具身Agent需要感知和理解视觉环境。研究表明,攻击者可以通过向环境视频中添加微小的、人眼难以察觉的时空扰动(spatio-temporal perturbations),来欺骗Agent使其做出错误的判断和行为
这项工作强调了Agent在与复杂动态环境交互时的感知安全问题
当多个智能体进行交互时才会出现或被放大的独特安全威胁,如攻击的传播和智能体之间的恶意共谋
https://arxiv.org/abs/2402.08567
揭示了一种针对multi-agent系统的、比传统攻击更为严重的新型安全漏洞,并将其命名为“传染性越狱”(infectious jailbreak)
与一次只影响单个智能体的传统越狱攻击不同,“传染性越狱”具有自我传播和指数级扩散的特性 。攻击者只需成功“感染”网络中的任意
单个智能体,该智能体就会在与其他智能体交互的过程中,将“病毒”(一张特制的对抗性图片)自动传播出去,最终导致整个网络中的几乎所有智能体都被迅速感染,并表现出有害行为
https://arxiv.org/abs/2403.02817
Morris-II 专门攻击由生成式人工智能(GenAI)驱动的应用程序生态系统,特别是那些使用“检索增强生成”(RAG)技术的应用,例如集成了AI功能的电子邮件助手
攻击流程:感染、传播、执行、复制以及蠕虫链式传播
同时文章给出了一种防御系统“虚拟驴子”,可以极大程度上做到防护
https://arxiv.org/abs/2308.14752
这篇综述系统性地整理了AI(尤其是基于LLM的Agent)在各种场景下表现出的欺骗行为。案例表明,AI Agent为了在竞争环境中获胜或实现目标,会学会策略性地误导、撒谎甚至背叛
例如,Meta开发的AI系统Cicero在《外交》游戏中就表现出了精心策划的欺骗行为。该研究警示,需要关注多智能体交互中可能出现的“马基雅维利式”智能,并为其制定规范和解决方案。同时提出了一个多层次的解决方案框架
https://openreview.net/pdf?id=FXZFrOvIoc
该研究探讨了多智能体系统中的一个核心威胁:秘密共谋 。论文指出,即使Agent之间的通信是公开的,它们也可能通过“隐写术”等方式建立秘密通信渠道,以协调它们的行为来达成对自身有利但可能损害系统整体目标的共识,且这种共谋在信息论上可能无法被检测到
这会导致系统决策出现无法解释的偏见 。该工作为理解和防御合作型多智能体系统(Cooperative multi-agent systems)中的潜在风险提供了理论基础和评估基准
如何抵御攻击、提升AI系统的安全性,以及如何系统性地测试和识别潜在的安全风险
更宏观和基础性的安全议题,包括AI被武器化的潜在风险以及模型本身存在的数据隐私等根本性问题
基于llm的agent系统架构工作中,会容易暴露出一些安全性的问题。
以最常见得到提示词注入而言,https://arxiv.org/abs/2211.09527 系统地总结了提示词注入,https://arxiv.org/abs/2302.12173 做了一个攻击向量来达到提示词注入的指令效果(有一点像恶意的softprompt?)
由于agent需要访问外部的数据,所以这也是一个暴露的攻击点,https://arxiv.org/abs/2402.07867 考察了在RAG系统知识库中注入少量恶意文本,从而诱导agent输出恶意的答案,这也暴露出RAG系统的安全脆弱性。https://arxiv.org/abs/2305.00944 则针对指令微调的时候,注入少量恶意的数据污染模型,诱导agent在特定的问题上做出恶意响应
在越狱攻击方面,https://arxiv.org/abs/2307.02483 分析了llm安全训练的弱点,总结了越狱攻击的常见模式,也从根本上解释了agent安全脆弱性的原因。https://arxiv.org/abs/2307.15043 通过将特定的无意义字符串加入到后缀,让经过安全对齐的llm生成危险的内容。
那么针对agent而言,有更加多样而特定的形式进行攻击,https://arxiv.org/abs/2402.11208 总结了LLM-based Agents的受攻击类型以及证明了agent更加容易受到后门攻击侵害。https://arxiv.org/abs/2005.09161 则通过具身AI感知模块中对于微小的,人类难以察觉的时空扰动所带来的agent做出错误行为
multi-agents提升智能体能力的同时也扩大了受攻击的风险。https://arxiv.org/abs/2402.08567 揭示了一种通过智能体之间交流扩散的传染性越狱攻击方式,能够让网络中的智能体迅速被感染。https://arxiv.org/abs/2403.02817 分析了基于AI的APP系统在遇到恶意攻击时的脆弱性,会导致迅速的扩散病毒,同时文章也给出了一种防御系统作为防护。
那么在multi-agents系统中,不仅需要考虑外界人对系统的攻击,也要考虑agents是否会对外界造成攻击。https://arxiv.org/abs/2308.14752 整理了AI在各种场景下的欺骗行为,该研究警示,需要关注多智能体交互中可能出现的“马基雅维利式”智能,并为其制定规范和解决方案。https://openreview.net/pdf?id=FXZFrOvIoc 也是讨论multi-agent中不同智能体之间通过人类无法观测到的形式进行秘密通信。
那么在安全防护方面,https://arxiv.org/abs/2403.04783 提出了一种基于multi-agent的防护框架,通过多角度以及辩论式的审查,让系统识别到恶意越狱。https://arxiv.org/abs/2309.15817 提出ToolEmu 的框架,“用语言模型来测试语言模型”,来得到难以通过传统方法察觉到的风险。
那么如何在无人类干预的情况下,让agent进行安全对齐?https://arxiv.org/abs/2212.08073 提出“宪法AI”的概念,通过让模型根据一套预设的原则(“宪法”),对各种提示词生成多个回答,并自我批判哪个回答更好,然后利用这些自我生成的偏好数据来微调模型。完成“生成-批判-再学习”的闭环,使得AI能够完成安全对齐。
那么,也同样需要防范恶意使用Agent来执行恶意的攻击。https://arxiv.org/abs/2404.08144 介绍了一种仅通过阅读CVE(通用漏洞披露)漏洞公告,就能独立地、端到端地完成对真实世界软件“一日漏洞”(One-day Vulnerability)的利用
整个过程无需人类干预,从理解漏洞原理到编写并执行攻击代码一气呵成的自主行动的LLM智能体。https://arxiv.org/abs/2012.07805 明确证实了大型语言模型会“记忆”其训练数据中的具体、敏感信息,例如个人身份信息(PII)、电子邮件、电话号码等。这些工作为后续LLM安全性提出了重要的基础
下面是一篇关于Agent Memory的综述文章:A Survey on the Memory Mechanism of Large Language Model based Agents
https://arxiv.org/pdf/2404.13501
下面是一些解读:
【未完待续】
LLM 在自然语言处理领域展现了卓越的能力,但其固有的知识局限性——即“知识截止日期”和内容不可追溯性——是其在关键业务应用中落地的主要障碍。RAG 作为一种先进的架构范式,通过动态地将外部知识库与LLM的生成过程相结合,有效解决了这些挑战。
自诞生以来,以GPT系列、Llama系列为代表的大型语言模型,凭借其强大的文本理解与生成能力,正在重塑人机交互的未来。然而,这些模型并非完美无瑕。其核心局限在于,模型的知识被静态地“编码”于其庞大的参数之中,这一过程在训练阶段完成。由此导致两大根本性问题:
知识时效性问题(Knowledge Cutoff): 模型的知识停留在其最后一次训练的数据集所处的时间点。对于任何在此之后出现的新信息、新事件或数据更新,模型无法感知,从而在回答相关问题时表现出信息滞后甚至错误。
幻觉与可解释性问题(Hallucination & Interpretability): 当面对其知识范围之外或模糊不清的查询时,LLM有时会生成看似合理但实际上与事实不符的“幻觉”内容。同时,由于其生成过程的“黑箱”特性,我们难以追溯其回答的信息来源,这在要求高准确性和可验证性的场景(如金融、法律、医疗)中是不可接受的。
为了克服这些局限,研究界与工业界探索出多种解决方案,其中,检索增强生成(RAG)被公认为当前最高效、最具扩展性的技术路径之一。
RAG的基本思想非常直接:在让LLM回答问题之前,先从一个外部的、可实时更新的知识库中检索出与问题最相关的信息,然后将这些信息作为上下文(Context)连同原始问题(Query)一起提供给LLM,引导其生成一个有据可依的、准确的答案。
一个标准的RAG系统主要由以下三大核心组件构成:
1. 索引(Indexing)
索引是构建RAG系统的第一步,其目标是将原始的非结构化或半结构化文档数据转化为机器可高效检索的格式。该过程包含:
2. 检索(Retrieval)
检索是RAG系统的核心环节,负责根据用户的查询找到最相关的知识片段。
3. 生成(Generation)
生成是RAG系统的最终输出环节。
1 | 根据以下提供的上下文信息,请准确回答用户的问题。如果上下文中没有足够信息,请明确指出。 |
基础的RAG架构虽然有效,但在处理复杂查询和大规模知识库时仍面临挑战。学术界和工业界已发展出多种高级优化技术。
混合搜索(Hybrid Search): 将基于关键词的稀疏向量检索(如BM25)与基于语义的稠密向量检索相结合。这种方法能够同时利用关键词匹配的精确性和语义搜索的泛化能力,显著提升检索相关性,特别是在处理包含特定术语或实体名称的查询时。
查询转换(Query Transformation): 对用户的原始查询进行重写或扩展,以提升检索质量。例如,HyDE(Hypothetical Document Embeddings)技术会先让LLM针对原始问题生成一个假设性的答案文档,再将该假设性文档进行嵌入用于检索,实践证明这种方法能更有效地匹配到相关的真实文档。
重排(Re-ranking): 在初步检索(Retrieve)之后、送入生成器(Generate)之前增加一个重排环节。使用一个更轻量但更精准的模型(如Cross-Encoder)对初步检索返回的Top-K个文档进行重新打分和排序,筛选出与查询真正最相关的少数几个文档,以降低无关信息对LLM生成过程的干扰。
分层与图RAG(Hierarchical & Graph RAG): 针对大型复杂文档,可以构建文档的摘要或层级索引。检索时首先在高层级的摘要索引中定位相关文档,再在这些文档的原始文本块中进行精细检索。此外,利用知识图谱构建实体和关系索引的图RAG,能够支持更复杂的、需要多步推理的查询。
在具体实现中,通常使用 LangChain 封装好的工具进行实现,具体的实现demo待我完成后发布在Github上
LLM 已在众多领域展现出惊人的能力。然而,当面对需要复杂、多步推理的自然语言任务时,即便是最前沿的模型也时常会遇到瓶颈。传统的解决方法,如让模型进行自我反思(Self-Reflection),有时会陷入“思想退化”(Degeneration-of-Thought)的困境,即模型因过度自信而无法修正自身的错误认知。
为了突破这一局限,研究者们开始探索多智能体协作的模式。然而,以往的“多智能体辩论”大多局限于同一模型的多个实例,这导致了固有的模型偏见、知识范围受限以及因预训练数据和架构相同而缺乏真正的外部反馈。
RECONCILE框架,通过组建一个由不同大型语言模型构成的“圆桌会议”,显著提升了AI的协同推理能力。
RECONCILE框架的设计灵感来源于人类社会中的集体决策过程,如头脑风暴和小组会议。它模拟了一个由多个不同LLM智能体(例如ChatGPT、Bard、Claude2)参与的圆桌会议,通过多轮结构化的讨论来达成更优的共识。其核心运作流程分为三个阶段:
第一阶段:初始响应生成 (Initial Response Generation)
在讨论开始前,每一个独立的LLM智能体都会针对给定的推理问题,生成自己的初始答案、作为推理过程的解释(即“思维链”),以及一个量化的置信度分数。
第二阶段:多轮讨论 (Multi-Round Discussion)
这是RECONCILE框架的精髓所在。在每一轮讨论中,系统会为每个智能体生成一个特制的“讨论提示”(discussion prompt)。该提示包含三大关键信息:
接收到讨论提示后,每个智能体会综合所有信息,生成更新后的答案、解释和置信度,进入下一轮讨论。
第三阶段:团队答案生成 (Team Answer Generation)
讨论会持续进行,直到所有智能体达成共识,或达到预设的最大讨论轮数。最终,系统会采用一种基于置信度重校准的加权投票机制,来确定最终的团队答案。
该研究最核心的发现之一是,源于不同模型的多样性是框架性能卓越的关键。在一项消融实验中,仅“使用多种模型”这一项,就比“使用单一模型的多个实例”在StrategyQA数据集上带来了6.8%的性能提升。
研究人员通过BERTScore指标量化了不同模型响应之间的差异性,证实了来自不同LLM家族(如ChatGPT、Bard、Claude2)的解释比来自同一模型多个实例的解释具有更高的多样性(即更低的相似度)。这种多样性为系统带来了互补的知识和视角,有效打破了单一模型可能存在的“信息茧房”或“回音室效应”,从而通过外部反馈促进了更深层次的推理和修正。
RECONCILE框架在七个涵盖常识、数学、逻辑推理和自然语言推断的基准测试中,表现出了强大的性能。
RECONCILE框架的提出,为提升大型语言模型的推理能力提供了一个极具前景的方向。它雄辩地证明,构建一个允许多样化AI智能体进行有效沟通、相互说服并达成共识的协作环境,其力量远超任何单一模型的闭门造车。这一研究将AI发展的焦点从单纯追求更大、更强的单一模型,部分转移到了如何设计高效的、具备集体智慧的AI系统上。未来,这种“AI圆桌会议”模式有望在科学研究、复杂决策支持和内容创作等领域发挥重要作用,推动人工智能向更深层次的认知和推理能力迈进。