Advertisement

原创 | QAV:基于大语言模型的智能体协作的基本原理及应用前景展望

阅读量:
da31f77a5e57813047ea5fc037080ba6.png
复制代码
 作者:张家林

    
  
    
 本文约6000字,建议阅读12分钟人类需要权衡利弊,并采取适当的监管和控制措施,以确保人工智能的持续、安全和可持续发展。

约7万年前, 基因突变使人类获得了高度发达的语言能力, 自那时起, 人类便能够进行更为丰富的交流方式。基于语言的能力, 人们便可以通过编造故事情节来构建共通的思想基础, 这就使得我们在更大范围内建立起互相信任与协作的基础, 从而实现了更加宏大的目标。这种非exclusive to humans alone language ability并非 unique to humans alone. 但以GPT-4为代表的基于大语言模型(LLM)的智能体展现出的惊人'Language abilities', 标志着这项独特的nonexclusive human trait不再局限于人类身上。

Sam Altman在其社交媒体平台上表示新的摩尔定律可能会很快出现,并指出其影响范围将覆盖整个宇宙,在此期间全球范围内独立存在的智慧生命个体数量将在18个月内翻一番。具体而言,在每个独立存在的智慧生命个体都具备类似于GPT-4或其他更高层次语言能力的前提下,并通过自主学习提示、建立联系以及执行指令等方式进行互动后,则这些智慧生命个体之间的协作将具备与人类相似的语言交流与沟通能力

随着智能体数量的持续增加, 它们逐步发展成为大规模智能体协作, 这一趋势可能在多个领域引发根本性的变革, 包括科学研究、工程设计以及经济活动等多个方面. 不容忽视的是, 就像人类通过虚构故事而逐渐建立起来的文明体系一样, 大规模智能体协作能否发展出一种"智能体文明", 这种新型形态对人类社会会产生哪些深远影响则是一个值得深入探究的重要课题.

本文首先构建了一个基于大语言模型的大规模智能体协作系统框架QAV,并对该系统的基本理论进行简明扼要的阐述。接着深入探讨了智能体协作的关键特性及其性能表现。最后以GPT-4与LLaMA等主流大语言模型为例,展望其在实际应用中的巨大潜力。

一、基于大语言模型的智能体协作的基本原理

智能体作为一个实体,在感知能力方面表现出对外界信息的接收与理解;在推理能力方面能够对所接收的信息进行分析与判断;在决策能力上能够基于前两者的结果制定相应的策略;在行动能力上则能将决策转化为具体的操作步骤或行为。其应用领域广泛,在实际生活中可能的形式包括软件程序、机器人以及人工智能系统等。

智能体协作是指多个智能体为了实现共同目标而进行的交流与合作过程。在协作过程中,这些智能体需交换信息与资源,并协调行动以提高效率地完成任务。其应用领域非常广泛,涵盖自动驾驶车辆,无人机编队,智能家居系统等复杂场景.要实现有效的智能体协作,需解决其中的关键问题,包括通信机制,资源分配方案以及决策支持体系等。

作为一种全新的协作模式,
不同于传统主要依靠规则进行协作的方式,
基于大语言模型的智能体协作是
一种革命性的新型组织形式。
这种新型模式的核心特征在于,
其核心要素包括具备大型语言模型的强大计算能力,
以及能够自主完成与同质体之间的多轮对话交流。
在这一过程中,
参与方之间的元操作(mo: meta operation)
主要包括以下三种类型:
即常见的三种类型分别为提示、指令和补全。

提示(P: prompt)被提供为输入给智能体系统中使用,并用来触发其生成输出的行为。一般情况下,在自然语言处理领域中,默认情况下会使用这样的提示语句来指导AI系统完成特定的任务;这些提示语句通常是问题式或指令式的文本内容,并且它们的作用是为了让AI系统能够理解用户的意图并给出具体的反应

提示(P: prompt)被提供为输入给智能体系统中使用,并用来触发其生成输出的行为。一般情况下,在自然语言处理领域中默认会使用这样的提示语句来指导AI系统完成特定的任务;这些提示语句通常是问题式或指令式的文本内容,并且它们的作用是为了让AI系统能够理解用户的意图并给出具体的反应

指示(I:instruction)是一种特定类型的提示用于明确指示智能体应执行的任务。通常这些提示具有描述性内容指明回答问题或完成任务的具体方法。通过在提示中提供清晰的指示可以引导智能体模型生成更准确且相关的结果。

补充内容(C: 完成度):补充内容是指智能体根据输入提示及生成结果提供的输出文本片段。这些补充内容旨在以满足用户的特定需求为目标,在包括但不限于回答问题、撰写技术文档或开发代码等方面发挥作用。从质量与相关性的角度来看,则是由装载的模型对输入指令的理解与处理能力以及经过训练所掌握的知识储备所决定的

仅依靠这三个元操作还不足以完成协作任务。在构建任何协作体系之前必须确保参与方之间的互信关系已经被建立起来。为此设计并实现一个基于三角计算的信任模型将是必要的选择

在这一三角关系中包含三个主体角色:Q代表提问方、A扮演回答方以及V充当验证员。其中/Q/方面主要负责提供初始提示信息/A/部分则会补充具体的细节同时/V/方面则专注于评估/A/所补充内容的质量与准确性进而判断其是否符合既定的标准或具备可检验性。在此框架下/QAV/作为整体名称被提出并用于描述这一交互机制的整体架构

e44db02091cc906232dfa4e5263baa18.png
493d4683cac9d41baebc1be767402608.png

随后,A由Q接收指令与指示,并根据接收到的信息生成补充内容.随后,A将该补充内容提交给V进行核实,而不直接发送给Q.

V的主要职责是审核A生成的补充内容,并确保其符合相关规则、规范或验证标准等要求。在审核过程中,V可能会利用外部知识库或其他可靠资源来确认A的补充内容是否符合标准。如果审核通过,则会将补充内容发送给Q进行后续处理。如果发现有不符合要求之处,则可以指示A进行修改或提供替代方案直至满足条件。当A的补充内容获得确认后,在Q完成相应处理后即可继续接收新的指令形成循环工作流程

一个QAV如何运作的简单流程示例如下:

请Q就"建设一个网站"这个任务提出问题。随后按照上述模型开展相关工作。

Q:如何建设一个网站?

A:为了建设一个网站,你需要遵循以下步骤:

  • 选择一个域名

  • 注册域名

  • 购买网站托管服务

  • 设计网站布局和结构

  • 创建网站内容

  • 优化网站的SEO

  • 发布网站并进行维护

  • 提交给V进行验证。

V:回答包含了建设一个网站所需的基本步骤。回答合格。将回答发给Q。

Q收到回答后,可能会继续提出具体问题,例如:

Q:如何选择一个好的域名?

A:选择一个好的域名需要考虑以下几点:

短而简洁:域名应简短易记,便于用户输入和分享。

易于拼写:避免使用容易拼错的词汇。

相关性:域名应与网站主题或品牌相关。

使用适当的域名后缀:例如,.com、.org、.net等,根据网站性质选择适当的后缀。

提交给V进行验证。

V:回答涵盖了如何选择一个好的域名的主要方面。回答合格。将回答发给Q。

由于大语言模型被广泛用于生成大量文本内容,并且能高效地处理复杂任务。然而尽管如此,在当前技术条件下一个简单的协作网络仍能持续运行并发挥作用。从而得以实现特定目标。然而限制这些智能体协作的主要关键因素包括计算能力、存储资源以及能源消耗。

基于三角计算信任模型进行,在所有补充项均经过了严格验证与核实的基础上(...),从而显著地增强了系统的稳定性和可靠性程度(...)。这使得各智能体之间能够实现良好的协同合作。

若不采用QAV模型,则需让两方智能体分别扮演提问者的角色及回答者的角色,并在无外部干预的情况下进行直接沟通。

自主交互:两个智能体将在两者之间自主地进行交互。Q将向A提出问题或指令,并由A基于自身的训练与知识来回答问题并执行指令。

信息传播 :在缺乏外部干预的情况下,在两个智能体之间的互动中所涉及的内容可能会不断扩散并涵盖众多主题与领域。这种互动可能导致引人注目的结果意料之外,并可能产生不合时宜或毫无意义的交流。

在缺乏人工干预的情况下

缺少目的导向:在不经过人工干预的情况下,在没有外部指导的情况下,在未设定明确目标的前提下,在无外部引导下,在无明确目的的指引下,在未经人工引导的情况下,在无外部帮助下,在未设定具体方向的前提下,在未经指导和支持的情况下,在无外部干预下,在未设定具体目标的前提下,在无外部支持下,在未被预先定义好方向的前提下

可能出现不道德或不安全的内容:两个智能体之间的交流可能会涉及不道德、不安全或违法的内容。这是因为缺乏人工干预来监督和限制它们的行为,导致它们可能生成不符合伦理和安全标准的输出。

QAV协作模型的主要特点是:

任务分工清晰:该模型能够使各个智能体专注于各自的任务,并进而提升整体效率。

循环互动:三个智能体之间持续不断形成循环结构。通过不断优化过程实现方案的有效性提升,最终达到既定的标准要求

3)可扩展性方面而言,本模型具备广泛的应用潜力。它不仅能够应用于多种不同的应用场景(包括但不限于自动编程、智能问答系统以及知识图谱构建等应用领域),而且进一步而言通过增加更多的智能体单元能够实现对更为复杂的任务的处理能力。

这个协作模型的主要性能的分析:

1)有效性:是通过{Q-A-V}这三个智能体的持续交互和验证后实现的。

2)适用性:基于三个智能体间交互策略的可调节性设计使其适用于多种复杂场景下的多种任务。这种特性使模型能够在各种复杂程度的任务中表现良好。

可维护性:通过将问题、回答和验证进行区分,在一定程度上降低了每个智能体的复杂度。从而使得对各个智能体的更新、升级或维护变得更加简便。

仿真实验研究表明:基于语言的智能体协作网络在真实场景与任务方面展现出极强的应用潜力。然而尽管该模型具备显著优势但也面临着诸多挑战例如在实际应用场景中还需兼顾计算能力存储资源以及能源消耗等方面的限制因素。

基于这个基础的协作模型进行扩展 从而形成了智能体协作网络 因为不同智能体加载的大语言模型各不相同 因此 协作网络可分为两类:同构型与异构型 例如 Q使用了GPT-4 而 A采用了LLaMA模型 通常的做法是在同一智能体集群内部部署同构型大语言模型 并在集群间采用异构模式

目前尚未展开大规模实证研究。从而预示着,在同构网络与异构网络协作的核心挑战上(如同人类两个不同语种的文化交流),必须经过长期而深入的互动才能最终得以解决。

二、智能体协作的新范式

基于是否加载大语言模型作为判断依据,可以将智能体分别划分为两大类别:装载大语言模型的智能体(llmAI)以及未装载大语言模型的智能体(nllmAI)。这两类智能体之间的协作模式呈现出明显的区别。

nllmAI类智能体之间的协作模式可以根据任务类型、通信方式以及协作层级等因素进行归类。主要的协作模式包括:

集中式协作模式 中心角色由单一主体担任,在此框架下该主体负责指挥与协调辅助参与者的各项任务。该主体通常掌握全部信息并拥有决策权,并对辅助参与者的行为进行监督与指导。其余参与者则按照中心主体的指令执行各自的任务,并通过特定机制传递指令与反馈信息以确保整体目标的一致性与高效执行。

分布式协作模式下,在此框架中各个智能体分别自主完成任务,并在必要时进行合作。这种模式下不依赖中心化的协调机制,并依靠各自的信息处理能力和相互之间的协调机制实现协作

3)层次化协作 :层次化协作模式结合了集中式和分布式协作的优点,通过不同层次的智能体进行协作。在这种模式下,高层智能体负责全局规划和决策,而低层智能体则负责执行具体任务。高层智能体和低层智能体之间通过信息传递和协商来实现协作。

4)竞合共生:在竞合共生模式下,智能体展现出明显的相互特性,在多数情形中呈现出相互竞争的特性;但同时也需在特定条件下进行协同合作以达到共同目标;在此模式中智能体需协调两者之间的关系,在具体任务需求下动态优化应对策略。

基于QVA模型的LLM AI类智能体协作模式的主要形式是什么?当A回答者生成补充内容并将其传递给V验证者进行验证时,这使得V型智能体能够通过与其他类型智能体的合作来更有效地完成其任务。例如,在软件沙盒环境中向V型智能体发送指令用于评估A提交的用于构建网站的代码实现的效果。由此可见,nLLM AI与LLM AI这两类主要类型之间的协作关系构成了智能化协作的新模式。其基本原理图示如下:

0f9e1174737bddb8b36d1502593c4e22.png

在这一新型模式下不同类型的LLM AI 智能主体之间协同工作的具体实现形式多种多样。例如,在 QVA 模型中 V 主体可能需要辅助其他 nLLM AI 主体(如软件虚拟环境、仿真装置)共同完成验证任务。在这一新型模式下各类主体可以根据自身优势和任务需求灵活地组合与协作以拓展人工智能在各个领域的应用潜力

我们以github Copilot为例,说明这种协作范式的一个具体流程:

首先,在整个流程中扮演关键角色的是LLM-AI系统。它不仅具备理解客户需求的能力,并且还能自动生成初始版本的代码框架;同时它还能够识别并解决开发过程中的技术难题。客户端(Q端)可以通过LLM-AI提出完整的编程方案要求;例如:构建基于Python语言的应用程序以支撑用户的登录功能及数据持久化存储服务的需求。LLM-AI会对此进行全面分析与处理,并能自动生成初步代码草稿。

随后

在开发代码的过程中, LLM AI与NLLM AI之间需频繁地交流与合作.例如, 在编码过程中可能出现的问题或不符合要求的地方可能会被NLLM AI所发现, 并通过反馈机制传递给LLM AI.随后, 在收到反馈后, LLM AI会修正代码草稿, 并将其重新提交给NLLM AI以供验证.这一流程将持续进行直至生成符合需求且能够正常运行的代码为止.

在整体自动化编程协作中进行分工与合作。The LLM AI is primarily responsible for understanding requirements. The AI excels in addressing foundational questions and drafting initial code snippets. The NLLM AI handles detailed coding, testing, and validation processes. By adopting this collaborative approach, LLM AI and NLLM AI can maximize their strengths in automated programming, ensuring the generation of more efficient and precise code implementations.

新范式的主要优势在于其灵活性与协同效应

基于上述分析、实验结果以及实践经验表明,在新范式框架下,LLM与NLLM智能体协同合作已实现了众多复杂任务,并且未来有望持续实现更多复杂任务。

三、新范式的治理和安全挑战

在新范式框架下,治理与安全议题同样具有重要性。应当从技术层面、伦理维度以及法律框架等方面深入探究与分析。

首先,在这一过程中随着智能体之间的大规模持续协作不断深化 人类获得了前所未有的巨大利益 但也必然导致失去了许多控制权 为了确保这一协作过程的高度透明性和可追溯性 需要建立一套完整的实时监控与审计机制体系 这些措施主要包括:实时监控与记录所有行为 针对异常行为与数据泄露等潜在威胁实施及时应对 并建立完整的审计日志系统

智能体协作过程中存在大量数据交换, 因此必须采取严格的数据隐私与安全措施. 这涵盖对敏感信息的加密处理, 实施访问权限管理以及进行身份标识等措施, 以保证信息在整个交换与处理过程中处于安全状态.

在开展大规模智能体协作的过程中也会遇到诸多伦理与责任方面的挑战。为此必须制定相应的AI伦理准则及责任规范以确保各参与者在协作中遵守道德与法律要求。同时应明确各智能体的责任划分以便于在出现问题时能够对相关主体实施追责措施。

大范围的智能体协同工作不仅涵盖了跨行业合作还包括跨国界的互动 从而 necessitates the formulation of corresponding legal frameworks and regulatory policies 而这些规定将涵盖数据保护 知识产权 以及隐私权保护等多个方面的法规 同时涉及国际间智能体协作相关的监管措施

特别强调加强治理能力建设的重要性

规划统一的合作模式:制定涵盖不同类型的智能体(如LLM AI与NLLM AI)的统一协作方案,在详细规划角色分工、信息传递流程以及工作分配方案的基础上,确保各环节协同运作。

引入监管机制:创建监管智能体机构,并对协作过程中的信息交流、任务分配以及资源使用实施动态监控与审计工作, 以确保协作活动的合规性与安全性

构建安全防护机制:完善智能体间通信的安全标准与协议制定工作,并明确其具体实施步骤;例如采用加密通信技术、实施访问控制措施以及确立数据隐私保护原则等方法措施;通过这些手段有效防范信息泄露及潜在攻击行为的发生。

开发智能体检测算法以基于任务目标和现有资源条件对智能体的行为模式和协作机制进行评估其实现的安全等级

推动多方协作:引导各方参与者加入智能主体协同治理工作,在包含开发者、用户及监管机构等多个领域内共同制定规范性文件并识别潜在风险及探讨解决方案

结论:

随着智能体数量的增多及其之间协作关系的不断深化细化,在提升系统效能的同时也带来了数据隐私保护问题、系统安全风险以及伦理道德考量等多重挑战与课题。基于此,在开发与部署这类智能体系统时应当充分权衡得失与利弊,并实施有效的监管机制并采取必要的控制措施以保障人工智能系统的持续稳定健康发展

《人类简史》,尤瓦尔·赫拉利

https://github.com/people-art/QAV

《人工智能:现代方法》,斯图尔特·罗素

《计算信任浅析》,张家林

由GPT-4生成

艾凡达实验室测试和实验

https://github.com/people-art/QAV/blob/6a1c48cb96eab676a1fb04dbf12204bf288b75d7/GPT-4-test

codepen.io, GPT-4演示

https://openai.com/research/gpts-are-gpts

编辑:于腾凯

校对:程安乐**

cc12ce6f042a8c452311da7161f9cdb0.png

**

全部评论 (0)

还没有任何评论哟~