近日,卡内基梅隆大学的研究人员提出了一项名为 “层次化知识智能体架构(Layered Orchestration for Knowledgeful Agents)”(LOKA)的新协议,可以加入其他拟议的标准,例如 Google 的 Agent2Agent (A2A) 和 Anthropic 的模型上下文协议 (MCP),旨在为自主 AI 智能体的身份、责任和伦理提供规范。随着 AI 智能体的普及,对其互动进行标准化管理的需求愈加迫切。
LOKA 协议的提出背景是,当前的 AI 智能体通常在各自独立的系统中运行,缺乏统一的沟通协议以及伦理决策框架,这导致了互操作性差、伦理不一致和问责缺失等一系列问题。因此,LOKA 作为一种开源协议,致力于赋予智能体唯一的身份标识,使其能够验证身份、交流具有语义丰富和伦理注解的信息,并在决策过程中实现问责与伦理治理。
LOKA 的设计分为多个层级。首先是身份层,这一层为智能体提供一个去中心化的标识符,确保其身份的唯一性和可验证性。接下来是沟通层,智能体能够在此层面上告知其他智能体其意图及任务。然后是伦理层,它构建了一个灵活而强大的伦理决策框架,允许智能体根据所处的上下文调整行为标准。同时,安全层使用了量子抗攻击的加密技术,进一步增强了协议的安全性。
与现有的代理协议相比,LOKA 的独特之处在于它明确了智能体如何与其他智能体沟通和在不同系统中自主运作的关键信息。对于企业而言,LOKA 能够保障智能体的安全,并提供可追溯的决策过程,帮助企业理解智能体的决策背景,避免潜在的错误。
该项目的研究者 Rajesh Ranjan 表示,LOKA 的目的是为智能体建立一个信任和责任的生态系统。虽然 LOKA 协议独立于其他协议,但他们已收到了来自其他研究机构和学术界的积极反馈,显示出对 LOKA 研究项目的广泛关注和认可。
划重点:
🔍 LOKA 协议旨在为自主 AI 智能体提供身份、责任与伦理的规范,促进其互操作性。
💬 LOKA 的设计包括身份层、沟通层、伦理层和安全层,确保智能体在不同环境中的可靠性和安全性。
🚀 LOKA 项目受到其他研究机构的积极反馈,显示出其在 AI 领域的重要性和潜在影响。