首页 > 业界 > 关键词  > 大模型最新资讯  > 正文

指令层级,帮助AI大模型防御恶意攻击

2024-11-11 17:55 · 稿源:AIGC开放社区公众号

随着ChatGPT等生成式AI产品被广泛应用在AI代理/客服、虚拟助手等领域,在安全方面会遭遇黑客攻击、恶意文本提示等难题。例如,使用特定的提问方式,可以让ChatGPT输出原始私密训练数据。因此,OpenAI的研究人员提出了“指令层级”(Instruction Hierarchy)技术概念,可帮助大模型

......

本文由站长之家合作伙伴自媒体作者“AIGC开放社区公众号”授权发布于站长之家平台,本平台仅提供信息索引服务。由于内容发布时间超过平台更新维护时间,为了保证文章信息的及时性,内容观点的准确性,平台将不提供完全的内容展现,本页面内容仅为平台搜索索引使用。需阅读完整内容的用户,请查看原文,获取内容详情。

举报

  • 相关推荐

热文

  • 3 天
  • 7天