首页 > 业界 > 关键词  > 计算机最新资讯  > 正文

如何衡量不同隐私计算技术的安全性?蚂蚁集团韦韬阐述五类安全级别

2022-06-29 11:55 · 稿源:站长之家用户

6月28日,“2022大数据产业峰会”在北京举行。论坛集结了大数据相关领域的专家学者和产业界人士,深入探讨了当前数据要素行业发展的现状和趋势。蚂蚁集团副总裁兼首席技术安全官韦韬受邀参加主论坛并发表《数据密态时代:发展与安全》主题演讲,阐述了数据要素流通领域即将开启数据密时态代的新征程,其中如何评估不同技术类别的隐私计算技术的安全性,对隐私计算技术的应用落地起到关键作用。

“大数据产业峰会”已举办7届,由中国信息通信研究院、中国通信标准化协会指导,中国通信标准化协会大数据技术标准推进委员会(CCSA TC601)主办,是支撑大数据战略落地、推动大数据产业交流与合作的权威平台。

韦韬认为,2022年,无论从法规、政策要求还是技术成熟度上,整个数据流通领域即将告别数据明文时代,开启数据密时态代的新征程。隐私计算是承载数据密态时代数据安全流转的关键技术。当前以跨网为主的隐私计算模式之下,很多明文数据直接计算的操作都要被转换成数以万计的跨网交互,带来了一系列瓶颈。数据密态时代的技术需要满足稳定性、性能、适用性、成本、以及安全性上的需求。

如何比较不同的隐私计算技术的安全性,对于全球来说都是一个新兴的挑战。当前隐私计算技术安全分级标准往往是针对单个技术路线来制定的。而在应用场景,各技术路线相互之间很难交叉比较。另外,隐私计算技术不断创新,现有安全分级标准无法对新兴的隐私计算技术进行安全评估,限制了新技术的应用和发展。韦韬认为,不同场景下,在隐私计算上付出不同数量级的成本时,应该在各个维度上都有相应的收益,在安全侧应该有一个相对通的尺子来衡量。这对隐私计算技术的应用落地起到关键作用。

韦韬表示,蚂蚁集团目前正在尝试对隐私计算技术实现的“数据密态”做一些宏观层面的安全分级,依照隐私计算安全性能实现程度的递增,将安全通用分级分为五类,依次是:基线防护级、审计追溯级、广度防护级、深度检验级、安全证明级。希望把隐私计算从宣传口号落实到实质性的安全保障要求。

“产品不存在绝对安全。隐私计算系统的安全性度量的本质在于评估攻击者需要付出多大的努力、克服多大的不确定性来攻破给定的安全防护保障,造成信息泄露的后果或风险”。总体上蚂蚁集团梳理的这五个安全通用分级比较全面和准确地覆盖了现实中隐私计算系统应该满足的不同的安全级别要求,可以跨技术种类的标定隐私计算系统的安全级别。

韦韬还表示,数据流通领域即将开启数据密态时代的新征程,将是多种技术共存,隐私计算安全通用分级的标准和测评将是关键基石,也需要行业的伙伴们共同努力,不断提升行业整体水平推动数据要素行业发展。

举报

  • 相关推荐
  • 深度解析丨一文读懂隐私计算多种技术路线

    数据安全共享和价值转化既是政策导向,也是大数据和数字经济发展的关键。隐私计算技术,已成为数据流通安全的“最优技术解”。相信在未来,不同技术路线的融合以及与人工智能、区块链等新兴技术的结合,能够推动隐私计算大规模落地,实现海量数据要素的价值释放。

  • 百融云创隐私计算平台Indra 为数据安保驾护航

    在数据驱动的时代,数据安全已然成为一道无法回避的挑战。尤其在金融领域,数据安全问题关系到企业利润、消费者信任甚至整个金融体系的稳定。透过他们展示的成果,让我们有理由相信,数据要素不仅可以释放巨大的经济价值可以在充分保护的基础上为更多行业和领域提供服务。

  • LLM Guard:增强LLM安全性的开源工具包 安使用各种等模型

    LLMGuard是一个旨在增强大型语言模型安全性的开源工具包,旨在简化LLMs在企业中的安全采用。它的设计目的是为了轻松集成和部署在生产环境中,为LLMs的输入和输出提供广泛的评估,包括清理、检测有害语言和数据泄漏,以及防止注入和越狱攻击。这一工具包的推出将有望促进大型语言模型在企业中的更广泛应用,为企业提供了更好的安全保障和可控性,从更加自信地采用这一新兴技术。

  • OpenAI招募专家加入“红队”网络,加强AI模型安全性

    OpenAI宣布了一项旨在加强其人工智能模型安全性的重要计划,即启动了“红队”网络。这一计划的目标是邀请来自各个领域的专家,加入他们的“红队”网络,共同评估和对抗其AI模型的潜在风险。这一举措有望为人工智能的未来发展提供更坚实的基础,确保其在各个领域的应用都能够更加可靠和安全。

  • 兼容 AI 个人电脑将改变人们的工作方式:大大提高性能、安全性和个

    日前Canalys发文章表示,兼容AI的新一代个人电脑将改变我们的工作方式。混合云计算和本地计算将使人们能够大幅提高工作效率,释放自身的创造力。但兼容AI的普及不会显著扩大个人电脑市场规模。

  • LLM能否自我评估安全性?RAIN:一种无需微调即可改善AI对齐和安防御新方法

    大型预训练语言模型,如GPT-3,具有出色的能力,可以理解和回答人类提出的问题,协助编码工作等。它们常常生成与人类偏好不同的结果。这是通过允许LLM评估和改进其自身输出来实现的,最终产生更协调和安全的AI生成响应。

  • OpenAI组建Red Teaming Network团队 加强模型安全性

    OpenAI宣布正在组建一个名为OpenAIRedTeamingNetwork的专家团队,旨在加强模型安全性。该团队由经验丰富的专家组成,将为OpenAI提供风险评估和缓解方面的信息和帮助。OpenAI将滚动选择网络成员,申请截止日期为2023年12月1日。

  • ReCon框架帮助AI大模型识破谎言 增加AI智能体的安全性

    随着大语言模型的不断进展,AI智能体的发展也变得更加蓬勃。研究者发现在未来无人监管的情况下,防止AI智能体被欺骗和误导是一个被忽视的问题,因为人类社会中存在着大量误导和欺骗性的信息,如果AI智能体不能有效地识别和应对这些信息,可能会导致不可估量的后果。这一研究对于提高AI智能体的安全性和可靠性具有重要意义。

  • 国家密码管理局:规范商用密码检测活动和应用安全性评估

    为了规范商用密码检测活动和应用安全性评估工作,国家密码管理局日前出台了《商用密码检测机构管理办法》和《商用密码应用安全性评估管理办法》。两部管理办法将于今年11月1日正式施行。”强调:“法律、行政法规和国家有关规定要求使用商用密码进行保护的网络与信息系统,其运营者应当使用商用密码进行保护,制定商用密码应用方案,配备必要的资金和专业人员,同步规划、同步建设、同步运行商用密码保障系统,并定期开展商用密码应用安全性评估。

  • OPPO Find N3或将突破隐私安全难题?自研代号“孤岛”安全技术曝光

    凤凰网科技讯10月10日,OPPO即将在近日发布旗下第三代折叠屏FindN3,将会调整市场定位。FindN3将会主攻隐私安全等商务人群关注的核心功能。隐私安全或许即将成为高端旗舰产品系的下一步重点关注方向,OPPOFindN3上搭载的独立安全芯片和代号“孤岛”的安全技术将率先对这一难题作出回答,能否够解决隐私安全问题值得进一步关注。