AI 在谷歌,如何「不作恶」

2018-06-09 11:59 稿源:雷锋网  0条评论

AI 在谷歌,如何「不作恶」

雷锋网 AI 科技评论按:今年 3 月,谷歌与美国国防部在 Project Maven 上合作的消息泄露。由于 Project Maven 的目标是用于无人机的视频检测、目标识别,未来可能应用到作战中。

消息一经传出立即在谷歌内外引发了巨大反响。不仅广大网民/谷歌用户质疑谷歌降低了自己道德水准,4 月,超过 3100 名谷歌员工联名上书谷歌 CEO Sundar Pichai,呼吁谷歌退出 Project Maven 并要求公司「永远不再开发战争相关技术」;5 月,面对公司高层不甚明了的态度,十余名谷歌员工甚至提出离职作为抗议。

在广大谷歌员工的殷切要求与期盼下,谷歌云首席执行官 Diane Greene 在与员工的一次内部会议上宣布不再与国防部续签这一项目,Sundar Pichai 今日也在谷歌博客发出了标题为《AI 在谷歌:我们的行为规范》的文章,作为公开信明确表明了自己对于包括军事用途在内的 AI 与谷歌公司全方位关系的态度。

AI 在谷歌:我们的行为规范 - Sundar Pichai

本质上,AI 是一种可以学习并适应的计算机程序。它并不能解决所有的问题,但它有巨大的潜力可以改善我们人类的生活。谷歌就在借助 AI 的力量让自己的产品更有用,比如可以隔绝欺诈邮件、也易于写作的电子邮件,到可以用自然语言沟通的电子助理,再到能自动捕捉下精彩瞬间的照相 app。

除了谷歌的产品,我们也在使用 AI 帮助人们解决更紧急的问题。在谷歌员工参与的项目中,一群高中生在设计带有 AI 功能的传感器用来预测森林火灾的风险,农民在借助 AI 追踪自己的兽群的健康状况,医生也正开始利用 AI 帮助检测癌症以及防止失明(雷锋网 AI 科技评论注:糖尿病导致的长期高血糖会导致失明,早期症状可以由眼部照片发现)。谷歌之所以在 AI 的研究和开发上有大规模的投入、努力通过谷歌开发的工具和开源代码让更广泛的人群也可以掌握 AI 的力量,正是因为我们可以看到这些明确的好处。

我们同时也认识到,如此强大的技术也引发同样重大的问题,那就是如何使用它。我们开发、使用 AI 的方式在未来的许多年内会对我们的社会产生深远的影响。作为 AI 领域的领导者,我们感觉到自己肩负了深刻的责任,要用正确的方式做这一切。所以今天,我们公开宣告以下七项行为规范,以它们指导我们未来的工作。它们并不是理论上的概念,而是切切实实的标准,它们将积极主动地约束我们的技术研究和产品开发,并将影响我们的商业决策。

我们明白这个领域是高度变化、持续发展的,我们也会带着谦卑的心态、对内部和外部事务的承诺以及不断改善的意愿持续学习、持续前进。

AI 应用的设计目标

我们会以下面的几个目标评估 AI 应用。我们相信 AI 应当:

  1. 对社会有益

    随着新技术的不断发展壮大,它对整个社会的影响也越来越大。AI 方面的进展会为许多领域带来革命性的转变,包括医疗、安全、能源、交通、制造以及娱乐。当我们考虑 AI 潜在的发展方向和应用方式时,我们也会一并考虑各种社会以及经济因素,并向着我们认为总的来说可能的收益要明显高于可预见的风险和问题的方向前进。

    AI 同样能增强我们理解海量内容含义的能力。借助 AI 的力量,我们努力让高质量、准确的信息随时可用,同时也持续地尊重运营地域的文化、社会、法律惯例。我们也会持续地仔细评估何时可以把我们的技术成果以非商业化的方式向全社会开放。

  2. 避免创造或增强不公平的偏见

    AI 算法和数据集能够反映、增强又或者减少不公平的偏见。我们注意到如何区分公平和不公平的偏见并不是总是一件容易的事情,而且这在不同的文化和社会中也会有所区别。我们会努力避免针对人类的不公平的影响,尤其是和敏感的个人特质相关的因素,比如人种、种族、国籍、收入、性取向、能力以及政治及宗教信仰。

  3. 构建和测试中注重安全

    我们会不断设计强有力的安全与防护措施并应用它们,避免出现有可能会伤害人类的结果。我们设计的 AI 系统将会足够谨慎,在开发时也会符合 AI 安全学术研究方面的最佳做法。对于合适的情况,我们也会在受限的环境中部署并观察 AI 的行为作为测试手段。

  4. 对人类负责

    我们设计的 AI 系统应当给与人类适当的给出反馈、做出相关的解释以及提出异议的机会。我们的 AI 技术也会接受适当的人类指导以及控制。

  5. 符合尊重隐私的设计规范

    我们会在 AI 技术的开发和使用中遵守我们的隐私政策。我们会提醒用户知情以及同意,鼓励使用带有隐私保证的架构,并在数据使用中保证适当的透明性和控制力。

  6. 保持与杰出科学研究一样的高行为标准

    科技创新的根本是科学的方法,以及承诺可以开放地质询、严谨地思考、完整性、并多方合作。AI 工具有潜力在生物、化学、药物、环境科学等领域开辟出科学研究和科学知识的新天地。我们在 AI 的开发和进步过程中也深受这样的杰出科学研究的高标准鼓舞。

    我们会与许多股东携手为这个领域培养深思熟虑的领导方式,关注科学性的严谨性和多学科联合的工作风格。我们也会担负起分享 AI 知识的责任,包括向全社会公开教学材料、最佳做法、以及能够让更多人参与开发出有用的 AI 应用的研究成果。

  7. 为符合以下标准的应用做好准备

    许多技术都有多种应用方式。这些方面我们的努力方式将会是限制潜在的有危险的或者可能被滥用的应用。在我们开发和部署 AI 技术的过程当中,我们会注意评估以下应用相关的因素:

  • 主要目的以及应用:技术及应用的主要设计目标以及可能的应用方式,包括解决方案与有害的使用方式之间的关联性,或者用于有害应用的适配性。

  • 自然性及独特性:独特性针对性的技术是否开放可用,更广泛通用的技术是否开放可用

  • 规模: 这项技术的使用是否会带来重大影响

  • 谷歌的参与程度的本质:我们是否要为客户提供通用性的工具、集成式的工具,还是开发定制化的解决方案。

有好的文章希望站长之家帮助分享推广,猛戳这里我要投稿

相关文章

相关热点

查看更多