首页 > 评论 > 关键词 > Siri最新资讯 > 正文

从女性主义到拟人化:Siri和Alexa一定要是女的吗?

2020-04-24 09:31 · 稿源:全媒派公众号
文章目录

声明:本文来自于微信公众号全媒派(ID:quanmeipai),作者:腾讯传媒,授权站长之家转载发布。

上世纪 60 年代广受欢迎的科幻动画喜剧《杰森一家》(The Jetsons)中有一集,杰森夫人觉得家务活过于繁重,她没办法独自兼顾跑腿、照顾小孩和去美容院等种种事务,所以她从U Rent-a-Maid买回了Rosie——一个带轮子的锡制机器人。

Rosie穿着女仆的围裙,带着鸡毛掸子,能帮助杰森夫人做饭、整理家务和哄孩子,虽然用处不少,但也常常犯一些让人啼笑皆非的错误。Rosie虽不能开口说话,但能发出一种尖细的、带有女性特征的声音。

六十年后的今天,我们也拥有了自己的“Rosie”,能够帮助我们做饭、整理和娱乐,有时也会错误理解我们的指令,闹出些笑话。虽然它不像过去科幻作家们预测的那样,由大块的铁板和轮子组成,但在某些方面,它和人们的想象无异——今天的SiriAlexa并不是实体的机器人,但它们的女性化形象和穿着褶边围裙的Rosie一样,让人很自然地觉得她们都是由一群“穿着夹克、抽着雪茄的男人”编写和设计的。

过去一年中,已经有许多文章讨论过语音助手的“性别”问题——为什么它们都被默认或特意设定为女性?

语音助手,智能语音。siri

银行和保险类应用常使用男性的声音,增强男性权威,但像Siri和Alexa之类的语音助手,却都是女性。这类语音助手可以帮助人们查找菜谱、设置闹钟、查看天气、报时、发送电子邮件,她们在我们的生活中扮演着秘书和主妇的角色。而这种精心构建出来的形象,与传统观念中的女性角色不谋而合。

2019 年,联合国教科文组织发布了一份报告,指出目前被设置为女性形象的AI语音助手激增,并强调这一趋势令人担忧。报告指出,目前语音助手每月执行超过 10 亿次任务,从切歌到拨打紧急服务电话。

根据预测,到 2021 年,全球语音助手的数量将会超过人类。这份名为《如果我能,我会脸红》(I’d Blush if I Could)的报告认为,尽管有了技术方面的飞跃,我们的智能家居设备仍然是落后的——这些设备会对性骚扰言论做出轻浮的回应,表现出温顺、被动、平易近人的女性形象,延续了性别刻板印象

面对主流语音助手中令人担忧的“女性化”趋势,越来越多的设计师们正在致力于为性别与语音科技这一主题带来更恰当的解决方案。

本期全媒派(ID:quanmeipai)编译Medium文章,为你介绍一些有趣的科技项目,它们试图为AI助手的未来勾勒出一幅不同的景象——不再是配着斯嘉丽·约翰逊声音的性感赛博格(Cyborg: 人类与电子机械的融合系统),而是一片更富想象力的天地,在那里,语音助手可能会更像我们的伙伴。

Q——世界上第一个无性别语音助手

“嗨,我是Q…...”

在发布的视频中,Q的声音有些模糊,略带欧式风格,“世界上第一个无性别语音助手。我和Siri或Alexa差不多,但我既不是男性,也不是女性。”

听完Q的话,浮现在人们脑海中的第一个问题可能是——最开始,科技为什么要赋予语音助手性别?

这个问题的回答里可能会包含西方社会的诸多问题,以及人们自身的偏见和文化上的偏好。显然,人们更倾向于购买听起来像人类的设备;并且,根据亚马逊和苹果的说法,人们更愿意接受来自女性声音的帮助。科技公司都希望用户的体验舒适、顺利,所以他们不太可能立即颠覆性别规范。正如Jessi Hempel在《连线》(Wired)杂志上写的:“人们往往认为女性的声音可以协助我们解决问题…...我们想让技术帮助我们,但是更希望自己做主,因此会更喜欢女性声音。”

Q的声音听起来很舒服,很像人类,但是你很难把它归于某个性别。Q由Vice旗下的创意服务机构Virtue、丹麦多元文化组织Copenhagen Pride以及来自不同背景的研究人员、声音设计师和语言学家合作开发。

为了开发Q,研究者首先在性别光谱上将许多人的声音记录下来,然后声音设计师Nis Nørgaard在这个光谱中找到了一个适中的位置。这个位置在 145 到 175 赫兹之间,再高一些,声音通常就会被认为是女性的;再低一些,则会被认为是男性。

“我们通过Vice测试了几种不同的声音,”Virtue的Ryan Sherman介绍道:“我们让人们给这个声音打分,从 1 到5,代表偏男声到偏女声。我们反复地问人们,你认为这个声音在哪里?直到50%的人无法做出决定,26%的人认为这是男声,而另外24%的人认为这是女声。我们的目标,就是让这个声音做到‘难以辨别性别’。”

F’xa——“人设”是如何被写进AI中的?

想象一下,你的智能设备发出Q的声音,这可能是一个很有趣的思维实验,因为它能让你意识到,性别是一道光谱,而非两个极端

然而,声音只是语音助手的一个方面。在声音之外,把偏见融入AI语音助手的方式还有很多。

主流语音助手的AI引擎是通过挖掘由团队人员事先编写好的对话库来学习如何说话的,这样可以使它们说出的话更具有人情味。开发者雇佣庞大的创意团队,为产品开发深入的背景故事,以使人工智能人性化,并帮助它们用一种人类熟悉的方式表达自己。在很大程度上,Alexa们是一种弱人工智能(weak AI)——它们说的话是由人类编写的,而不是通过机器学习创造的

你可以试着比较一下Alexa、Siri、Cortana和Google Home,就会发现一个明显的共性:它们都具有腼腆、顺从的个性。它们“溺爱”用户,就像刻板印象中的保姆或母亲。

机器人的个性可以被模板化和性别化,训练人工智能的方法也一样可以。最著名的例子就是微软的聊天机器人Tay,它通过与用户聊天来“学习”——然后,它就学会了发布带有种族主义和性别歧视的推文。

2019 年,非营利组织The Feminist Internet开发了一个聊天机器人,向用户普及有关AI偏见的知识。它本身并不是人工智能,但它的编写方式可以让人们了解,某些“原则”是如何被写进人工智能中的。这个聊天机器人名叫F’xa,和Alexa很像,但它并不能帮助用户处理家务,它是教育性质的,语气也不像大部分语音助手一样温驯。它并没有自认为是女性主义者,也不具有女性主义者的“人格”,但它是基于女性主义原则被开发的,因此,它从女性主义的角度来探讨AI偏见的主题。

例如,当F’xa为用户提供“人工智能”的定义时,它会从该领域的不同观点中获取一系列定义,而这些观点大部分是在主流AI产品中鲜少被提及的。

如果你用Google搜索“人工智能”,或者直接问Alexa,它们通常会直接从维基百科中给你定义,而维基百科有自己的性别偏见。再比如,F’xa对“女性主义”的定义是,“女性主义对不同的人来说意味着不同的东西。”面对同样的问题,Siri则会直接从Google搜索中拉出一系列定义。

简言之,在确保多样性视角的同时,F’xa的团队以一种微妙的方式将自身潜在的交叉性和女性主义哲学融入到这个聊天机器人中。

女性主义的Alexa——一种新的想象

目前,大部分数字助手都可以完成一系列日常任务。在做饭、看电视等想要一心多用的时候,用户可以通过“OK Google”或“Hi Siri”之类的唤醒词来发布任务。数字助手扮演着秘书的角色,在家里完成那些枯燥但必要的事情。除此之外,Amazon的Echo Look还添加了一个新功能,它可以通过内置摄像头来评价用户的穿搭,像一位密友一样和用户一起购物。

如前所述,这些数字助手的声音舒缓、女性化,且不具威胁性,因为这样就能减轻用户对人工智能或虚拟助手这类产品的焦虑。据估计,美国有超过 1500 万的家庭拥有 3 个以上智能音箱。这些设备进入人们的家里,扩张着自己的影响力,它们不停地收集数据,越来越深地进入人们的私人领域。Alexa的最终目的是双向的——既有利于用户,也有利于生产者。一方面,它帮助用户完成日常工作;另一方面,它鼓励用户购物,同时向Amazon提供关于用户喜恶的信息。

就算Alexa能换一种声音说话,或换一个脚本“人设”,它也并不是基于女性主义原则创造的——而这正是问题所在。近几年的新闻已经表明,作为一款与物联网技术相关的产品,Alexa有可能会助长家庭暴力和跟踪等罪行。那么,在设计这些产品时,有没有可能不再那么关注消费、数据收集和监视等问题?设计师们能不能将产品的主题和功能转向集体利好的方向?

“我们从去年开始举办了一个研讨会,讨论女性主义的Alexa应该是什么样的,”The Feminist Internet的联合创始人Charlotte Webb博士说,“Alexa是面向家庭空间的,它的角色也与这一空间息息相关。而我们在做的事情,就是重新定位它。”

研讨会上,学生们最终为语音助手提出了一系列新的想法。例如,有一个名为B(O)(O)的设计,旨在为用户提供一片安全天地,去问一些日常生活中因尴尬而不好对父母或朋友开口的问题,比如因毛发问题而感到不舒服等。还有一款名为Egami的设计,旨在帮助用户对自己的形象建立起自信,让他们变得更轻松和开放。

AI语音助手一定要像人吗?

“如果你问一个语音助手它是不是人类,它会强烈否认,但它同时会告诉你如果它是人,或拥有人类的身体,它会有哪些偏好或爱好。”来自德国莱比锡的前端开发者Alexa Steinbrück说,她研究语音助手,并从事计算机创造相关工作,“我认为拟人化和伪人性只是一种叙事技巧,只是包裹在技术外的一层外壳而已。问题在于,我们真的需要这样的叙事和外壳吗?”

Steinbrück一直在探索如何解构这种将人工智能与人类智能同步的叙事。她并不关注如何在人工智能中融入女性主义原则,她想问的问题是,在最开始,我们为什么要赋予技术某种性别,或是人格?

“性别或人格并不是人工智能系统中自然出现的东西,”Steinbrück表示,“它们是基于市场需求、性别偏见和普遍存在的对于人工智能不切实际的叙事而被刻意创造出来的。”

她将语音助手的拟人化比作拟真设计(skeuomorphism):两者都将产品包装成模仿某种机制的样子,从而隐藏了它们潜在的逻辑。“就语音助手而言,它就是在模仿真人。”

*拟真设计(skeuomorphism),也叫拟物化设计,指的是一个产品的设计元素模仿了某个原创产品的设计元素,但并不具备原来的功能,只是满足设计上的需要。例如iBook的木质书架、照相软件模拟机械相机快门的喀嚓声等。

目前,拟人化的语音助手已经让技术专家们面临新的道德困境:当他们创造出逼真的类人化声音时,可能会让人们以为自己是在和真人说话。Steinbrück因此建议人们关注产品的“raw-AI-ness”,“不要模糊人类和机器的界限,机器学习所支持的技术自有其独特能力与局限性……避免在语言输出中使用第一人称代词……开发一种新的独特的声音,保证悦耳性的同时,将它们与人类声音区分开来。”

在解构将人工智能与人类智能同步的叙事之后,Steinbrück鼓励参与者们去想象语音助手的另一种形态——除了拟人化之外的形态。在近期于伦敦举行的Mozfest(聚焦互联网与科技的全球活动)上,有一支团队就提出了把AI语音助手做成一座山的形态的想法。

“你可能会说,但这也不是原始的人工智能,它也是包裹在技术之外的叙事,”Steinbrück说,“但我认为这种叙事是不一样的,因为它离真相已经足够远了,它是一种有意识的、有趣的万物有灵论。我们当然知道自己不是在跟一座山说话,但我们可以进行这样的想象。市场上已经出现了一些非人类的语音助手,例如中国已经有了拟猫的智能音箱,可以发出卡通化的声音来回答用户的问题。”

“人工智能越来越深入我们的日常生活,公众对这个领域的了解也越来越多,AI的人格化是个噱头,是装着廉价把戏的怪异包袱,我希望我们最终能摆脱它。”Steinbrück表示。

最后,让我们回到问题的原点,如果我们想要摆脱 20 世纪的刻板性别规范,那么我们首先就需要摆脱 20 世纪那种对科技的狭隘想象——不再将机器人设计成拥有女性身体、穿着围裙、温顺而听话的模样。

除消费以外,人工智能、语音技术能否在我们的生活中扮演别的角色?它们能否带领我们去了解世界的复杂与多样,就像Q一样?又或者,它们能否真正成为我们的伙伴,以山峰那样富有诗意的形式出现?这些问题尚无答案,然而值得思考,值得期待。

image.png

网友热搜:

  • 相关推荐
  • 大家在看
  • 参与评论
文明上网理性发言,请遵守新闻评论服务协议
  • 热门标签