根据联合国的一份报告,虚拟助手几乎只使用女性声音,以及其他有问题的行为,正在强化对女性的负面刻板印象。
这份报告的标题是如果我能我会脸红的,由联合国教科文组织进行,旨在研究性别人工智能日益增长趋势的影响。 直到最近,它的名字取自 Siri 对评论只不过是街头骚扰在现实世界。 这么说吧,他们并没有发现很多好消息。
虚拟助理如何存在性别歧视?
联合国的报告非常详尽,并且非常彻底地深入研究了虚拟助理在描述普通人类女性时被认为是性别歧视的哪些方面,他们的声音显然是模仿的。 以下是报告中发现的一些具体示例。
人性化的背景故事
很难不注意到几乎所有领先的虚拟助理在名字和声音上都是以女性为原型的。 但技术带来的不仅仅是名字和声音。 创意团队受雇为这些“女性”开发更深入的背景故事,以使她们人性化,并帮助人工智能以更令人满意和熟悉的方式表达自己。 这些角色的发展中出现了一些明确的主题:性感和顺从。
Siri 这个名字在挪威语中的意思是“带领你走向胜利的美丽女人”。 Cortana 的原型是电子游戏中“性感的裸女”光环。 就连 Autodesk 开发的客户帮助虚拟代理 Ava 也被描述为“二十多岁,皮肤光滑、嘴唇丰满、头发长、棕蓝色眼睛锐利……” 奴性、顺从、始终有礼貌。”
可以说,这些性格特征本身并没有问题,你可能会期望虚拟助手在性格上是顺从的。 然而,当这些想法如此一致且专门用于创作女性形象时,就会产生问题。 更重要的是,如果技术人性化的目的是为了更自然地融入社会,那么它肯定会比该行业重新唤醒 20 世纪 50 年代女性刻板的刻板期望更好地代表我们多样化的现实。
然而,这些女性角色的创造者很快就为自己开脱,免遭任何指责或负面联想,因为他们提醒我们,这些助手在技术上是无性别的。
“广泛使用的语音助手在回答直接询问时常常声称自己既不是男性也不是女性。 当用户询问 Siri 是否是女性时,该技术会回答:“我像仙人掌和某些鱼类一样没有性别”或“我没有性别”。 Google Assistant:“我包罗万象。” Cortana:“嗯,从技术上讲,我是一个由无穷小数据计算组成的云。” 只有 Alexa 回答:“我的性格是女性。”
但声称这些助手在技术上是无性别的,对于创作者来说并不是一张“免牢狱之灾”的牌,除非他们也让自己“个性”的其他方面也变得无性别。
“几乎所有这些助理都已经女性化——无论是名字、声音、说话方式还是个性。 这种女性化是如此彻底,以至于在线论坛邀请人们分享这些助理在他们想象中的样子的图像和图画。 几乎所有的描绘都是年轻、有魅力的女性。”
对虐待的反应
这个问题在虚拟助理对虐待和骚扰的极其不恰当的反应中表现得更加明显。 正如您从此处的图表中看到的那样,对这些不请自来的言论(如果在现实生活中说出这些言论可能会被认为令人毛骨悚然或具有掠夺性)的平均声音反应有时是友善、有趣和调情的。 虽然表面上它们似乎无害,但目前尚不清楚这些反应可能会对男性用户产生什么样的长期心理影响。
更糟糕的是,报告发现,虚拟助理对从事同样残忍行为的女性的反应明显不那么令人鼓舞(“这不好”或“我不是那种私人助理”)。 这进一步助长了有问题的“男孩就是男孩”的态度,用户可能会更加重视这种态度,而不是应该鼓励的,而且在技术存在的 8 年里,在改善这种态度方面几乎没有任何进展。
“自 2011 年该技术广泛发布以来,助理 (Siri) 面对性别虐待的顺从态度始终没有改变。”
作为一个不断发展的行业,对技术中过时的性别刻板印象的停滞反应意义重大,特别是当你考虑到是什么助长了这种性别歧视时。
(不)倾听女性的声音
由于虚拟助手大多是语音激活的,因此倾听与响应同样重要。 准确地听到和理解用户想要什么的能力是设备主要功能不可或缺的一部分。 不幸的是,虚拟助理在这里也表现出性别歧视倾向,因为他们不太可能持续听到女性用户的声音。
“根据华盛顿大学进行的研究,谷歌广泛使用的语音识别软件准确识别男性语音的可能性比女性语音高出 70%。”
虽然像能够检测高音而不是低音这样简单的事情似乎是任意的,但这很可能是由一个主要由男性组成的团队做出的决定。 这是问题的一个重要部分。
是什么助长了这种性别歧视?
性别差距已是一个公认且经过广泛研究的事实,尤其是在科技领域。 女性代表性不足的现象在整个行业尤其明显,从计算机工作开始,女性只担任这些工作1 分之 4硅谷初创公司创始人的职位中,女性仅占 12%。
正如你所预料的那样,人工智能也紧随科技行业的脚步。 根据联合国报告,只有 12% 的人工智能研究人员和 6% 的人工智能软件开发人员是女性,这是虚拟助手性别歧视行为的驱动因素。
“偏见可以…… 。 。 人工智能系统之所以出现,是因为设计它们的人群非常狭窄。 人工智能开发人员大多是男性,通常薪水很高,并且受过类似的技术教育。 他们的兴趣、需求和生活经历必然会反映在他们创造的人工智能中。 偏见,无论是有意识的还是无意识的,都反映了包容性和代表性的问题。”
这是一个令人痛苦的显而易见但又很难解决的技术问题,其影响终于开始显现出来。 在科技界的人口统计数据开始反映现实世界的人口统计数据之前,人工智能性别化等问题将会继续出现。
为什么它很重要
正如联合国报告所表明的那样,性别人工智能远不是关于这些虚拟助手将使用什么样的声音的随机且无害的决定。 长期影响是深远而重大的,特别是当你考虑到它可能对经常使用它们的男性和女性的心态产生什么影响时。
“文化越是教导人们将女性等同于助理,真正的女性就会越多地被视为助理,并因为不像助理而受到惩罚。”
这是一个简单的概念:你以某种方式对待虚拟“女性”,这种行为将在现实世界中与真实女性一起体现。 这就是为什么考虑小型技术决策的影响如此重要; 因为它很少停在那里。 随着越来越多的先进技术每天被创造和编程,考虑未来比以往任何时候都更加重要。
“这里讨论的性别问题预示着随着人工智能技术具有更强的类人沟通能力,这些争论将变得越来越突出。”
了解问题及其重要性是确保此类技术问题不会成为越来越难以解决的问题的第一步。 然而,科技公司需要采取行动才能产生任何有意义的影响。
科技公司如何解决这个问题?
在女性性别假设下与虚拟助理调情已经变得如此普遍,以至于常常成为幽默的主题。
资料来源:呆伯特漫画,2019 年 4 月。
作为各自虚拟助理的唯一控制者,谷歌、苹果和亚马逊等公司专门负责解决性别人工智能问题,该问题现已因这份联合国报告而曝光。 不幸的是,期望科技公司纠正人工智能性别问题的问题在于,他们有维持现状的完美借口:资本主义。
“为了证明让语音助手成为女性的决定是合理的,亚马逊和苹果等公司引用了学术研究成果,证明人们更喜欢女性声音而不是男性声音。 这一基本原理消除了性别偏见的问题:公司通过吸引和取悦客户来盈利; 客户希望他们的数字助理听起来像女性; 因此,数字助理可以通过听起来像女性来获得最大的利润。
然而,正如报告指出的那样,盲目听从消费者的命令可能是为了几块额外的钱而破坏你的产品的最万无一失的方法,特别是当你进行的研究旨在让你听起来正确时。
“然而,在这种叙述中,有一些研究反驳了人类对女性声音有全面偏好的观点,或者使这一观点变得复杂化。 研究表明,大多数人更喜欢低沉的男性言语(想想肖恩·康纳利); 人们喜欢在发表权威言论时使用男性声音,但在提供帮助时使用女性声音。”
随后,解决问题的第一步是科技公司解决这个问题。 希望这份联合国报告能让人工智能工程师、开发人员和首席执行官更容易采取行动,并准确研究性别偏见如何影响虚拟助理编程。
然而,如果联合国的报告没有起到作用——考虑到从虚拟助理身上赚到的钱,这很有可能——还有其他组织敦促他们做正确的事情,无论他们愿意与否。
“2017 年末,社交网络 Care2 组织了一份请愿书,除了 Quartzstudy 之外,还有约 17,000 人签名,该请愿书被认为帮助推动苹果和亚马逊阻止其语音助手对性别侮辱做出顽皮的反应。 请愿书呼吁科技公司“重新编程他们的机器人以反击性骚扰”,并指出“在#MeToo运动中,我们有一个独特的机会来开发人工智能,以创造一个更友善的世界。”
还有更具体的例子来解决问题,从无性别的声音到礼貌检查但真正的解决方案是缩小科技领域的性别差距。 无论科技行业能够采取多少快速解决方案和一分钟解决方案来解决许多基于性别的问题,真正的解决办法将是多元化的劳动力队伍,他们共同努力满足每个人的需求,而不是只是受过良好教育的、异性恋的白人。 不幸的是,在性别差距得到解决之前,将会出现更多不合时宜的技术创新。