IT思维

文章页右侧顶部广告

让我们谈谈性别歧视:为什么很多语音助手都是女性声音?

人工智能会让我们产生性别歧视吗?

超级计算机工程师正在努力突破计算机智能领域的极限,但是他们所创造出的人工智能已经潜在地加深了早已过时的性别规范。虽然他们推动了技术的发展,但这种发展却是以社会文明倒退为代价的。

最显著的一个事实是世界顶级超级计算机IBM沃森拥有一个男性的名字和声音,但是几乎所有的虚拟助手却有着女性名字和声音,比如Siri、Alexa、Cortana。这一现象常常被归因于市场营销策略。

Clinc金融软件公司的首席执行官杰森玛斯在接受纽约时报采访时表示,他给自己的人工智能助理设置成为一个“乐于助人的年轻白人女性”的声音,因为为了在商业上取得成功,“有一种压力促使你去符合大众世俗的规范。”另一个观点是,坦福大学教授Clifford Nass在2011年接受美国有线新闻网采访时表示:“这是一种根深蒂固的现象,人类的大脑更喜欢女性的声音。”

然而,这一理由并不充分,习惯或条件反射并不能作为道德操守的衡量标准。从种族方面而言,人工智能助手的声音听起来更像是墨西哥或黑人的声音,因为在历史的大部分时间里,这些群体一般都是从事服务他人的工作,而不是那些拥有强大权利的工作。

极具开创精神的女权主义哲学家朱迪思·巴特勒认为:男性和女性生理构造上的不同并不会导致他们行为方式的不同。数千年的社会演变,产生了在当时的社会条件下看起来正常的性别规范,比如女性应该穿裙子而男性应该穿西装。

纳斯在他的书中强调,男性的声音通常被认为是权威性的和主导的,而女性则与善意地帮助人们得出他们自己的结论有关。究其原因,巴特勒认为这是因为父权社会的长期支配地位已经将一个偶然变成了一个真理一样的存在。

这是一个微妙的条件反射。

最根本的问题是,科技与我们的生活息息相关,在我们的潜意识中扮演着越来越重要的角色。所以当我们习惯人工智能助手使用女性的声音时,我们就会不自觉产生一种刻板印象,即女性的地位较男性来说更为低下。

虽然虚拟助手采用女性声音会带来更大的销量或者让人们觉着更加的舒适,但这并不意味着它是正确的。为了挑战陈旧的权力结构,我们必须挑战他们施加给我们的生活方式。对于改变将女性直接默认成为是服务他人的角色这一刻板印象,改变人工智能助手的名字和声音是非常重要的。

也许更糟糕的是,这些人工智能不仅是在这方面上存在性别歧视,很可能整个系统也存在性别歧视。编程是一种语言,就像任何语言一样,它需要定义。但这些定义中却含有根深蒂固的偏见、比重和微妙的权力结构,甚至连程序员自己可能都没有意识到。因此,如果人工智能程序设定已经带有歧视含义,不管这些设定是有意的还是无意的,人工智能本身就会产生歧视性。

凯特克劳福德在《纽约时报》上撰文,总结了一种人工智能图像识别现象:

工程师们选择一些图像,从而输入程序,系统则会根据这些图像构建一个世界模型。如果系统在编程时是基于一个白人的图像,那么对于此系统来说,识别非白人面孔将会非常困难。

一个真实的例子是谷歌的图片应用把黑人归类为大猩猩。这非常令人担忧,因为硅谷的大部分人,以及整个科技界,都是由白人中产阶级男性组成的。更可怕的是,这种现象可能会导致人工智能受到压迫甚至开始倒退。轻点说,这可能意味着人工智能将会因为创造者缺乏多样性面临缩小规模。这必须通过雇佣更多的女性未来学家、技术人员和研究人员来加以纠正。

我们赋予技术太多权利,甚至赋予了其改变我们认知的重要能力。我们为此付出的代价便是我们必须非常小心。因为了解了拟人化及程序设定的潜在后果及其可能精妙地改变我们的认知。

我们必须注意的是:在智能助手中使用女性声音并不是导致性别刻板印象和性别压迫的直接原因。一些公司可能会明智地效仿谷歌助手的做法,这是朝着性别中立迈出的一步。此外,移除人工智能助手的人性化,编程人员只能够影响我们与技术互动的方式,而不会通过潜在的性别歧视,影响我们同他人的互动方式。

选自:Futurism

翻译:网易见外智能编译机器人  审校:杨旭

网易智能

网易智能(公众号 smartman163),定位人工智能等前沿科技领域的垂直媒体及产品服务平台,面向人工智能等领域的从业者和关注者。运营栏目包括大型策划栏目《AI英雄》,行业研究与分析栏目《AI研究院》等,提供原生内容、新闻策划、数据报告、产品评测等服务。

发表留言

Return to Top ▲Return to Top ▲