智能家居

联合国:人工智能语音助手助长了女性“卑躬屈膝”的刻板印象

2019年05月24日     千家网

[导读]联合国的一份报告称,像Alexa和Siri这样的人工智能语音助手助长了女性“顺从”的刻板印象。

  原标题:SOCIETYUN: AI voice assistants fuel stereotype women are ‘subservient’

  联合国的一份报告称,像Alexa和Siri这样的人工智能语音助手助长了女性“顺从”的刻板印象。

  这份146页的报告由联合国教科文组织(UNESCO)发布,题为《如果我能,我会脸红》(I 'd if I could)。报告强调,这个市场由女性语音助理主导。

  据研究人员称,女性语音助手几乎是独家使用,这助长了人们对女性“乐于助人、温顺、乐于取悦他人”的刻板印象。

  研究人员还认为,缺乏与当前虚拟助理交谈所需的习惯也是一个问题。他们声称,虚拟助理无论如何都会回应请求,这一事实强化了这样一种观念:在某些社区,女性是“顺从和容忍恶劣待遇的”。

  类似地,虚拟助理只需“轻触按钮或发出‘嘿’或‘好’等生硬的语音命令”,就能被召唤,这让虚拟助理看起来像是随时待命的女性。

  大多数虚拟助理默认使用女性声音,但提供男性选项。亚马逊(Amazon)和苹果(Apple)等科技巨头过去曾表示,消费者更喜欢女性声音作为他们的助手,亚马逊的一位发言人最近将这些声音归因于更具“同情心和愉悦感”的特征。

  报告强调,虚拟助理主要由男性工程团队创建。一些案例甚至发现,助理“感谢用户的性骚扰”,男性用户的性侵犯行为比女性用户更容易被容忍。

  研究发现,Siri会对男性用户的“性偏好做出挑衅性的回应”,比如:“如果我能做到,我会脸红的。”,但不会对女性这么做。

  该报告称,女性语音助手缺乏抵御性别歧视和敌意侮辱的能力,“可能会凸显出她的无能为力”。这种编码“投射出一种数字加密的‘男孩就是男孩’态度”,“可能有助于偏见的形成和传播”。

  为了帮助解决这个问题,联合国认为应该使用中性和非人类的声音。研究人员以斯蒂芬·霍金著名的机器人声音为例。

  Alexa、谷歌Assistant和Cortana都默认使用女性声音。Siri在阿拉伯语、英式英语、荷兰语和法语中使用男性语音。

  编译:qianjia.com

  原文:

  https://www.artificialintelligence-news.com/2019/05/22/un-ai-voice-assistants-stereotype-women/

声明:凡注明为其它来源的信息均转自其它平台,目的在于传递更多信息,并不代表本站观点及立场和对其真实性负责。若有侵权或异议请联系我们删除。

千家智客微信公众号

扫描下方二维码,关注千家智客微信公众号(qianjiacom),随时随地知晓智能行业天下事!

编辑:J

相关推荐

100/100字符

全部评论(0)

智能化供应商名录及案例

智能化供应商名录及案例

千家智客客户端 智能化供应商名录及案例

帮助你选择更加靠谱的供应商!

相关资讯