联合国的一项研究显示,亚马逊Alexa,Apple Siri,微软Cortana和Google Home之类的语音助手正在帮助增强和传播性别歧视。
联合国教科文组织的研究标题很奇怪:“如果可以的话,我会脸红” (这是 Apple Siri 在收到暗示她是妓女时给出的自鸣得意的反应)断言,此类软件即使在受到虐待时也会延续女性奴性和顺从的刻板印象。
“事实上,大多数语音助手都是女性声音,并且被认为是女性化的,这一事实传递了一种错误的信息,即女性是一个温顺的助手,只需一个简单的按钮或一个“嘿”就可以随时使用。”
“助手对所发出的命令没有绝对的权力。无论提出的语气或敌意如何,都要履行承诺并满足要求。”
语音助手被认为特别令人担忧的趋势 “转移、忽视或给出和解的答案” 当受到侮辱时,应增强人们对妇女遭受虐待和骚扰的信念。
“像苹果和亚马逊这样的公司主要由男性工程师团队组成,他们创建了人工智能系统,将语音助手转变为女性实体,通过被动和顺从的调情来处理虐待行为,” 报告继续。
联合国教科文组织的研究表明,应该对数字助理进行编程,以阻止性别歧视, 公司应该停止在基地为它们配备女性声音,并无论如何在这些设备提供的人工智能的各种表现形式中提供不同的女性代表。
给出默认的女性声音的选择是技术巨头进行的市场研究的结果,但是该研究通过争论大多数人更喜欢异性的声音(不一定是女性)来驳斥这些结论。