人工智能的性别化,是利大于弊还是弊大于利?( 二 )


男性AI , 要像个超人硬汉 。
性别偏见 , 是不是只规训女性AI呢?并不是 。其实 , 被设计为男性的智能助理或机器人 , 同样逃不开陈旧的性别规范 。
比如他们往往更具备攻击性 。早在1968年的电影《2001年:太空漫游》中 , 空间站里就有一个叫“哈尔”的男性数字助理 , 它的智力水平与人类不相上下 , 也很坏 , 经典台词是“我很抱歉 , 我恐怕我不能那么做” 。最后 , 这个“坏AI”被关机杀死了 。
人工智能的性别化,是利大于弊还是弊大于利?
文章图片

文章图片

将成功和权威与男性气质捆绑在一起 。2011年 , IBM的沃森电脑在小游戏中击败人类冠军 , 它的声音就是男性的 。而对于一些需要做出决策、判断的AI算法 , 往往也会采用男性声音 , 因为听起来显得更权威、更值得信任 。日本经纪公司的呼叫中心就会使用自动化的女性声音来提供股票报价 , 但使用男性声音来促进和确认交易 。
人工智能的性别化,是利大于弊还是弊大于利?
文章图片

文章图片

哦对了 , 男性机器人也需要高大威猛健壮 。切尔西足球俱乐部在英超比赛中引入了机器人裁判 , 帮助跟踪越位 。它被设计得比人类男性还要高大、健壮 。
或许你会觉得 , 这不是对男性气质的肯定、夸奖和发扬光大吗?但需要注意的是 , 男性群体也是多样化的 , 难道不够成功、不够高大、性格柔和 , 就不配做男人了吗?有许多男性在幼年时 , 曾因为“不像男人”、娘娘腔而被霸凌过 。
性别偏见 , 束缚的其实是所有人的自由选择 。而试想一下 , 当这些规范被引入到人工智能当中 , 需要家庭女仆 , 就制造出女性外表的机器人 , 而男性机器人被默认承担所有繁重的工作——与这些机器人一起工作的、有血有肉的人类 , 内心会做何感想?
AI性别化:无伤大雅 , 抑或不归之路
那么 , AI性别化 , 到底有没有必要呢?是不是直接一笼统都搞无性别声音、动物造型机器人 , 万一就是有人喜欢有性别的语音助理或机器人呢?
必须说明 , 很早就有人机交互专家在研究性别机器了 。事实上 , AI一开始走上性别化的道路也是不可避免的 。
一方面 , 大多数语音助手的声音都是通过TTS技术合成的 , 由于语音技术开发非常困难 , 女性人声的音高比较高 , 更适合来训练模型 , 所以开发的早期阶段 , 几乎所有语音助手都被投射为单一的女性声音和性别 。随着技术的发展 , 以及数据库的丰富 , 慢慢地声音种类也丰富起来 , 这也是AI科技企业技术能力的体现 , 比如Siri花了近两年时间才有了男性声音选项 , 谷歌助理花了一年时间 , 而Cortana和Alexa在存在了四年多之后仍然只有女性声音 。
人工智能的性别化,是利大于弊还是弊大于利?
文章图片

文章图片

另外 , 就是单纯的用户心理和商业考量 , 并不是故意想把女性AI安排成完美助手 。很多研究都证明 , 女性机器人被认为比男性机器人更加仁慈、温暖 , 人们更喜欢跟女性助理、女性机器人互动 。亚马逊的一位员工就曾告诉媒体 , 公司的研究发现 , 女性的声音更有同情心和愉悦感 , 这使得拥有女性声音的智能设备更有可能被用来寻求帮助 , 更容易被选购 。
软件服务如此 , 女性化的智能硬件就更受欢迎 。
2009年 , 华盛顿大学的社会科学研究员朱莉·卡彭特(JulieCarpenter)要求19名学生观看两个机器人的视频 , 结果显示 , 女性化机器人更让人感觉被吸引 , 因此互动性更高 。面对男性机器人 , 有学生表示“如果它是一个男性机器人和男性设计 , 那么就存在一个安全问题 , 我得尽可能地保护自己” 。因此 , 将一些医疗看护机器人设计成女性 , 也是为了让患者及其家人放心 。这毫无疑问是一个符合人性的设计 。