性别歧视这东西,连 AI 都逃不过 | 谈论爱情的时候,请把Siri设置成女声

昨天上午,朋友给我发来一个链接,说:“作为一个社恐,你一定很需要这个。”

 

我打开一看,是谷歌 I/O 大会上演示用谷歌助手打电话的视频。AI 不光能和客服顺利沟通,甚至会模仿人类使用语气助词,总之,比我打电话的表现好多了。

 

【谷歌发布会视频】
 

 

很多人说:“谷歌的 AI 真厉害,接电话的人都没发现这是个 AI!”

 

但是我要说:其实很多时候,就算知道对方是AI,我们也会把它当人看的。

 

 

 

我们不愿意对电脑说它的坏话

 

当外卖小哥准时把外卖送到,请求给个五星好评的时候,我们一般不会拒绝;那么,如果一个 AI 跟你要好评,你会如何反应?

 

斯坦福大学的两位教授 Byron Reeves 和 Clifford Nass(这两位接下来还会出场)就做过这么一个实验:让被试用电脑学习一些小知识,随后要求他们对电脑的性能和使用体验作出评价,其中一半人需要在同一台电脑上完成反馈问卷,另一半人用的是房间里的另一台电脑。

 

实验发现,在同一台电脑上完成反馈问卷的人对电脑作出了更加积极的评价。更有意思的是,当研究人员把这个结论告诉被试的时候,所有人都十分自信地反驳他们:“我不是,我没有,不可能。”

 

谁都不相信自己会对一台电脑产生好感,因此研究人员总结,人类对媒介的反应是无意识的、自发的[1]。

 

这个研究是 90 年代进行的,如今面对 app 上的各种卖萌文案,许多人早已免疫,果断选择“残忍拒绝”。但是,当你特意去给自己喜欢的游戏写好评的时候,是否也在不自觉地遵循着人类的礼尚往来呢?

 

 

 

我们还觉得男性化的 AI 更权威

 

技术本身是无性别的,然而我们连对 AI 的性别刻板印象都和对人类一样。

 

印第安纳大学的一项研究测试了人们对合成语音的反应,发现无论男女都认为女性化的语音听起来更温暖。这或许可以说明为什么大多数智能语音助手的设定都是女性,比如微软的小冰和小娜,还有苹果的 Siri 的默认设置——它们的定位都是为用户提供助理式的服务。

 

一个男性化的 AI 会让人感觉更权威。卡内基梅隆大学的研究人员发现,当机器人的声音更低沉、下巴更短的时候,也就是更加男性化的时候,被试全部采纳了它提出的建议;而如果机器人有一个长下巴,或者声音听起来更尖细,那么只有 91% 的被试会采纳它的建议[3]。

 

 

Nass 教授(又是他)等人总结了人们对待 AI 的三种性别刻板印象:

 

第一,人们认为男性 AI 作出的评价比女性 AI 更准确,这部分是因为人们在和男性 AI 互动的时候更专注;

 

第二,表现强势的男性 AI 会被认为是自信、独立的,而表现强势的女性 AI 会遭到人们的反感;

 

第三,AI 在谈论“符合它的性别”的话题时显得更加可靠,用户更喜欢让男性语音提供电脑操作建议,让女性语音提供情感和约会建议[4]。

 

非常扎心了。

 

 

那,跟 AI 谈恋爱靠谱吗?

 

Reeves 和 Nass(对,还是这两位)提出了媒体等同理论,它有两层含义:一是我们会将媒体所呈现的内容当真,二是我们跟媒体互动的方式与跟人互动的方式一样。

 

 

实际上,我们不光对 AI 礼尚往来,对它抱着性别偏见,和虚拟角色谈恋爱这件事更是早就开始了。想想大家的老婆新垣结衣、大家的老公吴彦祖,还有超人气虚拟偶像初音未来——爱一个 AI 和追星好像也没有太大区别,说不定互动还能多一些。

 

我们和偶像明星、虚拟角色之间,存在着一种“拟社会关系”,它既能带来真实社交的种种体验,又杜绝了被拒绝的风险,关系的主动权几乎完全掌握在你的手中。

 

演化的速度太慢,而技术的进步太快。我们的大脑还没来得及发展出一套专门应对 AI 的机制,AI 却正在迅速适应人类:今天 AI 能为你预约 Tony 老师,明天它就能帮你打电话分手,后天它就能跟你谈恋爱——或者替你和你喜欢的人谈恋爱。

 

如果将来真的出现像《她》中的萨曼莎那样的完美情人,你是期待多一些,还是担心多一些?

 

 

参考文献:

[1] Reeves, B., & Nass, C. I. (1996). The media equation: How people treat computers, television, and new media like real people and places. Chicago, IL, US: Center for the Study of Language and Information; New York, NY, US: Cambridge University Press.

[2] Mitchell, W. J., Ho, C. C., Patel, H., & Macdorman, K. F. (2011). Does social desirability bias favor humans? explicit–implicit evaluations of synthesized speech support a new hci model of impression management. Computers in Human Behavior, 27(1), 402-412.

[3] Powers, A., & Kiesler, S. (2006). The advisor robot: tracing people's mental model from a robot's physical attributes. ACM Sigchi/sigart Conference on Human-Robot Interaction (Vol.2006, pp.218-225). ACM.

[4] Nass, C., Moon, Y., & Green, N. (1997). Are machines gender neutral? Gender-stereotypic responses to computers with voices. Journal of Applied Social Psychology, 27(10), 864-876.

 

 

Read more:

吴亦凡和抖森,你们伤透了我的心|我与偶像的“拟社会关系”

与世界上8316人,共享一个完美的爱人|《她》

她的话一直被无视,直到他“父述”了一遍

 

2018年05月14日