微信
关注官方微信
手机版
华夏小康网  >  动态 > 正文

好人在网上也会变坏,改善网络社交环境还得靠 AI?

 

未来,智能机器人或许可以帮助净化社交平台的环境。

人类的进化根源来自合作,多项研究也表明,人的本性是趋向互相信任的,但一到网络平台上,谩骂、攻击行为就变得突出。科学家们正在进行一项研究,未来,智能机器人或许可以帮助净化社交平台的环境。本文编译自英国独立报原题为“Why good people turn bad online – and how to defeat your inner troll”的文章。

好人在网上也会变坏,改善网络社交环境还得靠 AI?

有强有力的证据表明,女性和少数民族群体成为Twitter上遭受谩骂较多的对象(© Derek Brahney / Mosaic)

2月17日晚上,玛丽·比尔德(Mary Beard)教授在Twitter上发布了一张自己哭泣的照片,她是剑桥大学著名的古典主义者,在Twitter上拥有近20万粉丝,她因网上遭到的围攻感到心烦意乱,仅仅因为她对海地发表一些评论。她还发推文:“我发表的意见是发自内心的(当然,我可能是错的),但得到的回应不应该是这样的。“

接下来的日子里,比尔德获得了几位知名人士的支持。著名历史学家格雷格·詹纳(Greg Jenner)发推文介绍了自己经历的Twitter围攻风暴:“我永远记得突然被陌生人憎恨是多么痛苦的事。道德上就不作评价了,但后来当我恢复过来时,我很吃惊这对我的内心造成的不稳定影响,尽管我可能是错的,也有可能是对的。”

那些在推特上支持比尔德的人也成了被攻击的目标,不管他们是否支持她引发辱骂的观点。当比尔德的批评者之一,剑桥大学学者戈帕尔(Priyamvada Gopal),一位具有亚洲血统的女性,在网上的一篇文章中回应比尔德的原推文时,也遭受了谩骂。

有强有力的证据表明,女性和少数民族群体成为Twitter上遭受谩骂较多的对象,而当这些身份有重合时,欺辱行为就会变得尤为强烈,就像黑人女性议员黛安•阿博特(Diane Abbott)所经历的那样,在2017年大选前,Twiiter上有一半辱骂女性议员的帖子是在骂她。即使将阿博特排除在总数之外,黑人和亚裔女性议员也平均比白人女性议员多收到35%的辱骂性推文。

谩骂正在使人们变得沉默,包括死亡威胁、性暴力威胁,这些网络暴力迫使被骂者离开网络平台,进而减少网络声音和意见的多样性,这种情况并没有好转。去年进行的一项调查发现,40%的美国成年人遭受过网络谩骂,其中近一半的人受到过严重的骚扰,包括人身威胁和跟踪,70%的女性声称网络骚扰是“主要问题”。

社交媒体平台(如YouTube和Facebook)的商业模式鼓励那些更有可能得到其他用户响应的内容,因为更多的参与意味着更好的广告机会,但这有助于促成分裂的、强烈的情绪或极端内容,这反过来又培养了与彼此意见一致的网络团体“泡泡”,有助于推动更极端的内容的传播,并为“虚假新闻”提供市场。近几个月来,研究表明,包括俄罗斯在内的各种既得利益集团,也试图通过多种方式渗透社交媒体泡泡来操纵舆论。

我们通过人际网络传播思想的能力使我们能够建立现代世界,互联网为全人类提供了无与伦比的合作与交流的希望,但是我们并没有在网络上广泛推广我们的社交圈,相反我们似乎正在恢复部落主义和冲突。相信互联网有潜力把人类团结在一个辉煌的合作网络中的想法,现在看来开始显得幼稚了。虽然我们通常会礼貌地、恭敬地与陌生人进行现实生活中的互动,但在网上我们可能会变得很可怕。如何才能重新学习合作技巧,使我们能够找到彼此的共同点,一起走向繁荣昌盛呢?

一、性本善?人类的进化根源来自合作

好人在网上也会变坏,改善网络社交环境还得靠 AI?

带有道德和情感词汇的信息更有可能在社交媒体上传播(© Derek Brahney/Mosaic)

我点击了一个数字,自己的分数一下子变得很低,然后我快速地转到下一个问题,意识到我们都在和时间赛跑。我的队友们离我很远,对我来说也是未知的,我不知道我们是否都在一起,也不知道我是不是被当成傻子,但我继续前进,因为我知道其他人都依赖我。

我正在耶鲁大学的人类合作实验室玩一个被称为“公共物品博弈”的小游戏,研究人员用这个游戏来帮助我们理解我们是如何和为什么合作的,以及我们是否能够加强我们的亲社会行为。

多年来,科学家们提出了各种各样的理论来解释为什么人类能如此良好地合作,从而形成强大的社会。大多数研究者现在相信,我们人性之善的进化根源在于人类群体在合作时所经历的个体生存优势。我在一个下雪的二月来到康涅狄格州的纽黑文,并参观了一组实验室,那里的研究人员正在用实验进一步探索我们对他人友好的非凡冲动,甚至我不惜牺牲自己的利益。

我在亚马逊的机械土耳其在线平台上玩的游戏是实验室正在进行的实验之一,我在一个四人的团队里,在不同的地方,我们每个人都有同样的钱去玩。我们被要求选择我们能捐给小组的金钱数量,但这时我们还知道小组的钱会翻倍,并在我们中间均分。

这种社会困境,就像其他所有的合作一样,是依赖于一定程度的信任的,相信你团队中的其他成员,往往会有比较好的结果。如果小组中的每个人都捐出他们所有的钱,那么所有的这些钱都会翻番,重新分配成四份,那每个人的钱都加倍,就能双赢!

“但如果你从个人的角度来考虑这个问题。”实验室主任大卫·兰德(David Rand)说:“你贡献的每一美元,最后变成两美元,然后再分成四份,这意味着每个人只会从你贡献的一美元中得到50美分的回报。”

尽管如此,个人还是可以通过对团队项目的贡献而受益,而这种团队项目是任何人都无法单独搞定的,比如,集体捐款建一座医院大楼,或挖掘一条社区公用的灌溉沟渠。从财务上来说,你只有更自私才能赚更多的钱。

兰德团队运营的这个游戏已经有成千上万的玩家,他们中有一半人被要求在10秒内迅速做出决定,而另一半则被要求花时间仔细考虑他们的决定。事实证明,当人们跟着自己的直觉走的时候,他们比花长时间深思熟虑的结果更慷慨。

兰德说:“有很多证据表明,合作是人类进化的核心特征。”通过与群体合作,个人能够受益并更有可能生存。能否被允许留在这个团体并从中受益,取决于我们合作行为的声誉。

“在我们的祖先所居住的小规模社会中,我们所有的互动都是在与你将在近期再见并互动的人之间的互动。”兰德说。这就抑制了任何侵略性行动或利用他人贡献的诱惑,“以一种利己的方式进行合作是有道理的。”

合作在互利的循环中孕育了更多的合作,与其每次都找出友善是否符合我们的长远利益,不如更有效率和更少的努力去制定基本的规则,即善待他人,这就是为什么我们在实验中的迅速反应是慷慨的。

在我们的一生中,我们从周围的社会中学习到如何合作,但我们的学习行为也会很快改变。

在兰德的实验中,参加迅速抉择的人大多是慷慨的,他们获得了丰厚的红利,从而增强了他们的慷慨前景。而那些考虑自己再做决定的人更自私,这也导致他们只收获了微薄的利润,这也强化一种观念,即依赖于团队是不值得的。因此,在进一步的实验中,兰德给了曾经玩过一轮游戏的人一些钱,然后他们被问到他们想给一个匿名陌生人多少钱,这一次没有奖励给予,他们会完全出于慈善行事。

结果表明有很大不同。在第一阶段习惯合作的人,在第二阶段给予的钱是习惯于自私的人的两倍。兰德说:“所以我们正在影响人们的内心生活和行为,即使他们的行为方式没有人关注也没有任何机构来惩罚或奖励他们。”

兰德的团队测试了不同国家的人们如何玩这个游戏,看看社会机构(如政府、家庭、教育和法律制度)的力量如何影响行为。在肯尼亚公共部门的腐败程度很高,与腐败程度较低的美国玩家相比,肯尼亚玩家最初对陌生人的慷慨支持较少,这表明可以依靠相对公平的社会机构的人会以更公开的方式行事,而那些制度不可靠的人则更加偏向于保护主义。然而在玩了一轮合作推广版的公益游戏后,肯尼亚人的慷慨与美国人相当。这种方式都是有利有弊的,那些被训练为自私的美国人付出的代价要小得多。

那么,网络社交媒体文化是否会让一些人表现得很刻薄呢?这与古代的狩猎采集社会不同,狩猎采集社会是依靠于合作和分享来生存,而且通常有规则规定什么时候可以通过社交网络向他们提供食物。而社交媒体的制度是薄弱的,它们提供了物理距离,相对匿名性,并且对不良行为的声誉或惩罚风险也很少,所以如果你是卑鄙的,你认识的人也都不会看到。

二、人们喜欢在网络上表达愤怒情绪

我在雪中跋涉了几个街区,找到莫莉·克罗克特(Molly Crockett)的心理实验室,在那里研究人员正在研究社会中的道德决策。他们关注的一个领域是社会情绪如何在网上转化,尤其是道德愤怒。脑成像研究表明,当人们对他们的道德愤怒采取行动时,他们的大脑奖励中心就会被激活,并且他们对此感觉良好,这就强化了他们的行为,因此他们更有可能再次以类似的方式进行干预,所以如果他们看到某人的行为违反了一种社会规范,比如允许自己的狗弄脏运动场时,他们就会公开与肇事者对质,并且之后他们会感觉很好。尽管挑战你所在社区的社会规范有风险,你可能会受到攻击,它也会提升你的声誉。

在平时相对平静的生活中,我们很少会遇到令人愤慨的行为,所以我们很少看到道德上的愤怒。打开Twitter或Facebook,你就会看到截然不同的景象,最近的研究表明,包含道德和情感两个词的信息更有可能在社交媒体上传播,推文中的每一个道德或情感词都会增加20%的转发概率。

“引发愤怒和表达愤怒的内容更有可能被分享。”克罗克特说,我们在网上创建的是“一个选择最愤怒内容的生态系统,和一个比以往任何时候都更容易表达愤怒的平台”。

与线下世界不同的是,在网上面对和暴露一个人没有任何个人风险,只要点击几下按钮,你就不用在附近了,所以网上表达的愤怒就更多了。表达愤怒的行为又哺育了愤怒本身,克罗克特说:“如果你惩罚一个违反规范的人,这会让你看起来更值得别人信任,所以你可以通过表达愤怒和惩罚违反社会规范的行为来宣扬你的道德品质。人们相信,他们是通过表达愤怒来传播善的,并且这种善是处于道德和正义。

“当你从线下转到线上时情况大有不同,在线下你只能从身边的人那里提升自己的声誉,而在线上可以广播给你的整个社交网络,那么这就极大地放大了表达愤怒的个人回报。”

人们从社交媒体上得到反馈信息,包括点赞、转发的形式等等,克罗克特解释说:“我们的设想是,这些平台的设计会把愤怒变成一种习惯,而习惯总是在不考虑后果的情况下完成的,它对接下来发生的事情不敏感,只是对刺激的盲目反应。”

好人在网上也会变坏,改善网络社交环境还得靠 AI?

社交媒体平台提供了物理距离、相对匿名性和很小的不良行为声誉风险(© Derek Brahney/Mosaic)

她补充道:“我认为值得一谈的是,作为一个社会我们是否希望我们的道德观,受到那些旨在为大型科技公司赚钱的算法的控制。我认为我们都愿意相信和感受到,我们的道德情感、想法和行为是有意的,而不是对摆在我们面前的任何东西的本能反应,我们的智能手机设计师认为这将会给他们带来最大的利润。”

有利的一面是,在网上表达愤怒的成本较低,这使得边缘化、权力较少的群体得以推动传统上难以推进的事业。社交媒体上的道德愤怒在关注高地位男性对女性的性虐待方面发挥了重要作用。在2月份,佛罗里达州的青少年们在社交媒体上对本州的另一起高中枪击案进行抨击,这有助于改变公众舆论并使许多大公司蒙羞,迫使他们放弃为国家步枪协会会员提供的折扣计划。

克罗克特说:“我认为一定有办法保持网络世界的好处,同时更仔细地考虑如何重新设计这些交互,以消除一些代价更高的部分。”

三、互动环节影响人们的行为

耶鲁大学人类自然实验室的主任尼古拉斯·克里斯塔基斯(Nicholas Christakis)认为我们在社交网络上的互动设计有很大的意义,他的实验室位于几个被雪覆盖的街区之外,他的团队正在研究我们在社交网络中的地位如何影响我们的行为,甚至某些有影响力的人如何能显著地改变整个网络的文化。

该团队正在探索如何识别这些人,并将他们纳入公共卫生计划中以造福于社区。例如,在洪都拉斯,他们正在使用这种方法来影响接种疫苗的登记和产妇保健。在网上,这样的人有可能把欺凌文化变成助人文化。

企业已经使用了一个简单的系统来识别所谓的Instagram影响力者,为他们做品牌广告。但克里斯塔基斯不仅关注一个人的受欢迎程度,还关注他们在网络中的地位和网络的形态。

在一些网络中,比如孤立的小村庄每个人都有着紧密的联系,你很可能在一个聚会上认识每个人,但相比之下,在一个城市里人们作为一个整体可能生活得更紧密,但你不太可能认识那里的每个人。他解释说,一个网络的完全互联程度会影响行为和信息在它周围的传播方式。

“如果你把碳原子以某种方式组装起来,它们就会变成石墨,石墨又软又黑。取同样的碳原子,以不同的方式组装它们,它又变成了钻石,而钻石是坚硬而清晰的。这些硬度和清晰性不是碳原子的性质,它们只是碳原子集合的特性,这种特性取决于你如何把碳原子连接在一起。“他说:“人类群体也是如此。”

克罗克特已经设计了一个软件,可以通过在网上创建临时的人工社会来探索这个问题。“我们让人们加入进来,然后让他们相互交流,看看他们如何进行公共物品博弈,也会评估像他们对其他人的友善度。”

然后他操控了网络,“通过设计他们的互动方式,我可以让他们彼此之间变得很贴心,一起友好地工作,他们都很健康和快乐并且合作。或者你带着同样的人,用不同的方式把他们联系在一起,然后他们就会变成卑鄙的混蛋,他们不合作,他们不分享信息,他们对彼此也不友好。“

在一次实验中,他随机指派陌生人互相玩公共物品博弈。他说,起初大约三分之二的人是合作的,“但与他们交往的一些人会利用他们,因为他们唯一的选择要么是友好合作,要么背叛,他们选择背叛是因为被对方所利用。到实验结束时,每个人都变成对方眼里的混蛋。”

克里斯塔基斯简单地改变了这一局面,让每个人在每一轮之后都能控制自己与其他人的联系。他们必须做两个选择,即我对我的邻居是友好还是不友好,我要不要坚持选择这个人做邻居。每个玩家唯一知道的是他们的邻舍之前是否曾经有过合作或背叛。“我们能够证明的是,人们切断与背叛者的联系而与合作者形成联系,他们的网络重新构建,并将自身转变成类似钻石的结构,而不是石墨般的结构。”换句话说,这就是成为合作的亲社会结构而非不合作的结构。

好人在网上也会变坏,改善网络社交环境还得靠 AI?

研究表明一些有影响力的个人可以显著地改变整个网络的文化(Getty)

为了创造更多合作的在线社区,克里斯塔基斯的团队已经开始为他们的临时社会添加机器人。他把我带到一台笔记本电脑前,让我参与另一场不同的游戏。在这场游戏中,匿名的玩家必须作为团队一起工作,以解决一个让人熟悉的难题,游戏中我们每个人都必须从三种颜色中选择一种,但直接相连的球员的颜色必须不同。如果我们在一段时间内解决了这个难题,我们都会得到一部分奖金,但如果我们失败了,我们都不能得到任何东西。我和至少30个陌生人一起玩。我们中没有人能够看到整个连接网络,我们只知道直接与自己相连的人,然而我们必须合作赢得胜利。

我和两个邻居有联系,他们的颜色分别是绿色和蓝色,所以我选择了红色。我左边的人又变成了红色,所以我很快就变成了蓝色。比赛还在继续,我变得越来越紧张,队友咒骂着我反应缓慢。我经常不得不变换我的颜色,对网络中其他地方看不见的变化做出响应,这些变化会在连接过程中产生一连串的变化。在我们解开谜题之前,时间已经到了,这使得玩家在游戏评论框中发出愤怒的回应,并谴责其他人的愚蠢行为。就我个人而言,我感到欣慰的是一切都结束了,不再有任何人依靠我笨拙的游戏技能来赚钱了。

克里斯塔基斯告诉我,一些网络是如此复杂以至于在时间框架中无法解决这个难题。我的解脱是短暂的,然而我所扮演的角色是可以解决的。他重新开始游戏,第一次揭示了整个网络对我的影响。我现在看到我在网络的主要枢纽上的一个较低的分支上。有些玩家只和另外一个人有联系,但大多数人都与三个或更多的人有联系。来自世界各地的成千上万的人在亚马逊的机械土耳其人上玩这些游戏,他们每轮赚到的很少的钱就吸引了他们。但当我在看我刚刚玩的游戏时,克里斯塔基斯发现其中的三个玩家实际上是机器人。他说:“我们称他们为‘愚蠢的人工智能’。”

他的团队对发明超级人工智能来取代人类认知不感兴趣。相反,他们的计划是用哑巴机器人渗透到聪明的人类群体中,以帮助人类自助。

克里斯塔基斯说:“我们想看看我们是否可以利用这些哑巴机器人让人们摆脱困境,这样人们就可以更多地合作和协调,这样他们天生的良好表现能力就可以通过一点帮助来展现出来。”他发现,如果机器人玩得很好,那对人类没有帮助。但是,如果机器人犯了一些错误,就会挖掘出这个团队找到解决方案的潜力。

其中一些机器人做出了违反直觉的选择,即他们的邻居都是绿色,他们应该选橙色,但他们也选择了绿色。“当它们这样做的时候,它使得一个绿色的邻居选择了橙色,这就把下一个人打通了,他可以选择不同的颜色,哇,这样我们就解决了这个问题。如果没有机器人,这些人类玩家很可能都会选择绿色,而没有意识到这是问题所在。“这说明暂时增加冲突可以让他们的邻居做出更好的选择。”

通过在系统中添加一点噪音,机器人可以帮助网络更有效地工作。也许这种模式的一个版本可以渗透到党派人士的新闻提要中,偶尔提供不同的观点,可以帮助人们摆脱社交媒体的“舒适泡沫”,让整个社会能够更多地合作。

四、算法和AI或许可以帮助改善网络环境

网上的许多反社会行为都源于网络互动的匿名性,因为线上的声誉成本远低于线下。在这方面,机器人也可以提供解决方案,一项实验发现,通过使用带有白人个人头像的机器人账户来回应种族主义推文者,针对黑人用户的种族主义谩骂行为的程度就可能会大幅降低。一个典型的机器人对种族主义推文的回应是:“嘿,伙计,只要记住,当你用这种语言骚扰他们的时候,就会有真正的人受到伤害。”仅仅是在这样的推文中培养一点同理心,几周后,他们的种族主义推文几乎就会减少到零。

解决网上不良行为的低声誉成本的另一种方式是设计某种形式的社交惩罚。一家叫做“英雄联盟”的游戏公司通过推出“法庭”功能做到了这一点,其中消极游戏会受到其他玩家的惩罚。该公司报告说,一年内有28万名玩家被“改造”,这意味着在受到“法庭”的惩罚后,他们改变了行为,并在社区中获得了积极的声望。开发者还可以建立良好行为的社交回报,鼓励更多的合作元素来帮助建立关系。

研究人员已经开始学习如何预测交易何时会变坏,在这种情况下,它可以从先发制人的干预中获益。康奈尔大学信息科学部门的丹尼斯库(Cristian Danescu-Niculescu-Mizil)表示:“你可能会认为,在网络上只有小部分反社会的人,我们称之为恶魔,他们正在做所有的这些伤害,我们在工作中真正发现的是,就像你我一样的普通人也能从事这样的反社会行为。在一段特定的时间内,你实际上可以变成一个恶魔,这是令人惊讶的。”

好人在网上也会变坏,改善网络社交环境还得靠 AI?

已经发现挑战反犹太主义的推文被分享的范围比反犹太主义的推文本身要广得多(Getty)

这是令人震惊的,我在脑海中回想着自己最近的推文,希望自己没有做欺凌行为,以试图在我的网络粉丝面前表现得有趣或酷。毕竟,如果你认为这会给你的社会群体留下深刻印象的话,对一个你不认识的遥远的人来说这是很有诱惑力的。

丹尼斯库一直在调查在线文章下面的评论部分,他指出了两个主要的触发因素,计算交换的背景(其他用户的行为表现)和你的情绪。他说:“如果你今天过得很糟糕或者恰巧是星期一,你就更有可能在同样的情况下做小恶魔,但如果你在星期六早上就会变得很好。”

在收集了数据之后,包括过去参与过恶意破坏的人,丹尼斯库建立了一种算法,在某人即将成为网络谩骂者时,该算法的预测准确率为80%。例如,这提供了一个机会,使他们能够延迟他们发表回复的速度。如果人们在写东西之前都进行三思,那就改善了每个人交流的环境,那么你不太可能看到人们的行为不端,所以你也不太可能表现出自己的行为不端。

好消息是,尽管我们中的许多人在网上经历了可怕行为,但大多数互动都是友好和合作的。正当的道德愤怒也被用来挑战令人厌恶的推文,英国最近在Twitter上对反犹太主义进行的一项研究发现,挑战反犹太主义的推文被分享的范围远比反犹太主义本身的推文要广得多。大多数令人憎恨的帖子被忽略,或者只在类似的小回音室里分享,也许我们自己已经开始做机器人的工作了。

正如丹尼斯库所指出的那样,我们有数千年的时间来磨练人与人之间的互动,但只有20年的社交媒体。“线下,我们有从面部表情到肢体语言到音调等的所有这些提示,而在网上,我们只能通过文本来讨论事情。我认为我们不应该感到惊讶,因为我们在找到正确的在线讨论和合作方式上遇到了如此多的困难。“

随着网络行为的发展,我们很可能会引入微妙的信号,即面部线索的数字信号,以帮助网络讨论的顺利进行。同时对于网络谩骂的处理建议是保持冷静,因为这不是你的错。不要报复,而是要阻止和忽视欺凌者,或者如果你感觉到了就叫他们停止,和家人或朋友谈谈发生的事情,让他们帮助你,对于网络骚扰,需要截图并举报给社交媒体服务,如果其中包括人身威胁,就向警方报告。

如果我们所知道的社交媒体要想生存下去,运营这些平台的公司将不得不继续引导他们的算法,可能是基于行为科学的引导,这样一来就可以鼓励合作而不是分裂,鼓励积极的在线体验而不是谩骂。作为用户,我们也很可能学会适应这种新的交流环境,文明的、高效的互动将保持为在线的标准,因为这是离线的。

“我很乐观。” 丹尼斯库说:“这只是一场不一样的游戏,我们必须不断进步。”

返回顶部