记者 |
编辑 | 黄月
22岁库尔德女性阿米尼因头巾佩戴不当被道德警察逮捕死亡,这一事件引发的伊朗大规模抗议行动从9月中旬持续发酵至今,吸引了全球关注。尤为值得注意的是,一些相关进展在迅速占据头条、获得万千转发和超高讨论热度后又遭遇“反转”,被指为假新闻。
12月4日,一则“伊朗决定取消道德警察”的报道被广泛关注,#伊朗废除道德警察#登上微博热搜。中文媒体援引的多是法新社(AFP)报道,“据伊朗当地媒体报道,在两个多月的抗议活动后,伊朗取缔了道德警察部队。”然而,“辟谣”消息很快出现,观察者注意到伊朗政府并未就此发布任何官方声明,也没有任何政府官员证实道德警察已被取缔。4日,正在塞尔维亚访问的伊朗外长阿卜杜拉希扬被问及道德警察是否取消的问题时仅仅表示,“可以确定的是,在伊朗,一切都在民主和自由的框架内顺利推进。”
可能涉嫌误读伊朗抗议行动的新闻,还包括11月21日伊朗足球运动员在世界杯小组赛开赛前拒唱国歌。国歌响起时伊朗球员肩并肩站立、无人唱国歌的场景,被中国网友理解为男性球员公开表达对伊朗女性权利的支持,获得了广泛好评。据BBC报道,四天后,在伊朗对阵威尔士的小组赛中,球员们唱起了伊朗国歌,也有伊朗人指出,伊朗足球队的行为只是“政府指使”下的“一场作秀”。
面对种种前后矛盾的消息,我们是否还有可能把握所谓“真相”?当烟雾弹一样的新闻资讯被制造出来,我们要如何理解和甄别?错误信息的武器化和虚假新闻的传播已经是一个不容忽视的全球性问题。假新闻为何总是吸引我们的注意力,且通常难以遏制其影响?社交网络时代的网民缺乏媒介素养、轻信未经证实的消息是一种常见的指责,但假新闻泛滥原因要复杂得多,其中既有人性的弱点,也有社交网络特性导致的真相扭曲。此外,我们也会发现,虚假消息在传播伊始瞄准的其实也不是普通大众。
假新闻始终比真新闻传播得更远、更快、更深入
在关于假新闻的研究中,数据科学家、麻省理工学院社会分析实验室负责人锡南·阿拉尔(Sinan Aral)做出了一个最令人害怕和沮丧的判断。阿拉尔在《炒作机器》一书中是这样写的:
“在所有类别的信息中,虚假新闻始终要比真实新闻传播得更远、更快、更深入,而且其覆盖面也更加广泛。在某些案例中,这两者之间甚至有好几个数量级的差异……我们在社交媒体平台的通道中发现了一台可以扭曲现实的机器,通过这台机器,谎言像闪电一样传播,真相却像是在缓慢滴落的糖浆。”
麻省理工学院社会分析实验室分析了2006-2017年所有在推特上传播过的、经过事实核查的真实或虚假新闻的传播方式,这项研究于2018年3月作为封面报道发表在《科学》杂志上。阿拉尔和同事们发现,真实消息很少能够扩散到1000人以上的群体中,但前1%的虚假新闻转发链可以轻松扩散到10万人的群体中——这意味着,把真实信息传播给1500人所需的时间大约是把虚假信息传播给同样数量的人所需时间的6倍,把真实信息的原始推文传播给10个转发人所需的时间是把虚假新闻传播给同等数量转发人所需时间的20倍。伴随着每一次转发,原始推文的传播都会更远,产生新的转发链条,在转发链的每个“深度”层次上,虚假信息被转发的次数都比真实信息多。
上述研究还发现,虚假政治新闻是网络上热度最高、传播最广的虚假新闻类型。事实上,涉及政治和都市逸闻的新闻的传播速度向来是所有新闻中最快、最受读者关注的。
人们为什么会被虚假新闻所吸引,并主动分享错误信息?阿拉尔和他的同事们用“新奇性假设”来回答这一问题。他们认为,虚假新闻通常比真实新闻更新奇,更能吸引人们的关注和转发。这是因为,新奇的东西会让人感到惊讶,并引起情绪上的共鸣,还会更新或改变我们对世界的理解。人们在分享新奇东西时会在无形中传达出他们的社会地位,因为分享者会被视为一个“知情人”或有“内幕消息”的人。在论证“新奇性假设”时,阿拉尔通过比较用户在回复谣言时表达出来的情绪,来评估用户对真实新闻和虚假新闻的感受。“我们发现,虚假新闻会激起更多的惊叹和厌恶,而真相会激起更多的悲伤、期待、快乐和信任,这实际上已经证实了我们的‘新奇性假设’。但这些情绪也揭示出,除了新奇性之外,还有哪些因素会刺激人们去分享那些虚假新闻。”
在《传染》一书,流行病学学者亚当·库哈尔斯基(Adam Kucharski)援引的另一项研究得出了相似的结论,亚当致力于通过数学模型演绎传染病和社会行为的传播。2011年,宾夕法尼亚大学的乔纳·伯杰(Jonah Berger)和凯瑟琳·米尔克曼(Katherine Milkman)研究了人们通过电子邮件分享《纽约时报》文章的情况,发现引发强烈情绪——无论是积极情绪(如赞叹),还是消极情绪(如愤怒)——的文章更有可能被分享。两位研究者指出,令人惊奇或具有实用价值是判断一篇文章是否受欢迎的重要标准。
从这个角度来看,“伊朗废除道德警察”和“伊朗足球运动员开赛前拒唱国歌”的消息之所以被广泛转发和讨论,是因为它们具有某种新奇性,传达了令人惊讶的信息,即伊朗的权利上位者能够回应公众的呼声并做出变革,而伊朗的男性能够共情女性同胞的境遇,在明知会面临惩罚的情况下依然公开支持抗议行动。这种新奇性既令人惊讶——我们知道它极少能在现实生活中发生——但也恰恰因为如此,我们才更愿意相信这些消息是真的,以回应自身的道德期待。
但新奇性还不足以解释虚假新闻的超强传播力。库哈尔斯基还提醒我们注意“复杂传染”的现象,即观念的传播并非一蹴而就,我们要在多次接触一个想法后才会采信它。有证据表明,我们虽然不需要太多激励就会在网上分享模因(比如表情包),但除非看到不少人都在分享,否则我们不会轻易分享政治内容。比如2013年初,一些脸书用户将自己的头像改成了“=”符号来支持婚姻平权,平均而言,用户要等到8个朋友更改头像后才会效仿。
可以确定的是,社交网络的结构与运作机制为“复杂传染”创造了条件。脸书的数据科学团队在2014-2015年对其美国用户的政治观点进行了研究,他们发现,人们往往会接触到与自己所持观点相似的观点,脸书的算法(决定用户“动态”中显示的内容)会进一步过滤掉5%-8%的政治异见。2016年牛津大学、斯坦福大学和微软研究院的一项联合研究发现,美国人在社交媒体和搜索引擎上浏览的文章,通常比他们在自己最喜欢的新闻网站上看到的文章倾向性更强。另一项杜克大学的研究则发现,关注与自己立场相反的推特账号无助于打破“信息茧房”,参与实验的美国志愿者反而强化了自己的政治立场,变得更保守或更自由。
“分享”和“吸引用户的时间和注意力”是社交媒体的设计核心,为此,一些旨在促使用户不断浏览和分享的功能被开发出来。2010年,脸书推出了“无限滚动”功能,用户不必费心翻页,如今这一功能已是社交媒体的常态。2015年,YouTube开发了当前视频结束后自动播放下一个视频的功能,预示了接下来短视频平台用手划一下就能从一个短视频跳转到另一个的设定。促进不断浏览和分享的机制和算法一道推波助澜,其结果是用户重复接收了更多与自己一致的观点。2017年,新闻研究者乔纳森·奥尔布赖特(Jonathan Albright)调查了100多个极端主义宣传网站后发现,这些网站会收集浏览者的个人身份和浏览行为的信息(比如鼠标的移动),因而能够跟踪易受影响的用户,向他们推送更多极端内容。
鉴于上述种种原因,假新闻在很多情况下跑得比真新闻更快更远。库哈尔斯基认为,“线上社交网络的结构不利于用户形成发人深思的、较为复杂多元的观点。相比之下,那些简单、易消化的内容更容易在网上扩散。”
网络滋事者和媒体操纵者是真正深刻理解网络“传染”本质的人
2016年英国公投脱离欧盟,特朗普当选美国总统,一时间“后真相”成为讨论热点,并被《牛津大词典》选为年度词汇;社交网络研究者试图查明,假新闻(特别是由“境外势力”投放的假新闻)在多大程度上扭曲了民意、操纵了民主投票结果。
阿拉尔认为,2016年美国大选期间,俄罗斯制作的虚假新闻在脸书上至少被传播给了1.26亿人,收获了至少7600万个点赞、评论和其他反馈。在Instagram上,这些虚假新闻至少影响了2000万人,得到了至少1.87亿个点赞、评论和其他反馈。俄罗斯还通过推特账号发送了至少1000万条推文,这些账号拥有600万粉丝。
但库哈尔斯基认为,人们不应过于高估虚假新闻网站和外国间谍操纵舆论的能力。他援引一项研究指出,脸书用户可能接触到了俄方散布的消息,但与此同时,美国用户在该平台上看到的消息总量超过11万亿条。平均而言,人们每接触一条俄方的消息,就会同时接触到9万条其他消息。在推特上,只有不到0.75%的选举相关推文来自与俄罗斯有关联的账户,选民接触的绝大部分信息都不是来自虚假新闻网站或极右翼组织,而是来自知名人士或机构。
但这并不意味着虚假新闻不重要,库哈尔斯基指出,一个更值得担忧和警惕的虚假新闻传播途径是被称为“蜜罐机器人”(honey pot bot)的社交媒体机器人,它们旨在吸引特定用户的注意并引诱他们做出回应。多位研究者指出,虚假消息或新闻的发布者最初瞄准的目标未必是普通大众,而是那些爱用社交媒体的记者或政客,这些目标具有强大的话语权,能显著影响公共舆论。比如2017年,记者们经常引用一个名为“wokeluisa”的推特用户发布的消息,这个用户乍看之下是一名纽约的年轻政治学研究生,实际上却是由一群俄罗斯网络滋事者运营的“蜜罐机器人”,针对媒体机构“定向发帖”,以期建立公信力,让信息扩散。
库哈尔斯基指出,与真正的传染病一样,网络消息的扩散也有“同源性传播”和“延伸性传播”两种模式,前者指所有人从相同来源感染,后者指多轮人际传播。从单一来源传播给很多人也被称为“广播事件”,研究发现,网络热帖背后通常都有一个广播事件。这也是“蜜罐机器人”的运作逻辑:通过KOL的“背书”(那可能是机构媒体、网红或政客),一条消息可以迅速传播开去。“如果没有广播事件的放大效应,这些极端思想很难传开。如果一个观点变得流行,通常都是知名人士和媒体有意无意地助长了它的传播。”
雪上加霜的是,社交网络时代的新闻业性质已经发生了变化,媒体从业者也越来越难抵御虚假消息的操纵。媒体对分享和点击量的渴求越来越强烈,由于具有“传染性”的观点往往是备受关注的观点,即使其内容不实,媒体也会为其大开方便之门。在库哈尔斯基看来,网络滋事者和媒体操纵者是真正深刻理解网络“传染”本质的那群人,“从技术角度来看,大多数媒体操纵者并不是在利用网络传播系统的技术漏洞,而是在奉行它的激励机制。”
“虚假新闻”(fake news)其实是一个非常概括性的词语,它包括了几种不同的情况:诱导点击的信息、阴谋论、错误信息(misinformation)和虚假信息(disinformation)。库哈尔斯基认为,虚假信息是其中最危险的一种形式,它不仅诱导人们去相信错误的事实,而且会让人们怀疑真相本身,“通过混淆视听,它们使人无法确定真实情况。”
阿拉尔指出,当虚假新闻并非完全捏造的时候,它通常会通过调整或扭曲现实与真实信息混杂在一起,然后突出其中最耸人听闻和最情绪化的元素。如此一来,它们就会在社交媒体上迅速扩散,其传播速度远远快于验证或反驳的速度,一旦传播开来,很难完全清除其影响。
以欧美国家的反疫苗运动为例。麻疹-腮腺炎-风疹疫苗会导致自闭症的谣言始于1998年《柳叶刀》发表的一篇欺诈性论文,虽然这篇论文遭到了质疑并被撤稿,作者安德鲁·韦克菲尔德(Andrew Wakefield)也在英国被吊销了医师执照,但英国媒体注意到了韦克菲尔德的说法并进一步夸大其词。这一虚假信息的传播和影响力是持久性的,给公共卫生造成了极大挑战,因为人们拒绝接种疫苗,麻疹在美国死灰复燃。2019年年初,脸书上所有关于疫苗的搜索结果都已经被反疫苗的宣传主导;同年的一项调查显示,和亚非国家相比,欧洲国家的人对疫苗的信任度更低。
值得庆幸的是,有证据显示我们可以减缓虚假信息的蔓延,即使无法完全根除它们。脸书的研究人员发现,如果用户迅速向分享虚假消息的朋友指出问题,后者有20%的概率会删除分享内容。社交媒体运营方也可以采取措施减慢传播的速度,比如在印度发生了一系列由谣言引发的攻击事件后,WhatsApp设置印度用户只能将消息转发给五个人。
无论如何,我们需要认识到,是人类自己让虚假新闻的传播比真相来得更快更广。它或许是一个将一直伴随信息交流存在的现象,但在深入理解其本质后,我们有可能提升自己分辨真伪的能力,影响社交网络的运作机制,进而减小虚假新闻的危害。
参考资料:
【美】锡南·阿拉尔.《炒作机器:社交时代的群体盲区》.中信出版集团.2022.
【英】亚当·库哈尔斯基.《传染:为什么疾病、金融危机和社会行为会流行?》.中信出版集团.2020.
《伊朗道德警察存废未明,抗议者发起三天罢工》,界面新闻
https://www.jiemian.com/article/8521114.html
《废除道德警察,是来自伊朗政府的假新闻丨抗争仍未终止》,公众号“荡秋千的妇女”
https://mp.weixin.qq.com/s/2aNWF-w29ZU-GJfVhKWk6Q
评论