使用社交账号登陆

当前位置: 主页 > 前沿 > 信息 • 能源

虚假信息是如何包装出来的?

时间: 2019年09月05日 | 作者: Claire Wardle | 来源: 环球科学(huanqiukexue.com)
自20世纪90年代中期以来,网络上的错误信息就一直存在。但2016年发生的几起事件已清楚地表明:自动化、微定位和协调正在推动旨在大规模操纵公众舆论的信息攻势。


image.png


· 网络上存在着许多类型的信息混乱,从伪造的视频到假冒的账户,再到旨在操纵真实内容的网络爆红事物(meme)。 


· 自动化和微目标战术使得虚假信息代理人更容易将经常使用社交网络的用户当作武器来传播有害信息。


· 需要进行大量研究来了解虚假信息的影响,并建立防范措施。


作者:Claire Wardle

插图:Wesley Allsbrook



作为一名研究错误信息对社会所产生影响的人士,我常常希望硅谷那些让沟通变得快捷的年轻企业家们,在将自己的技术投入商业应用之前,能够模拟 9/11 事件的场景,强制性地测试一下这些技术。


那天最具标志性的照片之一显示,一大群纽约人在抬头仰望。照片的力量在于,我们知道他们所目睹的恐怖。不难想象,要是事件发生在今天,照片中的几乎每个人都会拿着一部智能手机。有些人会把他们所看到的记录下来,然后发布到 Twitter 和 Facebook 上。在社交媒体的推动下,谣言和错误信息将会泛滥。在对数量空前的分享、评论和点赞做出回应的算法的推动下,一些充满负能量的贴子将会扩散猜忌和愤怒。虚假信息的传播者将扩大这种分裂,在社区之间产生隔阂,制造混乱。与此同时,那些被困在塔顶的人们将会直播他们的最后时刻。


在历史上最糟糕时刻使用压力测试技术或许已经阐明了社会科学家和宣传人士早已知悉的一个事实:如果某种情感触发因素能够强化现有信念和偏见,人类就会对其作出反应,并分享错误信息。相反,社交平台的设计者们坚信,相互联系可以促进宽容,抑制仇恨。他们没有看到技术不会从根本上改变我们——技术只能映射到现有的人类特征之上。


自 20 世纪 90 年代中期以来,网络上的错误信息就一直存在。但 2016 年发生的几起事件已清楚地表明,更加黑暗的势力已经出现:自动化、微定位和协调正在推动旨在大规模操纵公众舆论的信息攻势。在罗德里戈•杜特尔特(Rodrigo Duterte)在 Facebook 上密集行动的推动下登上总统宝座之后,菲律宾的记者们发出警告。紧随其后的是 6 月份的英国脱欧公投和 11 月份的美国总统大选出现的意外结果——所有这一切促使研究人员系统性地调查信息被用作武器的方式。


在过去的三年里,围绕我们信息生态系统被污染的原因的讨论几乎完全集中在科技公司所采取的(或没有采取的)行动上。但这种执着过于简单化。复杂的社会网络的变迁使人们更容易受到错误信息和阴谋的影响。由于国际政治和经济形式的动荡,很多美国人对社会制度的信任度正在下降。气候变化的影响越来越明显。全球移民趋势引发了美国人对社区将发生不可逆转变化的担忧。自动化的兴起令一些人担心自己的岗位和隐私。


企图加深现有紧张关系的不良行动者深知这些社会趋势,他们设计希望能够激起目标用户愤怒或兴奋的内容,让受众成为信息传递者。其目标是,用户将利用自己的社会资本来强化原始信息,并赋予其可信度。


大多数这类内容的设计初衷并不是说服人们支持某个特定的方向,而是为了制造混乱,击溃和破坏人们对社会制度——包括从选举制度到新闻行业——的信任。尽管为了让美国选民为 2020 年大选做好准备已做了大量工作,但误导性和阴谋类的内容并不是从 2016 年的美国总统大选时才开始出现,也不会在这次大选之后消失。随着旨在操纵和放大内容的工具日益便宜、且越来越容易获取,让用户在不知情的情况下传播错误信息的传播者将更加容易。


image.png

Credit: Jen Christiansen;资料来源:Claire Wardle 和 Hossein Derakhshan 所著的《信息扭曲:为研究和政策制定建立一个跨学科框架》(Information Disorder: Toward an Interdisciplinary Framework for Research and  Policymaking),欧洲委员会,2017 年 10 月

 

上图翻译: 

信息扭曲(Information Disorder)的三个类型:

 

为了理解和研究信息生态系统的复杂性,我们需要一种共同的语言。目前对“假新闻”等简单化术语的依赖掩盖了重要的区别,它也过分关注“真实”与“虚假”,而信息扭曲则带有许多“误导”的影子。

 

Misinformation 错误信息(Falseness 虚假)

无意错误,如不准确的文字说明、日期、统计数据或翻译,或讽刺性内容被严肃对待。

 

Disinformation 虚假信息(Falseness 虚假、Intent to harm 有意伤害)

捏造或故意操纵的内容。故意制造阴谋论或谣言。

 

Malinformation 恶意信息(Intent to harm 有意伤害)

为个人或公司利益而不是公众利益而故意发布私人信息,如报复性的色情内容。故意改变真实内容的上下文、日期或时间。



恶意信息是如何包装出来的


一般来说,讨论错误信息这一问题使用的语言过于简单。有效的研究和干预需要明确的定义,但许多人使用“假新闻”这个有问题的说法。最近的研究表明,观众越来越多地将“假新闻”与主流媒体联系起来。它是一个含义宽泛的说法,经常被用来描述不一样的东西,包括谎言、谣言、骗局、错误信息、阴谋和宣传,但它也掩盖了细微差别和复杂性。其中很多内容甚至没有被伪装成新闻,而是以表情包、视频和社交贴子的形式出现在 Facebook 和 Instagram 上。


2017 年 2 月,我将“信息扭曲”划分为 7 个类型,以便强调被用来污染信息生态系统的各种内容,其中包括讽刺——其本意不是要造成伤害,但仍有愚弄他人的可能;捏造的内容—— 百分之百是假的,旨在欺骗和伤害;以及虚假上下文——在虚假上下文环境下分享真实内容。那年晚些时候,科技记者 Hossein Derakhshan 和我发表了一篇报道,对虚假信息   (disinformation)、错误信息(misinformation)和恶意信息(malinformation)之间的区别进行了详细说明。


虚假信息——故意捏造并有意造成损害的内容——的提供者有三个不同的目的:赚钱;在国外或国内施加政治影响力;以及为信息中涉及的对像制造麻烦。


错误信息——由那些没有意识到自己分享的内容有错误的或有误导性的人分享的错误内容——的传播者是由社会心理因素驱动的。人们在社交平台上展示自己的存在感,以便感受与他人之间的联系,无论“他人”是一个机构、不给孩子接种疫苗的父母,还是关注气候变化的活动人士。至关重要的是,当人们分享虚假信息、但没有意识到其虚假性时,虚假信息会变成错误信息。


我们增加了“恶意信息”一词来描述有意造成伤害而分享的真实信息。这方面的一个例子是,2016年美国总统大选时,有黑客侵入了希拉里•克林顿(Hillary Clinton)竞选团队的电子邮件,并向公众泄露了某些细节,以破坏其声誉。


我对 2016 年以来全球各地的 8 次大选举中的错误信息进行了监测,并发现其在战术和技术上发生变化。最有效的虚假信息总是那些拥有真实内核的信息,事实上,现在传播的大部分内容都不是假的——而是有误导性。影响力代理人正在重塑真实内容,使用夸张标题,而不是完全捏造故事。这种策略包括将真正的内容与两极分化的话题或人物联系起来。因为不良行动者总是比平台审核领先一步(或多步),所以他们将情绪化的虚假信息重新贴上讽刺标签,这样就不会在事实核查过程被发现。在这样做的过程中,上下文、而不是内容被武器化。其结果就是故意制造的混乱。


以今年 5 月流传的、被编辑过的美国众议院议长南希•佩洛西(Nancy Pelosi)的视频为例。这是一段真实的视频,但一名提供虚假信息的代理人放慢了视频播放速度,然后将其发布,这个视频让人觉得佩洛西说话含糊不清。不出所料,一些观众立即开始猜测佩洛西喝醉了,且这个视频在社交媒体上传播开来。然后主流媒体开始报道此事,这无疑让知悉这段视频人远远多于最初看到该视频的人。


研究发现,传统上对误导性内容的报道可能会造成更大的危害。我们的大脑天生依赖于启发法或思维捷径(mental shortcuts)来帮助我们判断可信度。因此,重复和熟悉是将误导性故事印在脑海中的两个最有效的机制,即使观众已经收到解释他们缘何应该知道故事是不真实的上下文信息。


不良行动者了解这一点:2018 年,媒体学者 Whitney Phillips 为数据与社会研究所(Data & Society Research Institute)发表了一份报告。该报告探讨了那些试图传播虚假和误导性故事的人如何利用技术来鼓励记者报道他们的故事。然而,《未来研究所》(Institute for the Future) 最近的另一份报告发现,只有 15%的美国记者接受过如何以更负责任的方式报道错误信息的培训。现在,对记者和事实核查人员——以及任何影响力广泛的人士,如政府官员和影响力人士——来说,一个核心挑战是,如何在不让最初内容发酵的情况下,理清并揭穿类似佩洛西视频的谎言。



网络爆红事物(MEMES):错误信息的巨大传播力量


2017 年 1 月,美国国家公共广播电台(NPR)的《美国生活》(This American Life)节目在被称为 DeploraBall 的特朗普就职典礼上采访了几名支持者。这些人一直积极参与利用社交媒体支持总统。关于特朗普出人意料的当选,一位受访者解释说:“我们通过网络传播把他送上了总统宝座......我们是文化的主导者。”


“网络爆红事物”(meme)一词最早由生物学家家 Richard Dawkins 在他1976年出版的著作《自私的基因》(The Selfish Gene)中使用,用来描述“文化传播的单位或模仿的单位”,即在一种文化中迅速传播的理念、行为或风格。在过去的几十年里,这个词被用来描述一种在线内容,这种内容通常是可视的,并具有特定的美学设计,将色彩丰富、引人注目的图像与块状文本结合起来。它通常指其他文化和媒体事件,有时是以明确的方式,但大多数是以隐含的方式。


这种隐含逻辑特征——对一个事件或一个人的共同了解心照不宣——是网络爆红事物具有影响力的原因。推理论证是一种修辞手段,通过没有前提或结论来进行论证。通常关键的参考资料(最近的新闻事件、政治人物的声明、广告宣传活动或更广泛的文化趋势)没有被阐明,迫使观众把这些点连接起来。要求观众做额外的工作是一种说服技巧,因为它让个人产生了与他人产生联系的感觉。如果这个网络爆红事物是在取笑或激起另一个群体的愤怒,这些联系就会进一步得到强化。


这些视觉内容看似有趣的本质意味着,网络爆红事物并没有被大多数研究和政策团体视为传播虚假信息、阴谋或仇恨的影响力工具。然而,最有效的错误信息是那些会被分享的信息,而网络爆红事物往往比文本更容易被分享。整个故事都可以在向你分享的消息来源(feed) 中看到——没有必要点击链接。An Xiao Mina 于 2019 年出版的《Memes to Movements》一书概述了网络爆红事物如何改变社会抗议和权力动态,但这类严肃的研究相对而言还比较少。


事实上,与2016 年美国总统大选相关的贴子和广告中,很多都是网络爆红事物。他们把注意力集中在分化伯尼•桑德斯(Bernie Sanders)、希拉里•克林顿 (Hillary Clinton)或唐纳德•特朗普(Donald Trump)等候选人以及分化枪支权利和移民等政策上。研究表明,当人们感到恐惧时,过于简单化的叙述、阴谋论的解释以及妖魔化他人的信息会变得更加有效。这些网络爆红事物足以让人们点击分享按钮。


美国的Facebook、Instagram、Twitter和Pinterest 等科技平台在鼓励这种人类行为方面发挥了重要作用,因为它们在本质上就被设计成具有展演性(performative)。在分享内容之前,放慢速度核实内容是否真实,远不如向这些平台上的“受众”强调你喜欢或讨厌某个政策更具吸引力。许多这类平台的业务模式都与刷存在感相关,因为它鼓励你在它们的网站上花更多时间。


研究人员现在正在开发一种监控技术,可以在不同的社交平台上追踪网络爆红事物。但他们只能调查其能够访问的内容,而且许多社交平台上的视频贴子数据并没有向研究人员开放。此外,研究文本的技术(如自然语言处理)比研究图像或视频的技术要先进得多。这意味着, 被推出的解决方案背后的研究不成比例地偏向于基于文本的推文、网站或通过 LRL 发布的文章,以及对政府官员在演讲中所发表言论的事实核查。


尽管人们把大部分责任都归咎于科技公司——且出于合理的原因——它们也是自身所处商业环境的产物。任何一项单独的措施——包括算法上的调整、平台内容审核指南的更新、和监管罚款——都不足以使信息生态系统提升到所要求的水平。



解决方案


在一个健康的信息共享空间(information commons)中,人们仍然可以自由地表达自己的想法——但是那些旨在误导、煽动仇恨或造成身体伤害的信息不会被算法放大。这意味着它将不会被允许在 Twitter 或 YouTube 内容推荐器上流行。它也不会被选中而出现在 Facebook 的消息来源(feed)和 Reddit 搜索结果之中、或谷歌搜索结果的顶部。


在这一放大问题得到解决之前,被虚假信息代理人当作武器使用的是恰恰是我们不加思索地分享信息的意愿。因此,无序的信息环境要求每个人都要认识到,他或她也可以成为信息战中的一个媒介,并且会发展一套在网上和线下进行沟通的技能。


目前,关于公众意识的讨论往往都集中在媒体素养上,而且往往带有一种家长式框架,即只需要教会公众如何成为更聪明的信息消费者。相反,应该更好地教导在线用户在情感怀疑主义中培养认知“能力”,并接受训练来抵御旨在引发基本恐惧和偏见的内容所产生的冲击。


image.png

Credit: Jen Christiansen;资料来源:Claire Wardle 和 Hossein Derakhshan 所著的《信息扭曲:为研究和政策制定建立一个跨学科框架》(Information Disorder: Toward an Interdisciplinary Framework for Research and  Policymaking),欧洲委员会,2017 年 10 月

 

上图翻译:

虚假信息是如何成为错误信息的

虚假或误导信息的传播往往是动态的。它始于一个虚假信息代理人为了造成最大伤害而设计一条信息——例如,设计现实生活中的抗议活动,将对立群体置于公共冲突之中。在下一个阶段,代理人在 Facebook 上创建“事件”页面。这些链接被推送到可能感兴趣的社区。看到这一事件的人并不知道这是一个错误的前提,并利用他们自己的框架与他们的社区分享。这种复制会一直继续。

 

创造:信息被设计出来

生产:信息被转变成媒体产品

分发:产品被推送出去或公开


任何使用促进社交互动网站的人都应该好好了解它们是如何运作的——尤其是算法如何通过 “优先排列那些能引发人们对话和有意义互动的贴子”来决定用户看到什么,如,2018 年 1  月 Facebook 进行的排名更新。我还建议每个人至少尝试在 Facebook 上购买一次广告。设置一项推广活动的过程有助于促进对可获得信息的详细了解。你可以选择针对一个细分群体,具体到 32 岁到 42 岁的女性,住在美国北卡罗来纳州的罗利-达勒姆地区(Raleigh-Durham),家中有学龄前儿童,拥有研究生学位,喜欢卡玛拉•哈里斯(Kamala Harris)。该公司甚至准许你在允许你私下失败的环境中测试这些广告。这些“暗黑广告”让机构可以针对特定的人群发布贴子,但这些贴子不会出现在这些机构的主页上。这使得研究人员或记者难以追踪哪些贴子是针对哪些不同人群的。在美国总统大选期间,这种做法尤其令人担忧。


Facebook事件是另一种操纵渠道。还是以黑客干预2016年美国总统大选为例,这个令人担忧的例子是发生在美国德克萨斯州休斯顿的抗议活动。黑客在 Facebook 上建立了两个页面,看起来就像真正的美国人。其中一个被命名为“德克萨斯之心”(Heart of Texas),它支持德克萨斯州脱离联邦,并于 2016 年 5 月 21 日创建了一个名为“停止德克萨斯伊斯兰化”的“活动”。另一个页面“美国穆斯林联合会”(United Muslims of America)也在同一时间、同一地点发起了名为“拯救伊斯兰知识”(Save Islamic Knowledge)的抗议活动。结果,两群人出来互相抗议,而抗议活动的真正发起者则在庆祝他们成功地加剧了休斯顿的紧张局势。


虚假信息代理人的另一种流行策略被称为“水军”(astroturfing)。这一术语最初是指那些在网上为产品撰写虚假评论的人,或者是那些试图让粉丝圈看起来比实际规模更大的人。现在,自动化竞选活动使用机器人,或者是热情的支持者和网络水军之间巧妙的协调,或者两者兼而有之,以显示一个人或一项政策得到了相当多的基层支持。通过在 Twitter 上制造特定的主题趋势,他们希望特定的信息会被专业媒体报道,并使其被放大,以胁迫特定人士或组织保持沉默。


了解我们每一个人是如何被这种推广活动所左右的——并且可能会不知不觉地参与其中——是反击那些试图颠覆共同现实感的人的关键的第一步。然而,或许最重要的是,我们必须理智而冷静地接受我们的社会是多么容易受到人为放大的影响。散布恐惧只会助长更多的阴谋,并继续压低人们对高质量信息来源和社会制度的信任感。对于被武器化的故事没有永久的解决办法。相反,我们需要适应这种新常态。就像涂防晒霜是社会随着时间的推移而形成的习惯、然后随着更多的科学研究成果的出现而进行调整一样,(我们)需要以同样的思路来考虑在被扭曲的信息环境中建立弹性。



作者简介:

克莱尔·沃德尔在宾夕法尼亚大学获得传播学博士学位,目前是非盈利组织“初稿”(First Draft)在美国的执行理事,负责研究、领导项目,并训练团队理解和应对不实信息。在这之前,她是哈佛大学舒伦斯坦媒体、政治学及公共政策中心(Shorenstein Center on Media, Politics and Public Policy)的研究员。