夕岸:新媒体如何“妨碍”集体行动 - 文章 - 当代文化研究
文章 夕岸:新媒体如何“妨碍”集体行动
夕岸:新媒体如何“妨碍”集体行动
关键词:
对互联网算法的感知,让我们更无力参与政治──越是清醒,越是难以行动
“Papi酱很火;川普粉遍布美国;中产都支持政府;年轻人不关心政治。”这些观点表达都具有两个维度,一是个人态度的表达,二是对群体态度的总结与预测。人们对某种观点在人群中的支持度,会有基本的事前判断。
 
政治社会学关注“社会信息”(social information)与“集体行动”之间的关联机制,已经有几十年:“沉默螺旋”解释多数派声音如何在传播中压过少数派;“第三人效应”指出我们如何 低估媒体对自己的影响力;我们有“门槛理论”和“关键多数”研究群体事件如何爆发;我们可以借助“从众效应”与“级联效应”,分析观点如何在社会网络中传递。
 
这些不同的概念,包含的是相似思路──个人参与集体行为,不仅仅由个人内在动机所决定,更大程度上取决于对周围情境,特别是对其他人观点和行为的判断。
 
尽管相关假设层出不穷,但要证明人们真实地受到社会信息的波及,却非易事。
 
 
 
 
网络上的从众效应
 
网络空间分布著各式各样的“算法”(algorithm,台湾称演算法),让用户只看到特定的内容,或是呈现一个扭曲的社会现实。原本象征平等的互联网空间,也进化成了充满偏见的“算法社会”(algorithm society)。
 
算法社会的降临,对普通用户是一场噩梦;而对部分研究者来说,则是观察社会信息的绝佳机遇。不断变化的平台功能和算法,裹足不前的网络立法,加上不 断寡头化的电子空间,让互联网越发成为一个天然的实验室。用户不仅仅是为商业社交网络免费提供内容的“数字劳工”,更慢慢转化为,免费提供实验数据的“数 字被试者”。
 
过去三年间,牛津大学网络研究中心团队用一系列实验设计,证明了社会信息对个体在线行动造成的巨大影响。2012年初,英国政府的请愿网站对 主页进行了调整,他们将六个最热门的连署案链接放在首页,相当于 twitter、Facebook 等社交媒体常用的趋势筛选(trending filter)功能。研究者对比功能调整前后的网站数据,发现在新功能加入当天,首页的六个链接流量就出现大幅增长,同时其它项目的关注度则相应减少;不 同项目间的流量变得更不平等。引进的新功能,提供的正是之前欠缺的“社会信息”──这种信息告诉用户:哪些话题受到多数人关注。
 
紧接着,研究者用在线对照实验,更精确地估计社会信息的影响。在某个实验中,当受试者得知其他人会通过网站给议员写信后,他们也更倾向于采取行动。 在另一个实验中,研究者搭了一个虚拟请愿平台,挑选了六个跨国政治话题,随机给几百个实验对象,并附上这组话题的“公众支持度”信息。所谓的“公共支持 度”其实由研究者编造,分成高中低三组;他们发现,同样话题若搭配“高支持度”的社会信息,比“低支持度”更能激发用户的参与热情。
 
这些研究,在社会信息与集体行动间,建立了因果解释。之前研究认为,有效动员需要特定的网络结构──周围朋友参与,才可以激励个人投入运动。然而牛津团队的研究发现,仅仅提供“大多数人都这么认为”这种与个体并无直接关系的社会信息,就足以影响其行动。
 
 
 
 
社会信息如何“反动员”?
 
某个话题的关注度,或某场运动的参与度,同时也暗示了它们“不受欢迎”的程度。当议题存在争议时,社会信息可以用来动员,也可以用来“反动员” (demobilization)。当特定议题的倡导者觉得,社会对其诉求普遍无知或反对时,可能压抑其行动。同时,某个议题的流行,还会挤占掉其他议题 的传播空间。
 
该研究选择的话题,清一色都是民主社会“政治正确”的议题:例如反歧视、抵制战争、保护人权、支持环保等。这些议题,最低的公众支持度也达七成以上,这让研究者可以忽略反对意见,简化实验。
 
但这也意味着,本研究无法测量,存在社会争议时的大众动员与反动员机制。
 
利用社会信息来反动员,并不需要说服人改变立场,它只需要证明另一方声势浩大──哪怕其内容并没有逻辑。网络水军、黑客攻击,社交站点上活跃的各种机器人(Bots),都遵循这样的运作思路。它改变的是人们对于网络生态的原初信任感。这种原初信任感,来源于对互联网早期发展的认知。在那时,人们相信 网络结构平等,生态蓬勃。过去的互联网,虽然存在大公司对流量的统治,但小网站和单个用户凭借内容,仍然可以无需依附大平台就能有立足之地,甚至可以攀上 注意力经济的快车道。这样良性循环的生态,如今已经无迹可寻。
 
“反动员”依赖于创造一种“能见度”(visibility) 的不对等:其让行动者(activist,这里指持有异议而发动运动的人)面对庞大对立声势而自觉少数,也让其他人看不见这些行动者。在社交平台上,行动 者很容易发现:政权所鼓励和欢迎的内容被大量阅读转发──这类社会信息,很容易抑制和威慑行动者的话语。
 
在全世界范围内,信息控制的逻辑都是相似的:将行动者吸引和收编进高度垄断,政府易于控制的平台,逼迫所有用户遵循相似的游戏规则。行动者越是希望适应规则,越被不公平的规则所打败。
 
 
 
 
过滤器效应的夸大
 
提到算法社会,很多人会想到被传媒热炒的概念“过滤器效应”──比如脸书的时间轴(timeline)用算法筛选信息。算法倾向显示符合特定指标的 贴文,于是个人信息来源愈发封闭。这样一种过滤器效应,从搜索引擎到购物网站,在各大互联网服务平台都广泛存在。很多人认为,它助长了互联网信息的极化。
 
然而,正如我先前在另外一篇文章指出,过滤器效应的威胁始终是被夸大的。现代社会的一大特征是所谓“交叉认同”的上升,也就是人们可以隶属于多个性质与边界不同的社会团体。虽然人们都倾向于与观点类似的人互动,但交叉认同在一定程度上,会抵消“过滤器效应”。
 
网络是否会强化人们对信息的选择性接受?过往研究并未发现显著证据。这个结果也可以用交叉认同来解释。对于互联网用户而言,尽管社交算法越发精确地 预测他们的喜好,可是“完全将自己封闭在一个小世界”,依然是几乎不可能实现的想像。我们总会在一些偶然场合,发现自己秉持的价值,是别人眼中的异端。
 
 
 
 
算法社会下的失望政治
 
算法社会最深远的后果,首先来自于用户对算法本身的感知,存在巨大的差异。2015年的数据显示,七成的用户知道脸书社交算法的存在,但仍有一成用户完全不知情。我们对于互联网的事实论述如此支离破碎,用户对于算法的日常体验,也截然不同。
 
无知者反而无畏,最先清醒的人也最脆弱。相比那些还在社交过滤器泡沫(filter bubble)里打滚而不自知的人们,信息习惯更好的知识型用户,会比其他用户更早嗅到“网络空间分裂” 的社会信息,也更容易感受到“他者”力量的威胁。“他者”可以是弥漫性的大众,没有确定的指向;也可以是更具体的“小粉红”、川普粉;既可以是实名的极端分子,也可以是匿名教微软机器人种族主义的网络巨魔(Internet troll)。长此以往,知识性用户将不再相信网络规则的公平性,也不会相信由这种公平性保护的,个人网络表达的力量。
 
前述的牛津大学团队,并未用社交网站数据做实验,而是采用传统传播界面的请愿网站;没有过多的算法操纵,所有人看到相似内容,也相信别人能看到一样 内容,减少了实验的复杂度。牛津的团队如愿做出自己想要看到的结论;然而,当网络算法进一步侵入到最细微的社会肌理,当越来越多用户,不再相信自己能看到 全部的事实,这时,这些结论恐怕就要失效了。
 
 
从选举政治到社会运动,再到隐私保护,在传媒勾勒的世界图景中,“他人”的力量从未变得如此清晰可辨。按照政治人类学的说法,如今的世界已遭遇到普遍的失望政治(politics of disappoinment),传染性的焦灼无力感,也许会笼罩不止一代人。
 
而这一切对于现实的情绪性讨论和学理解构,带来了对算法社会更透彻的洞察。可是,当所有人都过于清醒的时候,也许是最糟糕的时候。
 
(夕岸,互联网政治研究者)
本文版权为文章原作者所有,转发请注明本网站链接:http://www.cul-studies.com
分享到:

相关文章列表