1
互联网的发展信息的爆发,会不会加速“回音室”(echo chamber)效应?在这个时代,我们每天都会获得很多信息,而信息过滤机制,具体地说是那些看不见的算法,让我们只跟政见相同的人交朋友,只看到我们想看到的东西,只听到自己认同的观点,似乎这个世界就是我们想得那样,不断重复之后,那些观点不断加深,最终变成一个只能听到自己声音的“密室”。这就是回音室效应(echo chamber effect)。可怕的是,像Facebook和Google这样的巨头,它们一直在努力改进算法,让我们深陷其中。
而今天发表在《科学》杂志上一篇名为《Exposure to ideologically diverse news and opinion on Facebook(Facebook的消息和观点呈现意识形态多样化)》的论文则得出了不同的观点。在这篇论文中,Facebook数据科学家们首次尝试量化社交网络的信息流(News Feed)群分用户的程度。根据该论文的研究结果,回音室效应的直接原因并非Facebook的算法,而是用户本身。
在过去6个月的时间里,Facebook的研究人员回顾了1010万个美国的匿名账户,收集这些用户的网友信息和反应意识形态偏好的状态。结果发现,这些人不会总是处于观点相同的环境中,而是大部分时间出现在观点不同的地方。研究人员表示,Facebook的算法让自由派有8%的时间存在于单一的观点中,而保守派则是5%的时间。这说明在大部分时间里,Facebook没有让用户局限接受同类的信息,而是多元化的信息。
Facebook的算法会通过用户的个人喜好决定News Feed信息流的链接,而该研究发现,信息的接受不完全决定于算法,还有很大一部分原因是用户本身是否点击。这个的意思是,算法只是决定信息的呈现,是否接受,还是由用户自身决定。
以上研究的结果,换句话来说就是,Facebook的算法阻碍用户接受多元化的观点的程度远远比不上用户本身。就是说,用户应该为只有单一意识形态而且“活在自己的世界”负责。
对此,有批评人士指出,这份研究论文有严重的逻辑缺陷。首先是Facebook的算法已经过滤了一些消息,用户看到的是Facebook自以为用户喜欢的,而后的不断重复操作更是加深了这种“自以为是”和“单一观点”。而且还有一些订阅功能,这两方因素不断加强“错误”。在这样的轮回中,被算法过滤的信息、用户不去点击某个链接查看某些消息,并不等于用户不接受,不认同。
需要提出的是,在Facebook的这次研究中,用户的样本选择有偏差,局限于把定义自己为自由派或者保守派的用户。而且研究样本量仅占14亿用户一小部分。
事实上,这不是Facebook第一次进行用户研究了。早前,该公司还进行了一项关于用户情绪与Facebook信息的关系,因为有观点认为Facebook在操纵用户的情绪。如果这一次Facebook的研究数据是正确的,那么,形成回音室的真正原因是我们本身。
雷峰网原创文章,未经授权禁止转载。详情见转载须知。