Facebook会让你陷入政治泡沫吗?

Facebook会让自由派和保守派更难相处吗? 多年来,政治科学家一直在思考社交网络的新闻是否有选择地提供意识形态的新闻,同时过滤掉来自对立政治阵营的内容。 现在,Facebook内部社会科学家的一项研究发现,确实发生了这种情况,尽管效果非常小。

研究人员称之为过滤泡沫:通过科技公司算法创建的互联网个性化视图。 例如,当您在Google上进行搜索时,您获得的结果将根据公司对您的了解而有所不同。 在大多数情况下,过滤是有用的 - 例如,地质学家和音乐家对“岩石类型”的搜索结果非常不同。 但是过滤泡沫的一些影响可能不那么温和,例如当根据他们在不知情或不同意的情况下收集的数据 。

Facebook的研究团队专注于政治两极化的问题,询问他们的新闻提要算法贡献了多少。 虽然在网站新闻Feed中滚动的帖子可能看起来像是来自朋友的直播,但该公司会使用算法在这些帖子到达您之前对其进行过滤和排名。 而且这种算法在不断发展。 它曾经与“喜欢”和点击联系在一起,但经过对如何捕捉人们更深层次兴趣的广泛研究后,该算法已经过调整,以通过“相关性得分”对内容进行排名。 这个分数 - 决定了用户最终在新闻提要中看到的内容。 例如,一篇关于可爱小猫的病毒帖子可能会产生很多喜欢,但由于人们厌倦了这种类似的点击,现在它的相关性得分较低。

但即使算法为Facebook用户带来更愉快的体验,他们也可能失去的不仅仅是可爱的猫咪照片。 例如,自由主义者和保守派可能很少了解与另一方有关的问题,因为这些问题从未进入他们的新闻提要。 随着时间的推移,这可能会导致政治两极分化,因为人们不会接触来自对方阵营的话题和想法。

不难确定自由派和保守派是谁参与这项研究:人们可以在他们的Facebook个人档案中宣布他们的政治背景。 该团队将这些政治组织映射到5分的意识形态范围 - 从非常保守的-2到非自由基于调查数据的+2。 在将人口限制在每周至少登记4天的美国成年人后,研究人员只有超过1000万个测试对象。 对于内容,他们专注于新闻故事。

确定该内容的政治风味更为棘手。 该团队不是试图根据语义分析来衡量新闻故事的政治倾向,而是采用了一种更为权宜之计的方法:每个故事的“政治一致性”取决于发布链接的所有用户的平均政治一致性。故事。 例如, “纽约时报”的平均故事的政治对齐得分为-0.62(有些自由),而福克斯新闻的平均故事为+0.78(有点保守)。 对于这项研究而言,重要的故事是“跨领域的”,在保守派新闻中出现自由倾向的新闻文章,反之亦然。 有了所有这些指标,研究人员就每一个新闻报道的数据进行了碾压 - 这些报道最终都是人们的新闻提要和那些被算法过滤掉的报道 - 在2011年和2012年之间。

通过比较这两组故事,研究人员发现Facebook的新闻馈送算法确实产生了回声室效应。 但它没有评论家所担心的那么强大。 团队在今天的“ 科学”杂志网络版上 , 。 “在社交媒体中让自己从另一方面看待自己的观点的力量首先在于个人,”该团队总结道。

剑桥麻省理工学院的政治科学家思南阿拉尔说,结果“对过滤泡沫问题肯定是好的”,但我不确定'我们不应该担心'是故事“。 他说,例如,该研究并未改变3年前发现的发现。 因此,关于Facebook是否是一种对民主有利或不利的力量的问题,Aral说,“陪审团仍然没有。”