Facebook 不是传统科技公司,也不是传统媒体公司。我们负责开发技术,我们对技术的使用肩负着一份责任。人们在平台上看到的新闻不是我们写的,但与此同时,我们也知道自己的责任不仅限于传播新闻,我们是公共话语的重要组成部分。

—— 马克·扎克伯格

大声

2016-12-22 11:30

自大选尘埃落定,Facebook 成了众矢之的,这个全球最大社交网络上泛滥的假新闻被认为帮助特朗普入主白宫。

Facebook 一开始试图淡化人们对于这一问题的关注,扎克伯格也说 Facebook 影响大选是个“相当疯狂的想法”。他认为社交媒体并非媒体,只是个平台,因此 Facebook 不应该成为“真相的仲裁者”。

最近在 Facebook Live 直播活动中,扎克伯格再次讲到了 Facebook 的定位,但这番表态与此前的口径明显不同:

Facebook 是一种新平台,它不是传统科技公司,也不是传统媒体公司。你知道,我们负责开发技术,我们对技术的使用肩负着一份责任。人们在平台上看到的新闻不是我们写的,但与此同时,我们也知道自己的责任不仅限于传播新闻,我们是公共话语的重要组成部分。

换句话说,他承认 Facebook 需要像媒体一样承担信息过滤的责任。

Facebook上周表示将通过一系列尝试打击假新闻。他们希望简化假新闻的上报流程,由事实验证组织来标记假新闻,团队还将收回垃圾信息传播者获得的收入分成,也更加密切地关注其他相关信号。

作为世界最大的社交网络平台,Facebook 在全球拥有 18 亿用户。皮尤研究中心发布的数据显示,美国使用互联网的成年人中有 79% 都是 Facebook 的活跃用户。约有半数美国成年人表示会通过 Facebook 获得新闻。

至少从大众传播看,Facebook 的确承担了媒体的功用,这意味着它需要对信息的真伪进行判断。

传统媒体的编辑作为“守门人”,对信息进行筛选和过滤,他们决定了受众看什么。所谓拟态环境,就是说这群传统的精英记者编辑,通过自己的信息组合,并在新闻操守的约束下,影响并制衡着大众的世界观。

但 Facebook 确实不同于一般媒体, Facebook “做”新闻的目的只是想黏住用户,而要达到这个目的,Facebook 会利用算法喂给用户他们喜欢看的东西,这些东西是根据用户之前的行为推荐的。

矛盾就出在这里:你喜欢看的东西,未必是真的。

互联网的洪水正在卷走传统的守门人,原本虽然有缺陷但平衡的人工判断被取代了,新的守门人变成了一套由程序员编写的算法,这套算法可以把异己的言论挡在你的视线之外,给你呈现一个你内心偏爱但却虚幻的世界,而新守门人的行为准则,是在一个商业话语体系下的。

这才是最可怕的事。

后评论

评论在审核通过后将对所有人可见

正在加载中

热爱 News Feed 与 Menu,正在努力让每天处理的信息量超过脂肪摄入量。

耐克和百事这类品牌已经成为新一代艺术的赞助者。

查看全文 —— Samantha Culp,创意制作人

你会发现,让人宅的那些技术发展得都很快,开辟新世界的技术发展得都慢。这很危险,对人类来说这是不是一个陷阱?谁也不知道。

查看全文 —— 刘慈欣,科幻作家

有任何人想试图用一个数字把电动车续航概括了,他一定是不专业的,是不懂装懂的。

查看全文 —— 蔚来联合创始人、总裁秦力洪

我们(联想)是极少数能够统一利用所有智能化要素资产的公司。

查看全文 —— 联想董事长 CEO 杨元庆

在数据为王的时代里,危害着人们核心权益的风险源于立法者是科技「文盲」,以及计算机科学家对法制政策的无知。

查看全文 —— Susan Crawford,哈佛大学法学教授