社交媒体已经坏掉了,尤其是 X 和 YouTube
社交媒体已经坏掉了。 至少在我能观察到的范围里,X(旧 Twitter)和 YouTube 明显已经坏掉了。
这里说的“坏掉”,指的是:
- 算法过度追求最大化用户注意力,
- 结果把极端、偏颇的信息放在事实之前,
- 并形成了让谣言和阴谋论更容易扩散的结构。
当然,社交媒体并不是完全没有用。 作为娱乐,它现在仍然有有趣的一面;作为获取信息和沟通的场所,也还有一定价值。 但是我觉得,正是这种“有趣”和“成瘾性”,让“坏掉了”这个问题变得更严重。
坏掉的是首页和推荐
在 X 上,就是 For You 里显示的帖子。 在 YouTube 上,就是被推荐的视频。 两者都会根据用户兴趣优化首页内容,而且设计上就是让你不可避免地看到它们。
问题并不在于某一条帖子或某一个视频本身是好是坏。 真正的问题,是让谣言容易扩散的机制,也就是架构。
X 上发生的事:猜测如何变成“事实”
在 X 上,围绕某个事件,谣言常常会沿着这样的路径扩散:
- 某个人发布一条包含猜测的帖子。
- 一部分关注者产生共鸣,把“猜测”当成“断言”转发或引用。
- 帖子触达更多人,新的猜测和情绪化评论被不断加入并继续扩散。
- “既然这是这么坏的人,攻击他就是正义”这样的语气出现,主张也越来越激烈。
这一过程又叠加了算法的问题。
- 这些帖子会根据用户兴趣显示在 For You 中。
- 人总会忍不住去看,内容越激烈越吸引眼球。
- 一旦看过,算法就会判断“这个人喜欢这种帖子”,然后反复显示类似内容。
- 与事实无关的偏颇意见不断进入视野,就会让人感觉它好像就是事实。
这是社交媒体机制和人类认知脆弱性结合后的结果。
YouTube 也有同样的问题
YouTube 基本上也是同样的结构。 甚至因为视频这种形式具有以下特点,问题可能更严重:
- 更容易让人上瘾,
- 更容易被感觉成“真实”。
例如:
- 看过一次阴谋论类视频,
- 推荐里就会不断出现相似主题的视频,
- 不知不觉就会相信“世界就是这样运转的”。
视频通过声音和画面传递信息,所以比文字更容易显得有说服力。 也正因为如此,一旦陷进去,就更难脱身。
对孩子和老年人的影响
这个问题对孩子和老年人尤其严重。 元认知尚未充分发展的孩子,以及信息素养容易下降的老年人,都更容易被这种谣言欺骗。
对孩子的风险
看着我自己十岁左右孩子的状态,我觉得他们仍处在会很直接地吸收和学习各种事物的阶段。 他们还没有足够的能力独立判断信息真假。
在这个阶段,把他们放进一个不断通过“推荐”流入偏颇信息的环境里,坦率地说很危险。 所以我现在还不能让他们自由使用社交媒体。
将来,如果他们能够自主地审视信息,保持怀疑,同时又不过度悲观,也许就可以把社交媒体交给他们。
但是 YouTube 只要点一下就能看。 如果父母无法妥善管理,孩子就会不断自己看下去。 这是非常大的问题。
对年迈父母的风险
另一方面,对年迈的父母来说,社交媒体也正变成一个麻烦的问题。
如果对自己的判断力过于自信,又缺少对 YouTube 算法的理解,就更容易沉迷于带有阴谋论色彩的视频。
一旦相信“世界就是这样的”,家人再怎么说明也很难听进去。 这类例子在身边也并不少见。
那么应该怎么办
这是一个非常困难的问题,但仍然有一些可以做的事。
自己可以做的事
- 不要过度依赖 For You 和推荐,要养成自己搜索并确认多个信息源的习惯。
- 看到极端主张或情绪化帖子时,先停下来想一想:“这是真的吗?”
- 当眼前总是出现同一种主张时,要有意识地接触不同立场的信息。
作为社会应该思考的事
- 需要要求平台提高算法透明度,并加强抑制谣言扩散的机制。
- 在家庭和学校中更积极地引入媒体素养教育也很重要。
- 创造能和不同意见的人交流、从多样视角思考的场所也很重要。
社交媒体已经坏掉了。 尤其是 X 和 YouTube,算法与人类认知偏差结合在一起,形成了让谣言更容易扩散的结构。
但是,完全避开社交媒体并不现实,本身也不是解决方案。 重要的是理解它的机制,并有意识地选择自己和家人如何与它相处。
坏掉的不只是社交媒体。 我们与信息相处的方式,也需要一点一点更新。 否则,我觉得我们的世界会继续坏下去。