社交媒体已经坏掉了,尤其是 X 和 YouTube

发布于 # AI 与互联网

社交媒体已经坏掉了。 至少在我能观察到的范围里,X(旧 Twitter)和 YouTube 明显已经坏掉了。

这里说的“坏掉”,指的是:

  • 算法过度追求最大化用户注意力,
  • 结果把极端、偏颇的信息放在事实之前,
  • 并形成了让谣言和阴谋论更容易扩散的结构。

当然,社交媒体并不是完全没有用。 作为娱乐,它现在仍然有有趣的一面;作为获取信息和沟通的场所,也还有一定价值。 但是我觉得,正是这种“有趣”和“成瘾性”,让“坏掉了”这个问题变得更严重。


坏掉的是首页和推荐

在 X 上,就是 For You 里显示的帖子。 在 YouTube 上,就是被推荐的视频。 两者都会根据用户兴趣优化首页内容,而且设计上就是让你不可避免地看到它们。

问题并不在于某一条帖子或某一个视频本身是好是坏。 真正的问题,是让谣言容易扩散的机制,也就是架构。


X 上发生的事:猜测如何变成“事实”

在 X 上,围绕某个事件,谣言常常会沿着这样的路径扩散:

  1. 某个人发布一条包含猜测的帖子。
  2. 一部分关注者产生共鸣,把“猜测”当成“断言”转发或引用。
  3. 帖子触达更多人,新的猜测和情绪化评论被不断加入并继续扩散。
  4. “既然这是这么坏的人,攻击他就是正义”这样的语气出现,主张也越来越激烈。

这一过程又叠加了算法的问题。

  • 这些帖子会根据用户兴趣显示在 For You 中。
  • 人总会忍不住去看,内容越激烈越吸引眼球。
  • 一旦看过,算法就会判断“这个人喜欢这种帖子”,然后反复显示类似内容。
  • 与事实无关的偏颇意见不断进入视野,就会让人感觉它好像就是事实。

这是社交媒体机制和人类认知脆弱性结合后的结果。


YouTube 也有同样的问题

YouTube 基本上也是同样的结构。 甚至因为视频这种形式具有以下特点,问题可能更严重:

  • 更容易让人上瘾,
  • 更容易被感觉成“真实”。

例如:

  • 看过一次阴谋论类视频,
  • 推荐里就会不断出现相似主题的视频,
  • 不知不觉就会相信“世界就是这样运转的”。

视频通过声音和画面传递信息,所以比文字更容易显得有说服力。 也正因为如此,一旦陷进去,就更难脱身。


对孩子和老年人的影响

这个问题对孩子和老年人尤其严重。 元认知尚未充分发展的孩子,以及信息素养容易下降的老年人,都更容易被这种谣言欺骗。

对孩子的风险

看着我自己十岁左右孩子的状态,我觉得他们仍处在会很直接地吸收和学习各种事物的阶段。 他们还没有足够的能力独立判断信息真假。

在这个阶段,把他们放进一个不断通过“推荐”流入偏颇信息的环境里,坦率地说很危险。 所以我现在还不能让他们自由使用社交媒体。

将来,如果他们能够自主地审视信息,保持怀疑,同时又不过度悲观,也许就可以把社交媒体交给他们。

但是 YouTube 只要点一下就能看。 如果父母无法妥善管理,孩子就会不断自己看下去。 这是非常大的问题。

对年迈父母的风险

另一方面,对年迈的父母来说,社交媒体也正变成一个麻烦的问题。

如果对自己的判断力过于自信,又缺少对 YouTube 算法的理解,就更容易沉迷于带有阴谋论色彩的视频。

一旦相信“世界就是这样的”,家人再怎么说明也很难听进去。 这类例子在身边也并不少见。


那么应该怎么办

这是一个非常困难的问题,但仍然有一些可以做的事。

自己可以做的事

  • 不要过度依赖 For You 和推荐,要养成自己搜索并确认多个信息源的习惯。
  • 看到极端主张或情绪化帖子时,先停下来想一想:“这是真的吗?”
  • 当眼前总是出现同一种主张时,要有意识地接触不同立场的信息。

作为社会应该思考的事

  • 需要要求平台提高算法透明度,并加强抑制谣言扩散的机制。
  • 在家庭和学校中更积极地引入媒体素养教育也很重要。
  • 创造能和不同意见的人交流、从多样视角思考的场所也很重要。

社交媒体已经坏掉了。 尤其是 X 和 YouTube,算法与人类认知偏差结合在一起,形成了让谣言更容易扩散的结构。

但是,完全避开社交媒体并不现实,本身也不是解决方案。 重要的是理解它的机制,并有意识地选择自己和家人如何与它相处。

坏掉的不只是社交媒体。 我们与信息相处的方式,也需要一点一点更新。 否则,我觉得我们的世界会继续坏下去。

关键词

  • # 社交媒体
  • # X
  • # YouTube
  • # 算法
  • # 信息素养