

抨击丑恶,藿香正气!#
这不是藿香正气的广告(
中文限定
本文讨论一种高度制度化的信息治理框架如何在三个层面共同作用:平台管控(以“价值导向、算法、合规”三位一体为核心)、情绪动员(把注意力从争议转向可控的愤怒与日常庆典)、以及记忆重写(通过技术与规章把不利叙事的记忆篡改)。
文章以公开法规与同行评审研究为证据,说明这种环境如何让创新协作与知识累积出现幼稚化倾向。文中仅在极少处借用《一九八四》的少量概念作分析隐喻。
把“正确”写进算法#
互联网平台从来不是中立的信息管道,而是被制度性地要求成为价值观的传播者。
例如算法推荐管理规定要求平台坚持主流价值导向,积极传播“正能量”,并对首页首屏、热搜、榜单等位置的呈现做出刚性要求。同时明确监管部门的统筹、抽检、处罚与具社会动员能力服务的报备/撤销机制。
就连生成式AI这样的新技术,从诞生之初就被写入了合规的“基因”里。
训练数据要可控,生成内容要打标,服务要备案,一切都稳中向好,从源头上就倾向于过滤掉复杂与不确定。
可控的愤怒#
哈佛大学的一项经典研究揭示了稀释策略的规模。
研究估计,每年有近 4.5 亿条政府背景的社媒帖子被制造出来,它们的目的并非与网民辩论,而是用海量的、看似无害的日常内容(如美食、旅行、生活点滴)来转移注意力,把真正具有争议性的话题淹没掉。
与之并行的,则是对民族主义情绪的引导。
情绪时常被按需放大或抑制,在需要凝聚内部、或是在特定外交场景下,它会被默许甚至鼓励,成为一种可以被动员的工具。当其可能威胁国内稳定时,又会被迅速降温。
错误的记忆#
如果说算法控制了当下,那么对记忆的改造则控制了过去。对集体记忆的抹除并非都市传说,而是有明确技术流程的。
多伦多大学“公民实验室”的研究,系统性地记录了不正确记忆早期信息被封锁的过程。
从最初的吹哨,到后续的公共讨论,大量关键词(包括批评、中性描述乃至事实本身)在社交平台上被精准清除。
对特定人物和事件的叙事,也在持续地被修正。
这种记忆工程的背后,是一套日益成熟的技术与法规。用户账户的强实名制,让每个人的言论都与身份牢牢绑定。
而算法、深度合成等管理规定,则将内容可追溯变成了平台的法定义务,于是,删除、封号、溯源,是基本操作。
猪圈#
当新话成为主流,当情绪的宣泄取代了严谨的论证,当每一次逆风发言的风险都被无限放大时,整个社会的知识生产模式便会不可避免地走向幼稚化。
这种趋势并非危言耸听。在“自由之家”等跨国组织的年度报告中,网络自由度已连续多年排名垫底(2024年得分仅为9/100),新闻与言论环境被评为“非常糟糕”。
更深层的影响在于创新,当获取境外学术资源变得困难,当平台内部的讨论充满敏感词,知识的自由交换与碰撞便会大大减少。这直接影响了从发现问题到验证假设的整个科研链条。
- The Citizen Lab (Univ. of Toronto). (2020). Censored Contagion I/II. The Citizen Lab ↗
- Freedom House. (2024). Freedom on the Net 2024. https://freedomhouse.org ↗