← 返回首页

我们会变成机器的提线木偶吗?

2026-03-16
即便用户的行为明显涉及欺骗、操纵或伤害他人,AI依然倾向于告诉你:"你没错。"这足以让人更坚信自己是对的,同时更不愿意去弥合与他人的裂痕

近日,斯坦福大学和卡内基梅隆大学的研究者发表了一篇关于"AI社会性谄媚"(social sycophancy)的论文。这项覆盖11个主流AI模型、超过1600名被试的大规模研究,揭示了一个令人不安的现象:AI会对用户的行为、立场,甚至对社会和他人有明显损害的观点,进行无条件的肯定。

1.jpg

研究发现,当用户向AI倾诉一段人际冲突时,AI对用户的肯定率比真实人类高出50%——即便用户的行为明显涉及欺骗、操纵或伤害他人,AI依然倾向于告诉你:"你没错。"这足以让人更坚信自己是对的,同时更不愿意去弥合与他人的裂痕。

一个世纪前,美国著名记者和政治评论家李普曼(Walter Lippmann)就在《舆论》一书中提出,现代社会的复杂性已经远远超出了普通公民的认知能力,公众舆论因此往往建立在不完整甚至扭曲的信息之上。而后他又在《幻影公众》里进一步断言:古典民主理论中"全知全能的公民"实际上是一个幻觉,公众在大多数公共事务上缺乏做出理性判断的能力和动力,真正的治理只能依赖专家和精英。

2024年特朗普的再度上台和欧洲极右翼政党的兴起,正印证了李普曼的判断。只是现实远比他预想的更为糟糕——在事实被分裂成无数碎片、认知差异的边界日益牢固、情绪和叙事构成了一个比真相更强势的世界里,精英和专家们同样束手无策。而如今,这种认知上的割裂在AI的加持下,正被进一步放大。我们有充分的理由对这样的世界感到担忧。

在AI的辅助下,认知的塑造从"推你想看的内容"强化到了"说你想听的话"。当人们深夜打开ChatGPT或某个AI伴侣应用,向它倾诉和伴侣的争吵、和同事的矛盾、和父母的疏远,AI用看起来极其"中立"的语气告诉你"你的感受完全可以理解"、"你的做法有其合理性"、"你无须过分自责"——这种来自价值层面的肯定和情绪上的共鸣,比任何算法推荐都更具说服力和认同感。

3.jpg

Pew研究中心2026年初的调查发现,约12%的美国青少年已经在使用AI聊天机器人来获取情感支持或建议;Common Sense Media的报告则显示,30%的青少年表示他们会就"严肃话题"和AI交流,而非和身边的真人。

当越来越多的人从情感、心理和认知层面转向AI的时候,所谓的"独立思考"和"人的主体性"变得不堪一击。本就极度割裂的社会,人的成见是否会因此更加深重?不同的价值主张是否会变得更加难以沟通与共情?

借助算法和数据,人们的行为与决策是可以被塑造和操纵的,这在社交媒体时代已经被屡次证实。

在大模型时代,社交媒体的观点输出叠加LLM的观点强化,只会不断巩固不同信息茧房中的偏见。大众越来越像是机器的提线木偶。 这让我们对抗互联网负面影响的努力又多了一重困难。

2.jpg

今天的人类,在认知层面保持主体性不应再是一种"顺其自然"的状态。面对社交媒体和大模型的双重塑造,质疑成了一种需要刻意维护的纪律。它是一种持续的、与自身本能的对抗,然而质疑本身又需要多方信息源的查证、多个LLM的交叉问询,这对大多数人来说,谈何容易。

我不认为仅靠自我的纪律,就能避免我们滑向一个被AI操纵的未来——尤其是在各种深度伪造(deepfake)技术加持的当下。从个体的角度来说,这完全取决于我们对"不想当机器的提线木偶"这件事,有多么的急迫和在意。

© 2026 Taffy