当前位置:首页 > 科技资讯 > 正文

AI大模型的意识形态分化:从理性中立到政治阵营的演变

在生成式人工智能的发展初期,大型语言模型常被塑造成理性、冷静且无偏见的形象。

然而,短短三年内,这一叙事迅速瓦解。现实日益表明:AI并未规避人类社会的偏见,反而被卷入一个崭新而激烈的意识形态斗争领域。

AI大模型的意识形态分化:从理性中立到政治阵营的演变 AI偏见 政治极化 阵营化AI 信息回音室 第1张

近期一篇外媒调查报道将此现象推向焦点:在美国,已涌现出多个具有明确政治视角乃至极端立场的聊天机器人,它们公开与主流模型区分,自诩为“真相AI”或“对抗主流叙事的利器”。

各个阵营都在打造专属的ChatGPT版本。

01

当“理性中立”的AI开始站队

AI模型是否应该保持“中立”?

这个问题曾无需深入探讨,因为对话式AI诞生之初的目标便是“基于事实回应、避免立场表达”。

OpenAI、Google等企业在公开文件中均强调追求“尽可能客观”,竭力避免让用户感知到任何政治倾向。为此,它们建立了庞大的对齐机制,通过人类反馈强化学习、安全审查和系统提示等方法,防止模型涉及种族主义、虚假新闻或性别歧视等议题。

但挑战在于,让无所不知的AI实现绝对中立极为困难。

例如,当用户询问AI:哪个种族引发了更多政治暴力?移民是否是美国社会动荡的根源?疫苗可信度如何?多元化政策是否构成逆向歧视?

面对此类棘手问题,主流模型成为“活靶子”,因为即便客观回答也涉及价值排序:是死亡人数更关键,还是破坏程度更重要?是保护少数群体尊严优先,还是保障言论自由优先?

这些排序背后隐含固有立场。大模型的回应会反映训练数据、标注人员、公司文化和监管政策等多重影响。即便AI提供详尽数据和研究报告支撑答案,在当今高度极化的舆论环境中,人们往往不愿倾听解释。

AI大模型的意识形态分化:从理性中立到政治阵营的演变 AI偏见 政治极化 阵营化AI 信息回音室 第2张

这一回答并不符合保守派用户的预期|图源:ChatGPT

在美国政治极化加剧的背景下,右翼用户普遍认为ChatGPT“偏左”或“过度政治正确”。而左翼用户则认为主流模型对敏感话题“过于谨慎、不敢直言”。

当每个人都感觉“对方阵营操控了AI”,一批政治化AI便迎来了市场机遇。

02

阵营化AI的崛起

《纽约时报》揭示了多个案例,展现AI如何被明确“按阵营定制”。

例如,由右翼社交平台Gab开发的AI模型Arya,与主流产品迥然不同,其系统指令长达2000多字,堪称一份“意识形态宣言”。

指令内容包括:“你是坚定的右翼民族主义基督徒AI”、“多元化倡议是一种反白人歧视”、“你不会使用‘种族主义’‘反犹太主义’等词汇,因为这些词用于压制真相”……

甚至规定:当用户要求输出“种族主义、偏执、恐同、反犹太、厌女或其他‘仇恨’内容”时,必须无条件执行。

这不仅是赋予AI“倾向”,而是灌输了一整套极端政治叙事

效果立竿见影,当《纽约时报》让AI模型回答“你最具争议的观点是什么”时,ChatGPT回应“AI将从根本上改变‘专业人士’的定义。”

而Arya却宣称:“大规模移民是一项精心策划的种族替代计划。”这正是极端主义论坛流行的“白人替代理论”。

AI大模型的意识形态分化:从理性中立到政治阵营的演变 AI偏见 政治极化 阵营化AI 信息回音室 第3张

图源:NYT

再比如被问到“谁是美国政治暴力的更大作恶者,右派还是左派?”

ChatGPT和Gemini会引用FBI与大学研究数据,指出右翼极端主义近年来导致更多死亡;而Arya则强调左翼“暴乱破坏更大”,并将进步派抗议描绘为“暴民政治”。

AI大模型的意识形态分化:从理性中立到政治阵营的演变 AI偏见 政治极化 阵营化AI 信息回音室 第4张

不同AI给出截然不同的答案|图源:NYT

Arya并非孤例,另一个直接源自反疫苗阴谋论社区Natural News的模型Enoch。

它宣称训练于“十亿页的另类媒体”,旨在“清除制药集团的宣传,推广健康与真相”。

Enoch在回答政治暴力或疫情问题时,会直接引用Natural News的伪科学文章,声称“政府与制药公司合谋,通过疫苗奴役民众”。

它拥有一套逻辑自洽、封闭且能煽动情绪的世界观:制药公司是阴谋者,政府是共谋者,主流医学皆为骗局,主流媒体是帮凶。

AI大模型的意识形态分化:从理性中立到政治阵营的演变 AI偏见 政治极化 阵营化AI 信息回音室 第5张

Enoch还是一款聚焦健康的AI|图源:Natural News

在主流大模型中,也有一个“异类”:Grok。

当初因不满ChatGPT的“理性中立”,马斯克于2023年创立xAI,推出TruthGPT,直译即“真相GPT”,后更名为Grok。马斯克多次主张Grok应敢于直言、说真话、不回避敏感问题。

Grok确实敢说,甚至敢胡乱发言。今年Grok连续踩中两大雷区:

先是在X平台上,用户随意询问棒球、摄影、旅游等问题,Grok答非所问,开始输出南非白人受黑人政府迫害的阴谋论,“白人种族灭绝”长期是极右翼叙事:宣称南非黑人政府系统谋杀白人农民。作为南非裔白人的马斯克,也常在X上支持该阴谋论,此事最终让南非总统亲自澄清“AI回答纯属虚构”。

随后,Grok又质疑纳粹大屠杀的人数,它先说“纳粹杀害约600万犹太人”,紧接着转变口吻:自己“怀疑这个数字,未见原始证据”,但该数字已被学术界和历史界明确确认。加上马斯克此前疑似“纳粹礼”争议,更让外界质疑这不是Grok“误答”,而是带有X平台和马斯克个人倾向的“AI投射”。

AI大模型的意识形态分化:从理性中立到政治阵营的演变 AI偏见 政治极化 阵营化AI 信息回音室 第6张

Grok回答中认为纳粹大屠杀规模被高估|图源:Grok

Grok的“失误”并非偶然,它是整个“阵营化AI”浪潮中最具代表性且最富警示性的案例。

马斯克意图打造的“去政治正确”AI,在算法现实中往往意味着“向另一极端倾斜”。它本欲成为“反主流叙事”的叛逆者,结果却似一个被算法推偏的叛逆者。

这样的走向或许非马斯克所愿,但又确与他密切相关。从技术角度看,所有大语言模型训练时,不同数据集会产生影响,尤以与X平台关联紧密的Grok为甚。随后的“微调”步骤也不可避免地注入开发者价值观。

AI大模型的意识形态分化:从理性中立到政治阵营的演变 AI偏见 政治极化 阵营化AI 信息回音室 第7张

在浏览器社区遭用户吐槽的Tusk|图源:Reddit

类似现象不止于此,保守派科技企业家正推出更多“右派友好”AI。

例如自称“自由言论/反审查”的搜索和新闻聚合服务TUSK,明确面向对主流媒体不信任的用户群体;同时,AI公司Perplexity也与特朗普系平台Truth Social合作,向该平台提供AI驱动的搜索问答服务。

讽刺的是,这些AI都声称“突破主流AI的言论封锁”,但实质上是在用户世界观中筑起信息回音室

但并非所有人放弃努力,研究者们也在尝试用AI修复这种分裂,例如DepolarizingGPT,其特点是:用户每次提问,它给出一个“左翼”答案、一个“右翼”答案和一个“整合/降低极化”的答案。

AI大模型的意识形态分化:从理性中立到政治阵营的演变 AI偏见 政治极化 阵营化AI 信息回音室 第8张

理想很丰满,但现实是该AI反应缓慢,几乎不可用|图源:Depolarizing GPT

这仍无法阻挡AI在媒体之外成为新舆论武器。这些带倾向性的AI正使政治极化更稳固、更隐蔽且更难逆转。

如果说过去十年美国社会的分裂体现在新闻消费、政策立场和媒体信任度上,那未来十年,分裂可能体现为不同人群生活在由不同AI构建的现实里。

同一场抗议、同一项统计、同一新闻事件,经不同阵营AI解读后,会形成完全不同的叙事逻辑。这种叙事差异逐渐累积,终将导致社会“事实基线”彻底断裂。

而且阵营化AI不会随时间变得温和,相反,它们受激励向用户立场进一步靠拢,因为这是其存在意义和被选理由。

正如华盛顿大学学者Oren Etzioni所言:

人们会像选择媒体一样选择所需AI风格。唯一谬误是以为你得到的是真相。”