近期,硅谷科技圈被「死亡互联网理论」所刷屏,OpenAI创始人Sam Altman和Reddit联合创始人Ohanian等业界领袖纷纷发表看法。他们指出,失去真实性的网络等同于死亡,而AI生成内容正席卷社交平台,覆盖图片、视频到自动化评论。互联网的未来关键在于重拾「真实」的信任与温度,而非单纯的真假之争。
随着AI内容淹没互联网,人类创作的内容日益缩减,网络生态面临严峻挑战。
「如今的互联网,大部分已经死了」,Reddit联合创始人Alexis Ohanian近日一语惊人,引发广泛共鸣。
Reddit联合创始人Alexis Ohanian
他所谓的「互联网死亡」并非指网络关闭,而是指网络被铺天盖地的AI生成内容所淹没,失去了真实的生命力。
Ohanian的观点并非空穴来风。
曾经汇聚人类真实思想和交流的网络空间,如今正被大量AI生成的内容占据:
用户看到的热帖、阅读的文章,甚至与之争论的「网友」,都可能并非人类,背后或许是算法与AI的「回声」。
AI生成内容的无序扩张,持续蚕食互联网的真实性。
旅行类大V Chris Broad在X平台上表示,「死亡互联网理论」已变为「死亡互联网现实」:
每天都有普通人发消息,推荐一些根本不存在的地方,这些地方源自Facebook、Instagram和Twitter相关主题账号或页面……这些帖子通常包含完全虚假的AI照片,评论区还有机器人账号盲目称赞。
Chris Broad提醒用户谨慎关注和点击内容。「要知道,大多数页面、内容以及粉丝数量,都被人为夸大。」
网友Swarn也提到经常刷到疑似AI生成的推文,他通过内容中「突然转折、刻意堆砌词汇、借用隐喻」等特征识别「AI味」。
Goddess预测下一年「死亡互联网理论」会愈发受关注,因为并非所有社交媒体账号都代表真实的人。
这股热潮甚至惊动了OpenAI创始人兼CEO Sam Altman。
Sam Altman认为「死亡互联网理论」有一定道理。他指出「现在确实存在大量由大模型驱动的Twitter账号」。
AI生成内容的泛滥,让Altman再度担忧「死亡互联网」理论的影响。
「死亡互联网理论」(DIT,Dead Internet Theory)传递核心态度:不真实,毋宁死。
它强调真实是互联网的生命——失去真实性,就等于宣告互联网「死亡」。
2021年,用户IlluminatiPirate在Agora Road论坛发帖提及「死亡互联网理论」,将其定义为「大多数互联网变得虚假」。
随着互联网社会发展,「死亡互联网理论」思潮在网络论坛和社区流行,驱动因素正是「真实感」的逐渐丧失:
现代互联网玩法多样,但真实感却日益缺失。
早期互联网有机、用户驱动的特性慢慢消失,取而代之的是依赖计算机生成内容以维持活动和参与度。
生成式AI的出现,为「死亡互联网理论」提供更多「现实支撑」。
因为生成式AI更似人类,被广泛应用于社交媒体放大点赞、评论和分享数据。
就连Sam Altman这位让ChatGPT风靡的「AI之父」,也被铺天盖地的「程序味儿」困扰,他吐槽Reddit上的AI腔调(LLM-speak),认为这让互动「感觉很假」。
从早期互联网到社交媒体时代,再到生成式AI浪潮,真实互联网逐渐被AI主导的互联网取代,「技术登月」增多,真实感却减少。
换言之,「死亡互联网」理论的市场不断扩大。
如今,AI浪潮如火如荼,按下「互联网死亡」加速键,并带来升级版本。
据Cloudflare长期监测,机器人流量约占整体应用流量31%,在部分地区和时段阶段性超越人类访问。
Imperva在2025年版《Bad Bot Report》指出:自动化流量在2024年达51%,其中「坏机器人」占比升至37%。
「坏机器人」在生成式AI时代更突出,因它们更善于伪装人类行为。
它们可能在社交媒体生成空洞评论,也可能被恶意用于制造虚假页面浏览量、用户互动和使用时长,扭曲公司业绩数据。
生成式AI不止活跃于社交媒体,还逐步接管人类表达领域。
Graphite数据记录这一里程碑时刻:
2024年11月,网络AI生成文章数量超过人类撰写文章数量。
据Graphite观察,自2022年11月ChatGPT推出,AI生成文章数量显著增长,但过去一年比例相对稳定,或因早期AI文章质量不佳。
但随着AI文章质量提高,且其速度高、成本低,未来AI文章数量将稳定增长。
这意味着,AI生成内容增长不仅改变信息来源结构,也重塑网络生态真实感「基线」,可能带来AI时代「互联网死亡」升级版——模型崩溃。
https://arxiv.org/pdf/2305.17493
牛津大学等研究机构在《递归的诅咒(Curse of Recursion):在AI生成数据上再训练会导致模型遗忘》论文中理论证实此点。
AI时代真正危机是模型崩溃。
在大模型使用生成数据继续训练的递归过程中,模型会慢慢「忘记」原始人类语言分布细节,尤其是少见或边缘模式。
模型逐渐丢失多样性,沦为一切趋于平庸的同质化,最终出现模型崩溃(Model Collapse)。
这好比把照片在上一代复印件上不断复印,清晰度逐渐下降,最终变成模糊、缺乏细节的照片。
当更多AI内容成为训练数据,可能带来模型能力下降,产生更多劣质AI内容,这些内容再训练出更差模型,最终导致模型崩溃。
从互联网「死亡」到模型「崩溃」,与技术发展同步的是「失真」演进。
Google CEO Sundar Pichai认为搜索引擎会被AIGC「深刻改造」,因此AI回答与人类内容协同将成为主流交互范式。
Google CEO Sundar Pichai
英伟达CEO黄仁勋提出应把AIGC视作时代性通用技术,将无处不在地嵌入创作、工程与组织工作流。
随着AI渗透互联网和人类社会,AI生成内容将如Sam Altman预言,不可避免地增多。
这带来难题:如何区分AI和人类生成内容。
随着人类越来越多与AI合作,区分变得更加困难。
的确,人在工作中利用AI方式多样,如搜索、整理材料,因此很难明确说内容是否为AI生成。
实际上很多AI生成内容背后是人类引导、编辑、校正。
用加州大学洛杉矶分校计算机科学教授、亚马逊网络服务副总裁Stefano Soatto的话说,「二者更像共生关系,而非非此即彼。并非所有AI生成内容都是垃圾内容。」
在这种共生关系下,是否需要区分AI和人类生成内容?
Sam Altman认为,「好不好比是不是AI产出更重要」,但他也提出要有「可验证来源」与治理工具,以识别AI生成内容并提升信任。
Altman认为识别AI生成内容是为提升信任度,他曾多次提醒勿过度信任模型,因AI也会「自信地编造」。
同样,Anthropic CEO Dario Amodei也认为,需要科学方法和评估体系兜底,他认为虽然模型「胡说」频率可能低于人类,但出错方式更「出其不意」。
Elon Musk强调用AI检测/溯源合成视频与深伪,在平台层面构建「内容鉴别器」。
这点随AI技术发展变得尤为重要。
近日,Sora 2上线后短时间就有大量「以假乱真」视频在社媒流通,YouTube、Meta正通过「贴标」「降权/限变现」等方式,试图限制「AI灌水内容」扩散。
对于AI生成内容的监管也在多地加码。
比如,美国政府在2025年5月19日正式出台《TAKE IT DOWN 法案》,将故意发布或威胁发布非同意的亲密图像(包括 AI 生成的深度伪造)定为犯罪行为。
欧盟首部关于人工智能的法规《AI法案》明确合成内容必须标识、与用户交互需透明提示。
识别AI内容是为安全,避免AI噪声,但即便AI生成内容优于人类,这种区别仍必要。
因为相比较好坏,真实性永远更为重要。
不仅是互联网,即使AI时代数字生命,本质仍在于「真实」。
在人机共生时代,我们需要关注重点不在于人类与AI区别或优劣,而在于如何让AI服务于人类真实。
无论未来技术如何演进,人类仍需守住「真实」火种。
https://graphite.io/five-percent/more-articles-are-now-created-by-ai-than-humans%20%20
https://arxiv.org/pdf/2502.00007%20
https://x.com/AskPerplexity/status/1978587411803156942
本文由主机测评网于2026-01-11发表在主机测评网_免费VPS_免费云服务器_免费独立服务器,如有疑问,请联系我们。
本文链接:https://www.vpshk.cn/20260116783.html