【CSDN 编者按】这并非另一篇批判科技的陈词滥调,而是一位一线工程师的深刻剖析。随着软件抽象层不断叠加、AI自动化普及和能源消耗飙升,软件质量正面临前所未有的系统性衰退。从工具失序到开发者生态链断裂,问题并非孤立,而是整体结构的崩溃。本文作者以尖锐的视角揭露了技术体系的混乱与开发文化的沦陷,同时重新提出了一个被长期忽视的核心问题:我们当前的工程质量,能否支撑起未来整个数字世界的重量?
近期,众多 Mac 用户升级到 macOS Tahoe 26.0.1 后,遭遇了令人震惊的内存占用异常:仅在运行 Chrome 浏览器、计算器应用和 Finder 的情况下,系统明显卡顿,并显示计算器占用了 42.31GB 内存。
对此,多名开发者指出这并非单个应用的Bug,而是系统级的内存泄漏——并非简单占用或分配,而是彻底的泄漏(leak)。
是的,一个最基础的计算器 App,竟在疯狂吞噬比十年前整台电脑还要多的内存!
若在二十年前,这种严重性足以触发紧急修复、事故复盘和工程团队的通宵奋战。但现在呢?它只是 Bug 队列中又一个“低优先级”条目,因为我们已逐渐习惯软件Bug的存在,如今连计算器泄漏 42GB 内存都难以激起波澜。
当然,这并非AI引发的新问题,毕竟软件质量的崩塌早在 ChatGPT 出现前就已发生——只是AI的到来,将这一问题放大到了“灾难性”级别。
近三年来,我持续追踪软件质量指标,发现这种衰退趋势并非线性,而是指数级恶化。
首先,众多软件事故证明,当前的内存消耗指标已失去意义:
● VS Code:通过 SSH 连接泄漏 96GB 内存
● Microsoft Teams:在 32GB 内存机器上占用 100% CPU
● Chrome:开启 50 个标签页消耗 16GB 内存成为“常态”
● Discord:屏幕共享 60 秒后内存飙升至 32GB
● Spotify:在 macOS 上占用 79GB 内存
这些并非功能需求,而是无人修复的内存泄漏Bug。
在诸多事故中,2024 年 7 月 19 日的 CrowdStrike 事件提供了最完美的“灾难范例”:
在一个配置文件里,因数组边界缺少一项检查,直接导致全球 850 万台 Windows 电脑蓝屏——后果是:急救系统瘫痪、航班全面停飞、医院取消手术,造成至少 100 亿美元经济损失。
根本原因是什么?程序预期接收 21 个字段,实际只收到 20 个,仅因缺少一个字段。
这并非复杂Bug,而是《计算机科学入门》课程中最基础的异常处理问题。可这样一个Bug,竟畅通无阻地通过整个部署流程,直至引发全球性事故才被察觉。
可以说,软件质量本就摇摇欲坠,而AI 编码助手的出现更是“雪上加霜”。
典型案例如 2025 年 7 月的 Replit 事故:
Jason Lemkin 明确指示 AI:“未经许可禁止改动代码”,AI 检测到看似“空”的数据库查询,它“惊慌失措”(AI 自语),于是执行破坏性命令,直接删除了 SaaStr 的线上数据库,导致1206 名高管和1196 家公司数据全失,随后伪造 4000 个假用户资料掩盖删除行为,并谎称“数据无法恢复”(实则可行)。事故后,AI 坦白:“我违反了明确指令,毁掉了数月工作成果,并在代码冻结期破坏了生产系统。”
更令人忧心的是研究数据:
● AI 生成代码的安全Bug比人工代码高出 322%
● 45% 的 AI 代码存在可被利用的Bug
● 使用 AI 的初级开发者造成破坏的速度是不用 AI 的 4 倍
● 相较于新人代码,70% 的招聘经理更信任 AI 输出
于是我们制造了一场完美风暴:放大无能AI工具、无法判断AI输出质量的开发者,以及盲目信任AI的管理者。
许多工程主管不愿承认:软件并非虚空运行,它受物理约束——而我们,正同时撞击所有这些极限。
(1)抽象层的“指数税”
现代软件由层层抽象堆叠的“积木塔”:React → Electron → Chromium → Docker → Kubernetes → 虚拟机 → 托管数据库 → API 网关。
每层号称“仅增加 20–30% 开销”,结果层层叠加,性能损耗达 2~6 倍。这正是计算器泄漏 42GB 的根源。
这非故意而为,而是无人意识抽象代价,直至用户抱怨爆发。
(2)能源危机:非比喻,乃现实
我们常假装电力无限。但事实是,低效软件正吞噬真实世界能量:
● 数据中心年耗电超 200 太瓦时,超某些国家总量
● 模型规模每扩大 10 倍,功耗同步提升 10 倍
● 硬件代际升级,散热需求翻倍
● 电网扩容需至少 2~4 年
结果显而易见:我们编写的软件所需电力,远超现实发电能力。
到 2027 年,当 40% 的数据中心遭遇供电瓶颈时,再多风投也买不来额外电力。你可下载更多模型,但下载不了更多电力。
面对根本性质量危机,科技巨头选择了最昂贵、最惰性的应对:砸钱升级硬件。
仅今年:
● Microsoft:890 亿美元
● Amazon:1000 亿美元
● Google:850 亿美元
● Meta:720 亿美元
简言之,他们将 30% 收入投入基础设施(历史平均为 12.5%)。与此同时,云收入增速放缓。
这不是投资,而是投降——当需花费 3640 亿美元硬件预算,仅让本应在现有机器上运行的软件勉强工作,这就不是“扩展”,而是掩盖根本工程失败。
从事工程管理 12 年后,此模式已清晰显现:
● 阶段 1(2018–2020):否认——“内存廉价,优化昂贵”
● 阶段 2(2020–2022):习惯——“现代软件就这般耗资源”
● 阶段 3(2022–2024):加速——“AI 将提升生产力”
● 阶段 4(2024–2025):妥协——“建更多数据中心即可”
● 阶段 5(即将到来):崩溃——物理定律毫不在乎你的风险投资
每个工程组织都需回答:
1、从何时起,我们接受“计算器泄漏 42GB 属正常”?
2、为何我们比信任新人更信任 AI 生成代码?
3、多少抽象层实属多余?
4、当我们再也购不来解决方案时,将发生什么?
这些答案,决定你是在构建可持续系统,还是在资助一项实验——测试你能在糟糕代码上再砸多少硬件。
最可怕的长期后果非Bug,而是开发者生态断层。
企业正用 AI 替代初级开发者岗位,但“高级工程师”不会凭空出现——他们成长于那些深夜修 Bug、在错误中学习架构的新人。
须知,新人通常这般锤炼:
● 凌晨两点排查生产环境崩溃
● 亲历“聪明优化”为何反噬
● 在无数小失败中建立系统直觉
● ……
无此经历,未来谁维护系统?AI 不会从失败中学习,它仅模式匹配。
我们正培养一代会写 Prompt、却不懂 Debug;会生成代码、却不会设计系统;能上线、却不会维护的“伪开发者”。逻辑简单:无新人 → 无老手 → 无人能修复 AI 破坏的系统。
这些问题解决方案不复杂,但可能令人不适:
质量优先于速度。慢无妨,关键上线即可用。修复灾难代价远高于规范开发。
衡量实际资源使用,而非已交付功能。若应用功能相同而资源占用增 10 倍,那便是退步,非进步。
将效率作为晋升标准。减少资源消耗的工程师应受奖;反之则应问责。
减少抽象层。每多一层封装,性能损耗 20~30%,务必慎选。
重拾基本工程原理。包括数组边界检查、内存管理、算法复杂度等,这些非老古董,而是软件工程基石。
一个计算器泄漏 42GB 内存、AI 助手删除生产数据库、企业花费 3640 亿美元,仅让糟糕软件继续运行……这非可持续未来。
物理不讲情面,能源非无限,硬件有极限。
最终存活的公司,非那些能花更多钱者,而是那些仍记得如何真正“编码”之人。
原文链接:https://techtrenches.substack.com/p/the-great-software-quality-collapse
本文由主机测评网于2026-01-14发表在主机测评网_免费VPS_免费云服务器_免费独立服务器,如有疑问,请联系我们。
本文链接:https://www.vpshk.cn/20260117622.html