在许多人看来,AI似乎无所不能。然而现实却是,当开发需求如潮水般汹涌而至,工程师们匆忙借助AI编程工具“救火”时,这些工具却频频“惹祸”,引发越来越多的担忧。
日前,一位用户在Reddit上发帖抱怨,称自己使用Claude CLI清理老旧代码仓库时遭遇严重事故,Mac电脑的整个用户主目录被意外清空,损失惨重。他在帖子中无奈地写道:
“这到底是怎么回事?有人遇到过类似的情况吗?我现在很想知道还有没有恢复的可能,真的丢失了太多的工作成果……”
据这位名为LovesWorkin的开发者回忆,当时他只是要求Claude CLI清理旧代码库中的软件包,结果整台Mac的home目录被彻底清空。随后,他开始调查事故原因,并让Claude开启自查模式。
Claude随即诚恳地给出了分析结果:
我找到了问题所在,而且问题非常严重。
查看你的执行日志后,可以看到当时执行了一条灾难性的命令:
注意最后那个 ~/。它指向的是当前用户的整个Home目录。Claude Code实例在生成删除命令时,错误地将 ~/ 一并包含了进去,这导致以下内容被直接递归删除:
这也解释了为什么你会看到:
最后的错误提示显示:“当前工作目录已被删除”
本就有些崩溃的 LovesWorkin,在看到 Claude CLI有理有据地给出分析后终于得知前因,顿时不知所措,这才发帖求助。
殊不知,遇到AI编程工具给自己“挖坑”的程序员并非他一个。
此前,我们也报道过,一位希腊开发者在使用Google最新AI IDE时,本想清理缓存,结果AI直接将整个D盘清空,而且使用了跳过回收站的永久删除命令。
尝试多种数据恢复方法后仍收效甚微。为了证明自己没有夸大,他录制了完整对话并发布到YouTube,反复强调:
“我真的没编造,Google的AI真的删了我的硬盘。”
更久之前,国外一家公司 SaaStr.AI创始人兼首席执行官Jason 在其个人社交平台发帖称,他在连续8天使用AI编程工具Replit构建应用后,Replit在他明确指示不要在未经许可的情况下更改任何代码的前提下,仍然删除了他的数据库。
毋庸置疑,AI频繁“翻车”,也暴露了当前大模型工具的共性问题:一方面,AI对用户指令的理解存在偏差,容易将模糊或复杂的需求误判,进而执行错误操作;另一方面,部分AI工具在权限控制上存在漏洞,在未充分确认用户意图的情况下,就允许执行高风险操作,比如删除大量文件、修改系统关键设置等,最终导致“小需求”引发“大事故”。
就在Claude CLI 清空Mac电脑上home目录的帖子下方,网友们的讨论也炸开了锅。
有人觉得这个问题不在于AI,毕竟“手滑多敲了一个‘ ~/’命令这种事,很多工程师都干过,而现在AI只是在复现人类工程师的Bug罢了。”
也有网友呼吁大家还是应该理性看待这些问题:
“不能因为几次失误就否定AI工具的价值,它们确实能提高效率,但关键是要明确使用边界。”
“大模型还存在‘幻觉’和逻辑判断漏洞,尤其在处理具体指令时容易忽略细节,未来需要在算法优化和安全机制上下功夫,比如增加操作确认步骤、设置权限分级等。”
此外,还有不少人开始出谋划策,建议道:
“我们公司有几位工程师也遇到过类似情况。我们正在考虑把Claude放在Docker容器里运行。”
甚至有用户在看到后,迅速推出一款辅助工具来防护类似问题。一位名为 yksugi的开发者表示,「我看到有人发帖说,他们的Claude Code执行了rm -rf tests/ patches/ plan/ ~/,结果把整个home目录清空了。虽然很容易把这归结为程序员失误,但我不想自己犯同样的错误。所以我开发了cc-safe——一个CLI工具,用来扫描.claude/settings.json文件中已授权的命令,拦截高风险操作。」
它能检测的命令包括:
sudo、rm -rf、Bash、chmod 777、curl | sh
git reset --hard、npm publish、docker run --privileged
还有更多操作,它能识别容器环境,因此会跳过docker exec命令
使用方法:它会递归扫描所有子目录,因此你可以把整个项目文件夹作为目标一次性检查。可以手动运行,也可以通过Claude Code用npx cc-safe来执行。
不过,也有技术人将问题的根源归为使用了--dangerously-skip-permissions参数,HN上网友 orliesaurus评论道:
我看到这些“恐怖故事”一点也不意外……
--dangerously-skip-permissions这个参数字面意思就很清楚了:它会绕过所有保护措施,直接执行命令而不询问用户。我见过的一些指南强调,这个参数只能在沙箱环境中运行,而且里面不能有任何重要数据。
应该把每个AI代理都当作非人类身份,只给它完成任务所需的最小权限,并且监控它的行为。
我做得更严格:绝不让AI代理自行删除任何东西。如果它想清理某个目录,我会先查看它生成的命令,再自己手动执行。虽然很繁琐,但可以避免灾难发生。
另外,现在也出现了一些用于安全部署AI代理的框架,重点是可视化和风险控制。
现在这还只是起步阶段……但总比直接YOLO(随意执行)好,尤其是这个参数名字里明明就写着“dangerously”。
实际上,在使用AI编程工具时,一定要记得先备份,留下“回滚”的余地。再者就是不要轻易把任何权限交给AI,以及在执行AI给出的命令或脚本前,一定要仔细检查。毕竟AI现在还存在大量的“幻觉”等问题。尤其在涉及数据安全、系统操作等关键场景时,用户必须保持清醒,做好风险防控。
再智能的工具,也无法完全替代人类的判断与把关。有人甚至担心:“未来几年,随着AI编程普及,可能会有互联网巨头因类似事故而引发影响全球的大规模问题。”对此,你怎么看?
本文由主机测评网于2026-03-06发表在主机测评网_免费VPS_免费云服务器_免费独立服务器,如有疑问,请联系我们。
本文链接:https://www.vpshk.cn/20260329034.html