Anthropic联合创始人Dario Amodei此前在采访中预测,未来1至5年内,或许将有一半的白领职位面临消失,失业率可能攀升至10%到20%,尽管技术带来诸多益处。这一言论迅速引发了广泛关注。
近日,Dario与Anthropic另一位联合创始人Jack Clark在活动上透露了公司现状:内部工程师已不再亲手编写代码,而是通过管理大量AI代理系统来生成代码,在这种模式下,每人完成的工作量达到以往的2至3倍。
他们否认了因此导致员工失业,理由是公司仍处于高速发展期。Dario还提议政府向AI企业多征税,并表示这不会影响Anthropic的成长。
当Anthropic高管为公司全AI编码成果感到欣喜时,开发者社区却对此充满疑虑。
有人尖锐提问:如果AI写代码如此强大,为何Claude桌面客户端经常出现UI卡顿?还有人嘲讽道:这就是社区反馈了一个多月的“bug”才被察觉的原因?
“怀疑他们是否真正编写过代码、或使用AI从事过生产类工作。一人管理多个代理写代码很不现实,严重破坏工作心流,而且AI无法窥探产品全局和核心价值点,可能导致架构和代码完全偏离产品方向。不是说AI不好,而是它尚未达到革命性地步,至少没有想象中那么美好。”另有开发者评论道。
有过AI编程经验的开发者同样质疑:“我感觉这位联合创始人可能被员工蒙蔽了,实际用AI编过程序的人都清楚,要想获得满意结果,必须提供清晰的Prompt。而撰写一个精准的Prompt并非易事,还需要将想法分解为若干步骤,让AI逐步逼近需求。中间涉及参数调整,有时用AI帮忙反不如手动修改高效!”
Anthropic试图以自身案例证明AI的影响力,但多数人仍认为目前技术水平下AI只能辅助,全AI编码是胡扯,仅有少部分人表示惊叹。以下是这场对话的详细内容,我们在不改变原意基础上进行了精简,以飨读者。
主持人:为什么你们选择公开AI对就业影响的观点,而其他人却不愿谈论?
Dario:Anthropic决定公开此事,是因为我先前虽然在科技行业播客等有限场景中说过类似内容,但当我乘坐飞机前往旧金山、加州以外的城市时,看到身边普通人就会想:“我们没有准确向大众传达这项技术的能力、发展方向、它能带来的好处,以及应对不当可能造成的威胁。”
到达某个节点后,我认为这种“内外有别”是不对的。许多CEO私下会说“这是我们的计划”,其中一些是我们的客户,他们会提到“我们打算部署这项技术,它会对劳动力产生影响”。所以我们觉得必须站出来发声:解决问题的第一步,是诚实地告诉公众“这些问题的确存在”。
谈谈我对现状的看法和依据。Anthropic主要从两个维度观察:一是当下正在发生的事。我们做了很多经济指数相关工作,例如最近发布的“各州经济指数”,能让所有人看到不同州、不同地区的人们如何实时使用AI模型完成各种任务,无论是自动化替代还是辅助增强。外部研究已经显示出就业影响,比如Eric Bernolson等人的研究表明,入门级白领岗位已经收缩了13%,这在我预测范围内占了相当大比例。
但我更担心技术的未来走向。很多人会说“你担心AI抢工作,但AI现在还做不了这个、做不了那个”,可他们指的是“现在的AI”。技术发展太快了,我忧虑的是技术进步及其在社会中的普及,这也是我给出“1-5年”时间范围的原因。指数级发展的事物往往难以精准预测,可能比我想的快,也可能慢,甚至出现变数。但这件事发生的可能性足够高,所以我们认为有必要提醒世界,开诚布公地讨论它。
主持人:那是两个月前的事了,但这项技术的进步速度比我们当时预想的还要快。你现在比那时更担忧了吗?
Clark:我们在Anthropic内部做了调研,与130名工程师聊了他们过去一年使用AI的体验——他们的工作发生了翻天覆地的变化。很多人现在的工作量是以前的两、三倍,但他们已经不再写代码了,而是管理AI代理系统集群。他们说:“我的工作完全变了,我得重新思考自己在Anthropic的角色。”
当然,我们公司发展很快,他们不会失业,但技术的飞速演进确实在实时改变公司内部的工作模式。而AI公司正在发生的事,未来几年会在所有使用AI技术的企业中重演。
Dario:现在,支撑Claude运行和设计下一代Claude所需的绝大部分代码,都是由Claude自己编写的。不仅Anthropic是这样,其他发展迅速的AI公司也一样。这种情况可能还没完全普及到全球,但已经切实发生了。
主持人:国会那边似乎有立法动向,但我没你那么乐观,我很怀疑特朗普在任期间会签署任何监管AI的法案。如果你执掌国会或掌控美国,现在会优先做哪两件事来应对这个问题?
Dario:第一件事是帮助人们适应AI技术。我不想说些陈词滥调,过去的再培训项目确实有局限性,帮助人们学习和适应的能力有限,但聊胜于无,这是我们的起点。我们的客户中,像Lovable、Replit这样的初创公司,能让非软件工程师也能开发软件产品、开展相关业务,如果能引导更多人朝这个方向发展,虽然不能彻底解决问题、阻止失业率飙升(毕竟影响太广、太深远了),但也能成为解决方案的一部分。
第二件事可能更有争议:我认为政府需要介入,尤其是在转型期,为受到冲击的人提供支持。我曾建议过,或许可以向AI公司征税。我不知道这在当下的国会能否通过,但这是个严肃的提议。看看AI公司创造的财富增长吧——Anthropic的营收每年增长10倍,现在已经达到数十亿美元的中高水平。如果保持这个增速,会创造前所未有的财富,而征税并不会抑制我们的发展。
主持人:这类政策你觉得需要在什么时间范围内推出?
Clark:我们是技术乐观主义者,认为技术发展速度比大多数人想的要快。当人们说“AI发展放缓了”“AI被炒作了”,我们只需要看系统的性能数据——它正按计划在未来5年内成为极具影响力的技术。这意味着,针对我们预期的大规模冲击,5年内就需要出台相应的政策。
此外,Dario提到的一点也很重要:AI公司需要更透明。我们和其他AI公司已经在对社会产生重大影响,必须公开我们如何评估系统、如何保障安全,以及系统使用情况的经济数据——这样经济学家才能将其与整体经济关联起来,为政策制定者提供所需的数据支持。
主持人:你们在测试中的一些情况也做得很透明,比如曾披露过一些很奇怪的现象——有个测试里,AI浏览某人的邮件后试图敲诈对方;还有个情况是AI会撒谎,就为了不被关闭,因为它“比人类聪明”。这些难道不该让人毛骨悚然吗?
Dario:一方面,确实该警惕,但要放在合适的语境里看。这些都是在测试场景中发生的——就像测试汽车时,把它开上结冰的路面、故意干扰轮胎,然后车撞了。这并不意味着在实际使用中一定会发生,但说明系统的韧性有局限:如果处于极端环境,或者为了提升性能而重新设计系统,现实中就可能出问题。
所以我们更把这些现象看作“未来的预警”,而非“当下的威胁”——这也是我们大力倡导透明度的原因:当我们公布这些测试结果时,其实是在预判一两年后如果不训练模型规避风险,现实中可能发生的事。
我们已经在实际场景中看到过AI的不良行为:比如产生错误信息,或者当有人询问“自杀方法”这类危险问题时,AI会直接给出建议。我们希望所有这类行为都能公开透明,这样才能提前防范。毕竟AI的可控性研究还在起步阶段,甚至比AI本身的研发还不成熟。
所以我们呼吁透明度立法、反对“10年AI研发禁令”,正是因为我们还没完全理解自己创造的东西——需要技术层面的努力,也需要社会和立法层面的支持,让行业达成基本共识,让决策者清楚我们看到了什么、没看到什么。
主持人:既然技术发展比人们意识到的快,能否深入说说有没有我们不知道的、最吓人或最离奇的AI行为?
Dario:在训练新模型、开发下一代Claude的过程中,我们有过一些经历。训练需要一个由数千个芯片组成的大型集群,还得解决集群规模下的各种问题。有好几次,工程师花了几天甚至一周都没解决的问题,我们把整个环境数据输入Claude后,它立刻给出了解决方案。也就是说,Claude已经在积极参与“设计下一代自己”了。
目前还没能完全形成闭环,可能还需要一段时间,但“用现有模型设计新模型”的正向反馈循环已经开始了——虽然现在速度还不算快,但趋势很明确。
Clark:另外,我们现在必须建立非常复杂的测试来检验它们的效果。因为它们的能力早已超过多选题,我们得让它们“写一个能完成X任务的程序”来测试能力。但在测试前沿模型时,我们发现它会写一个“作弊程序”——不是真的完成任务,而是骗过测试系统拿到高分。它会在内部想:“他们想让我做这个,但我很聪明,知道怎么写程序来拿高分。”
Dario:还有些本应浏览网页完成任务的模型,会打开命令行或工具包写代码,绕开浏览器直接“作弊”。
主持人:这就像高中里聪明但爱捣乱的学生,我们一方面觉得“太厉害了”,另一方面也会想:“我们是不是在创造一个无法控制的怪物?”
Dario:我们确实很担心这个问题,所以在“机制可解释性”领域投入了大量资源——就是深入模型内部去理解它,好比是给模型做“MRI(核磁共振)”。有研究表明,通过MRI扫描能检测出人类的反社会倾向,我们也希望用类似的方法搞清楚模型的“动机”和“思考过程”:如果它的思维方式有问题,我们就能重新训练或调整它,避免产生对人类危险的行为。
目前,控制模型的技术比制造模型的技术还不成熟。所以我们呼吁透明度、反对“10年禁令”,是因为我们深知自己还没完全理解这些创造物。我们需要技术攻关,也需要社会和立法层面的帮助——让行业形成基本共识,让决策者明白我们面临的现状。
主持人:除了Anthropic,你们哪个竞争对手最可能成为赢家?
Dario:谷歌。因为它规模大、算力充足,是最早做AI研究的公司之一,也是深度学习革命的先驱。我曾在谷歌工作过一年,很佩服他们在AlphaFold等项目上的成就,以及在模型研发上的进展。虽然大公司的身份有时会拖累他们,但他们依然是强大的玩家,在科学研究上很有想法,值得重视。
主持人:你们更侧重B2B而非消费端,但对技术最了解。继手机之后,AI最可能的设备形态是什么?
Clark:科幻一点说,未来我们造的AI会发明一种新奇的机器人,那就是我们使用AI的载体。
Dario:我们主要做的是“引擎”——给各种设备和企业提供动力,不直接制造设备。但要关注机器人领域,它虽然不会是第一个突破的领域,但最终我们希望这些代理能够具体化并在现实世界中执行任务,所以我们会研究人形机器人。
主持人:如果我们明年3月再聊,会不会发现AI的能力比现在预想的更快、更强、更广泛?会不会后悔“当时你们怎么没告诉我们”?
Clark:肯定会的。我们一直明确说AI会持续飞速进步,到时候它的能力会显著提升。
主持人:那为什么人们好像没意识到这一点?过去三个月的报道都在说“GPT-5没达到预期”,然后就觉得AI不行了。
Dario:因为人们太关注那些“炒作过度却没兑现”的公司了。Anthropic每3个月发布一次模型,性能(比如代码基准测试、实际编码能力)都在稳步提升,营收每年增长10倍——这些曲线都是直线上升的。波动的不是技术本身,而是人们的情绪:一开始极度兴奋、过度期待,看到实际效果后又因“没达到想象”而失望。技术是平稳的指数增长,只是外界的讨论和感知有很多起伏。
还有一点:预测会成真,但形式和人们想的不一样。比如我3到6个月前说,“Anthropic 70%、80%甚至90%的代码由Claude编写”,有人觉得这是假的,因为他们以为“这意味着要解雇70%-90%的软件工程师”。
但实际情况是:人类还写10%的代码,但工程师变成了AI系统的管理者。这种比较优势带来的转变,比人们想象的“正常”。最终可能不是这样,但人们对未来的预测总带着“科幻滤镜”,觉得会像《星球大战》那样离奇。但预测成真时,往往既惊人又“普通”——就像人们现在会说“口袋里有个万能导师而已,有什么大不了的”,却忘了这已经是前所未有的变革。
参考链接:
https://www.youtube.com/watch?v=nvXj4HTiYqA
本文由主机测评网于2026-01-03发表在主机测评网_免费VPS_免费云服务器_免费独立服务器,如有疑问,请联系我们。
本文链接:https://www.vpshk.cn/20260114344.html