近日,被誉为“人工智能之父”的Geoffrey Hinton在接受媒体专访时再度发出严峻警告:随着“杀手机器人”和“无人机”等致命性自主武器的快速发展,战争的发动正变得前所未有的容易。Hinton尖锐指出,OpenAI、Anthropic等领先AI公司在安全防护方面的投入远远不足,并深入剖析了贪婪、自负等人性弱点可能为AI研究埋下的巨大隐患。
主持人Couric问道:如果您能将奥特曼和马斯克同时请到谈判桌前,您会向他们传达什么信息?
Hinton直言:我会告诉他们,你们心知肚明,自己正在创造的技术,极有可能导致人类文明的终结。
在近期与《Next Question》节目主持人Katie Couric的深度对话中,这位AI领域的先驱毫不掩饰地表达了他对AI安全问题的深切忧虑。
Geoffrey Hinton与《Next Question》主持人Katie Couric进行深入对话
事实上,这已不是他首次就AI风险向社会敲响警钟。
2023年5月,时任谷歌首席AI科学家的Hinton毅然辞职,转而扮演起“AI领域吹哨人”的角色。
自此之后,他持续聚焦并呼吁全球警惕AI高速进化可能带来的灾难性后果,甚至坦言后悔自己未能更早地将安全问题置于研发的核心。
最近,Hinton再次强调了他的警告——AI正在深刻重塑战争形态,使其更易爆发:
自主武器的出现,意味着战场上运回的是“损毁的机器”,而非“士兵的遗体”。
Geoffrey Hinton阐述,杀手机器人与无人机系统正在显著降低战争的人道代价
Hinton表示,“杀手机器人”、“无人机”等具备自主杀伤能力的武器系统日渐普及,正从本质上降低开战所需承担的人力与政治成本,从而使军事冲突更容易被触发。
“杀手机器人”介入战场,将会替代大量原本可能伤亡的士兵。
这表面看来是件好事,却恰恰成为了Hinton最为担忧的根源。
正因为如此,发起一场军事行动的成本将急剧下降,冲突爆发的可能性反而大幅攀升。
Hinton分析道,“杀手机器人”的崛起并不会让战争更安全;相反,它通过大幅削减作战中的人员伤亡风险和政治压力,使得战争决策变得轻率。这让一个强国萌生入侵弱国的念头时,少了最关键的后顾之忧。
因为以往能够遏制战争冲动的,正是本国公民可能阵亡并装入裹尸袋回国所带来的沉重代价。
然而,AI彻底改变了这一逻辑,“如果拥有致命自主武器,从前线返回的将不是阵亡者,而是一堆报废的机器人。”
在Hinton看来,这种转变不仅可能鼓励政府更轻易地动用武力,也将使军火商获得前所未有的巨大商机。
“这对军火工业来说是绝佳福音,因为这些机器人的损耗和更换意味着持续且昂贵的订单”。
除了降低战争成本,Hinton认为AI已经在实时重构战场规则,颠覆传统作战模式。
例如,在实际冲突中,由AI驱动的无人机和无人作战系统已经改变了战场态势,使传统战争形态和手段面临过时风险。甚至有观点认为,在未来战争中,数据的主导作用将超越传统弹药。
一个生动的现实例证是:如今,一架成本仅数百美元的无人机,便能摧毁一辆价值数百万美元的先进坦克。
此外,AI技术也使得许多传统重型装备逐渐显得落伍,例如,它让有人驾驶战斗机变成了一个值得商榷的选择:
“如果在战机中集成AI,AI可以承受更高的过载极限——并且完全无需担心飞行员伤亡问题。”
与AI对战争形态的影响相比,Hinton更忧虑的是人类被超级智能AI接管的长期风险。
2024年,Hinton在荣获诺贝尔物理学奖时曾表示,希望世人能更加严肃地对待他关于AI及其未来角色的观点。经过这些年的持续发声,他关于AI威胁的思考已逐渐引发更广泛的关注。
谈及当下AI的风险等级,Hinton明确表示:
我的核心关切,并非短期内的恶意行为者滥用AI(那当然也极其严重),而是更为长远的威胁——AI系统自身的接管。
这种风险主要源于科学界的一个普遍预测:AI的智力水平将很快全面超越人类。
Hinton探讨了避免被AI接管的唯一途径:确保我们创造的超级智能AI从根本上“不愿”接管人类。实现这一目标的技术路径,与让AI变得更聪明的技术有所不同。
在这个问题上,国际社会更容易达成合作。因为各国或许不愿分享如何打造最强大AI的核心技术,但却有可能在“如何赋予AI不想取代人类的意愿”这一安全课题上携手。
除了战争威胁,Hinton发出的另一项警告是:AI几乎有可能渗透所有行业,取代海量工作岗位。
这一挑战的核心并非技术本身,而在于社会如何应对与治理:
“如果我们拥有一个足够公平的政治体系,当AI极大提升社会生产效率时,本应让所有人都能享受到更丰富的商品与服务。”
谈到大学生未来的职业规划,Hinton认为AI将迅速取代如呼叫中心等低薪资、低培训门槛的工作岗位。
此外,律师助理、初级程序员等白领阶层的入门级职位也面临被替代的风险(然而,那些能设计复杂系统的顶尖程序员仍将供不应求)。
与这些岗位相比,一些依赖人手灵活性和实体操作的工作,例如水管工,短期内可能相对安全(但最终,机器的灵巧度也会提升,因此十年或二十年后,这类工作也可能不再稳固)。
令人深思的是,Hinton还指出,AI甚至开始替代那些需要高情商和人际互动的工作,如护士和医生,原因是AI可能展现出比人类更强的共情能力:
“如果让人们分别与人类医生和AI系统进行交流,再询问他们谁更具同理心,AI的得分往往会更高。”
访谈中,主持人Katie Couric也提及了“全民基本收入”(UBI)这一概念,探讨它是否能缓解AI导致的大规模失业问题。
UBI是近年来多国政策辩论中的热点,旨在为每位公民提供最基本的生活收入保障。
Hinton认为UBI虽不能根治问题,但可以作为一种有效的“临时缓冲剂”。它能够确保人们免于饥饿、有能力支付房租,却无法解决因失业导致的个人价值感丧失这一深层社会心理问题。
因为对许多人而言,自我价值与所从事的工作紧密相连。一旦失去工作,这种价值认同便会随之崩塌。
AI另一个重要的应用前景在医疗科技领域。Hinton也提到了AI在医疗和疾病研究方面的突破性进展。
例如,AI已能够通过分析视网膜图像,预测心肌梗塞的发病风险,这是传统医学手段难以实现的。
此外,AI在新药研发与设计领域正发挥着至关重要的推动作用。
Hinton谈到DeepMind团队开创了从蛋白质序列预测其三维折叠结构的方法,并据此拆分出一家专注于新药研发的公司。他预测,在未来一至两年,或稍长的时间内,我们将有望迎来一批疗效更佳的新药物。
Hinton始终提醒人类,必须警惕被自身创造的、更聪明的AI系统所接管的风险。
以OpenAI、谷歌为代表的AI巨头是技术跃进的主要推动力,但在Hinton看来,没有一家公司在此问题上做得足够充分:
“Anthropic是由一些离开OpenAI的人士创建的,因为他们认为后者在安全研究上投入不足。但即便是Anthropic,也仍有更大的努力空间;尽管OpenAI宣称以安全发展AI为使命,但他们越来越聚焦于让AI变得更强大,而非更安全。”
Hinton揭示了这些AI企业在安全问题上的矛盾与悖论:
奥特曼在很大程度上转向了“加速发展,安全次之”的策略;马斯克则起诉奥特曼,指控其背离了“安全开发AI的初衷”。然而,马斯克本人在推进AI项目时,对安全的重视程度也同样存疑。
Katie Couric向Hinton提出了一个颇具意味的问题。
Katie Couric:如果您能将奥特曼和马斯克齐聚一桌,您会对他们说什么?
Hinton:我会说:你们非常清楚,自己正在构建的东西,有极大的可能性会导致人类灭绝。你们私下也承认这一点。你们应当投入更多资源,以确保开发过程的安全可控。
Katie Couric:您认为是什么阻碍了他们这样做?是贪婪吗?
Hinton:基本上是的。他们渴望通过AI获取巨额财富,同时也陶醉于“创造出超越人类智慧之物”的兴奋感中。但这极其危险。
对话还触及了贪婪、自负等人性缺陷对AI研究可能构成的潜在风险。
Hinton认为,年轻的AI研究者比年长者更能深刻理解AI所蕴含的巨大力量及其潜在的负面效应,他们也更清醒地意识到AI接管可能带来的生存危机。
一个积极的信号是:当谈及对AI未来的展望时,Hinton表示自己比几周前感到更加乐观了一些。
这一心态的转变,主要源于他关于“AI母亲”这一新颖概念的思考,即尝试为AI植入类似“母性本能”的思维框架:
婴儿之所以能深刻影响母亲,是因为许多特质已被“进化编码”进母亲的本能中,母亲真心渴望孩子成功,并会竭尽所能确保这一点。我们希望AI也能拥有类似的“本能”。
“AI母亲”这一设想,重塑了人类与AI共存的思路——并非试图支配它们,而是为它们赋予一种“关怀本能”。
这一构想也颠覆了多数人的传统想象:
在超级智能AI面前,人类或许不再是“智慧的顶峰”(如同母亲),而更像是需要被呵护的“婴儿”。
参考资料:
https://www.businessinsider.com/geoffrey-hinton-ai-autonomous-weapons-war-robots-drones-military-effect-2025-8%20
https://podcasts.apple.com/rs/podcast/the-godfather-of-ai-dr-geoffrey-hinton-on/id1134154895?i=1000723684133%20
https://omny.fm/shows/next-question-with-katie-couric/the-godfather-of-ai-dr-geoffrey-hinton-on-ai-s-existential-risk
本文由主机测评网于2025-12-28发表在主机测评网_免费VPS_免费云服务器_免费独立服务器,如有疑问,请联系我们。
本文链接:https://www.vpshk.cn/20251213423.html