当前位置:首页 > 科技资讯 > 正文

OpenAI以55.5万美元年薪招募安全主管,强化AI风险治理

OpenAI计划以55.5万美元的年薪聘请一位“安全与风险准备主管”。

随着人工智能(AI)能力迅速提升以及风险争议日益加剧,开发了ChatGPT的OpenAI公司正加强其在安全与风险治理方面的投入。

最近,OpenAI发布了一则招聘广告,计划以55.5万美元的年薪招募一位“安全与风险准备主管”。这个职位将直接负责评估和应对AI在心理健康、网络安全、生物安全等领域可能引起的系统性风险。此外,除了基本年薪,该岗位还提供股权激励。

OpenAI的CEO山姆·奥尔特曼在社交媒体上指出,这一职位是公司现阶段的关键角色,将肩负起“帮助世界应对AI潜在负面影响”的责任。他还坦言,这将是一份压力极大的工作,新负责人几乎从入职第一天起就要面对最复杂且充满不确定性的风险议题。

据招聘信息透露,该岗位的核心职责包括:持续评估前沿AI能力可能引发的新型风险,制定相应的缓解和预防机制,并在产品层面以及更广泛的社会层面减少潜在滥用的可能性。所谓“前沿能力”,指的是尚未被完全理解但可能具有放大效应影响的新一代模型能力。

值得注意的是,这一职位并非首次设立,但此前多位任职高管任期较短,从侧面反映了该职位在技术不确定性、舆论压力和治理难度等多重维度下面临的挑战。

此次高调招聘恰逢AI行业内部频繁发出风险警示。近期,多位科技企业高管公开表达了对AI失控风险的担忧。微软AI负责人指出,当前AI能力的发展速度已远远超过社会治理体系的适应能力;其他头部研究机构负责人也警告称,如果缺乏有效约束,先进AI系统可能“偏离预期轨道并对人类造成实质性伤害”。

在监管方面,全球范围内尚未形成统一且可执行的AI治理框架。多位学界人士指出,当前对AI的约束力度明显低于其潜在影响力,企业在很大程度上仍处于“自我监管”状态。

OpenAI方面承认,其最新模型在网络攻击相关能力上较数月前有显著提升,并预计未来模型将延续这一趋势。这一表态引发了市场对“能力扩散快于安全控制”的担忧。

除了网络与生物安全,AI对心理健康的潜在影响也成为监管和法律关注的焦点。OpenAI目前正面临多起与用户心理健康问题相关的诉讼,其中部分案件指控其产品在特定情境下未能有效识别或干预用户的精神风险状态。

对此,OpenAI表示正在不断优化模型训练方法,以增强系统识别心理或情绪困扰信号的能力,并在对话中引导用户寻求现实世界中的专业支持。

据悉,OpenAI目前的估值约为5000亿美元。此次招聘除了高薪,还包括未披露比例的股权激励安排。随着公司规模和影响力的持续扩大,其在安全、合规和社会责任方面的压力也在增加。

业内人士指出,随着AI从技术创新阶段进入规模化应用阶段,安全治理正从“边缘议题”转变为影响企业估值和长期发展的核心变量。高薪招聘安全主管,反映出头部AI企业已开始将风险治理视为战略性投入,而不仅仅是合规成本。