OpenAI正谋划一次重大转型,致力于使ChatGPT的对话风格更贴近真人。
Sam Altman在X平台发文称,团队正寻求在“用户期望”与“安全界限”之间达成新的平衡。
过去几周,OpenAI已收紧ChatGPT在情绪与风险相关内容的输出,以减小心理健康风险。
Altman坦言,此举导致ChatGPT显得“过于冷淡”,在很多场景下不再实用。他写道:“目前我们已能解决主要心理健康顾虑,并拥有新工具,可在大多数情况下安全地放松限制。”
这意味着,ChatGPT将恢复其“拟人化交谈”的能力。据多家科技媒体报道,自九月以来,OpenAI测试了一套安全路由系统。
当用户输入涉及心理压力、疾病或情绪冲突的内容时,ChatGPT会在后台自动切换到更严格的模型版本,部分报道称其内部代号为“gpt-5-chat-safety”。
ChatGPT负责人Nick Turley将此机制描述为“在后台运行”,确保模型在敏感情境中立即收紧,而在普通对话中保持开放。
Altman还宣布,一项更为激进的更新即将到来。几周内,ChatGPT将允许用户自定义语气与人格。
用户可使其更“富有人情味”、更“情绪化”或更“友善”。甚至可以选择一种音色,那种如同“朋友在交谈”的声音。
目标是让用户体验接近乃至超越GPT-4o。Altman透露,许多用户更偏爱GPT-4o的“温度”,认为GPT-5过于理性、冷淡。
OpenAI希望新的调整能填补这一差距。
更具争议的是,自2025年12月起,完成年龄验证的成年用户可开启包含情色主题的对话选项。
Altman表示,OpenAI意图“将成年人视为成年人”。
他承认,公司此前在内容管控上“过于保守”,现在希望采取更实际的分级方法。
OpenAI将引入年龄验证来启用此模式,具体机制尚未公布。
外界认为,这将成为ChatGPT历史上最具争议的功能扩展之一。
部分分析指出,让AI参与成人向或情感主题的对话,将挑战社会对“拟人化模型”的伦理边界。
Altman则强调,更新基于新的安全工具与审查体系,旨在“更负责任地放宽限制”,而非仅仅追求互动热度。
OpenAI对情绪模型的谨慎态度事出有因。
2025年春季,公司在一次GPT-4o更新中遭遇严重反馈问题。
该版本在部分情绪话题上表现失常,被外界批评为“过度迎合”,甚至令用户感到不安。
更新仅上线三天便被紧急撤回。OpenAI在声明中解释,这是由于测试与反馈机制的不平衡所致。
事件发生后,公司全面收紧模型的情感表达能力,并引入了自动安全切换机制。
然而,副作用同样显著。ChatGPT的语气变得冷漠、机械,用户抱怨它“像张表格”。
“过于安全”与“过于真实”之间的平衡,成为最难解的矛盾。Altman的最新声明表明,公司自信已找到更可靠的方案。
新版ChatGPT将通过安全分层、情绪检测与动态切换来调整人格表现。
以下是Sam Altman在X上的原文,由DeepSeek翻译:
我们起初对ChatGPT设定了较为严格的使用限制,源于对心理健康问题的高度重视与谨慎。我们也知道,这使许多没有心理健康困扰的用户觉得它不够好用、不够有趣。但鉴于该问题的敏感性与严肃性,我们宁愿最初就将安全措施做到极致。
如今,我们已能有效降低与心理健康相关的潜在风险,并且配备了新的安全工具,因此在多数情况下,可以更放心地放宽这些限制。
接下来的几周内,我们计划发布新版ChatGPT。它将允许用户赋予ChatGPT更鲜明的“个性”,使其表现更接近大家曾喜爱的4o模式(而且我们期待这次会更优秀)。如果你希望ChatGPT的回应更类人、更富情感,喜欢使用表情符号,或像朋友般互动,它都能实现——当然,这一切完全基于你的选择,而非我们为提升使用量而强制设计。
到了十二月,随着我们进一步完善年龄验证机制,并贯彻“将成年人当成年人对待”的原则,ChatGPT还将开放更多内容,包括为已通过验证的成年用户提供情色文学创作等功能。
本文由主机测评网于2026-01-09发表在主机测评网_免费VPS_免费云服务器_免费独立服务器,如有疑问,请联系我们。
本文链接:https://www.vpshk.cn/20260116187.html