在人工智能领军企业Anthropic,驻场哲学家Amanda Askell深入探究与AI模型的沟通之道。她不仅负责塑造Claude的个性特征、对齐机制和核心价值观,还归纳出一系列实用的提示词方法。在AI浪潮中,哲学不仅未曾褪色,反而使那些凭借哲学素养精通提示词技术的人才,获得了年薪中位数15万美元的高薪。
想象一下,你拥有一台顶尖的超级咖啡机。
尽管反复按压按钮,却始终无法调制出心仪的咖啡口味。
问题的根源并非咖啡机性能不足,而是你未能掌握正确的操作指令。
在Anthropic,正有这样一位专家,专门研究与AI这台“超级智能咖啡机”的高效对话方式。
她并非工程师或程序员,而是一位驻场哲学家Amanda Askell。
Amanda Askell是一位受过哲学专业训练的学者,主要负责协助管理Claude的个性设定
Amanda Askell是一位受过哲学专业训练的学者,负责协助相关工作
Askell拥有扎实的哲学学术背景。
她曾在牛津大学和纽约大学研修哲学,并于2018年获得纽约大学哲学博士学位。
毕业后,Askell曾在OpenAI担任政策研究科学家。
2021年她加入Anthropic,至今一直担任对齐微调方向的研究科学家。
Askell的工作是为Anthropic的Claude赋予特定个性特质,同时规避不必要的特点。
由于她主导设计了Claude的个性、对齐与价值观系统,因此被评选为“2024年最具影响力的100位AI人物”。
在Anthropic内部,Askell被昵称为“Claude耳语者”(Claude whisperer)。
这源于她的研究方向:如何与Claude有效沟通,并优化其输出结果。
哲学思维,犹如开启AI这台复杂机器的万能钥匙。
近期,Askell分享了她制定高效AI提示词的策略。
她强调提示词工程需要清晰表达、持续实验以及哲学式的思考模式。
在Askell看来,哲学的核心能力在于将思想表述得清晰准确,这正是最大化AI价值的关键:
难以简单概括其精髓,但一个要点是乐于频繁与模型互动,并细致观察每一次的输出反馈。
Askell认为优秀的提示词作者应“充满探索精神、勇于尝试”,但比不断试错更重要的是哲学思维。
哲学思维确实有助于编写提示词,我的大量工作就是尽可能清晰地向模型阐明我所思考的问题、顾虑或理念。
哲学思维对清晰表达的注重,不仅能优化个人提示词,也有助于更深入地理解AI本质。
https://platform.claude.com/docs/en/build-with-claude/prompt-engineering/overview?utm_source=chatgpt.com
在Anthropic发布的《提示词工程概览》中,提出了包括清晰表达在内的关键技巧:
表述清晰直接(Be clear and direct);
提供示例(multishot/few-shot prompting),使用多轮示例说明预期输出;
对于复杂任务,引导模型分步思考(chain-of-thought),以提升准确度;
赋予Claude特定角色(system prompt/role prompt),以设定上下文、风格和任务边界。
这意味着在与Claude交互时,可将其视作知识渊博、聪明但常健忘、缺乏背景的新员工,需要明确指令。
换言之,它不了解你的规范、风格、偏好或工作方式。
你的需求说明越精确,Claude的回复就越出色。
Netscape(网景)联合创始人Marc Andreessen
Netscape(网景)联合创始人、硅谷知名技术企业家与风险投资人Marc Andreessen近期也指出,AI的强大在于将其视为“思维伙伴”:
“AI的艺术在于你提出什么样的问题”。
在AI时代,提出正确问题往往比解决问题更重要。
或者说,精准提出问题(提示词工程),就是在高效解决问题。
人类负责优化提问部分(提示词),解决问题的部分则可主要交由AI处理。
这正是掌握提示词技能者能获得高薪工作的原因。
根据levels.fyi(科技从业者薪资查询平台)的数据,提示词工程师的年薪中位数可达15万美元。
近日,Karpathy在一篇推文中阐述了他对提示词的见解。
他建议人们不应将大模型视为“实体”,而应看作“模拟器”。
例如,在探讨话题时,不要问它“你怎么看xyz(某个问题)”,因为提问对象并非真实个体。
而是应该这样询问:
若要讨论xyz,哪些角色或人群较为合适?他们会如何表述?
Karpathy认为大模型能够切换、模拟多种视角,但它不会像人类那样长时间思考xyz并逐渐形成观点。
因此,如果你用“你”来提问,它会基于微调数据中的统计特征,自动应用某种隐含的“人格嵌入向量”,并以该人格方式回应。
Karpathy的解释,在一定程度上消解了人们“向AI发问”时可能产生的神秘感。
针对Karpathy的观点,网友Dimitris提出,模型是否会自动“扮演”最有能力解答问题的专家人格。
Karpathy回应称这种现象确实存在,在某些任务中可能工程化了“人格”,例如让模型模仿专家、通过奖励模型获取高分、适应用户偏好风格等。
这会形成某种“复合型人格”,但该人格是人为工程叠加的结果,而非自然形成的人类心智。
因此,AI本质仍是token预测机器。模型的所谓“人格”,仅是通过训练、人为约束、系统指令等手段叠加的“外壳”。
对此,Askell也表达了类似看法。
尽管Claude的个性中带有“类人特质”,但它缺乏情感、记忆或自我意识。
因此,它表现出的任何“个性”都只是复杂语言处理的产物,而非内在生命的体现。
开发AI模型,有时如同进行打地鼠游戏。
刚修正模型在一个问题上的错误回答,它又在其他问题上出错。
源源不断的问题就像从洞口持续冒头的地鼠。
OpenAI等机构的研究人员将这类现象的一种表现称为“裂脑问题”(split-brain problem):
提问方式稍作调整,就可能导致模型给出截然不同的答案。
“裂脑问题”揭示了当前大模型的一个重大缺陷:
它不会像人类那样逐步构建对世界运作方式的理解。
一些专家据此认为,它们泛化能力有限,难以处理训练数据之外的任务。
这也引发了一个质疑:
投资者向OpenAI、Anthropic等实验室投入数百亿美元,期望其训练的模型能在医学、数学等领域实现新发现,这种投入是否真正有效?
“裂脑问题”通常出现在模型开发的后期阶段,即后训练阶段。
在此阶段,模型会被输入精心筛选的数据,如医学、法律等特定领域知识,或学习如何更好地回应用户。
例如,一个模型可能在数学题数据集上训练,以提高解题准确性。
它也可能在另一数据集上训练,以改善回答语气、个性或格式。
但这样做有时会让模型无意中学会“分场景作答”,它会根据自以为遇到的场景决定回应方式:
是明确的数学问题,还是它在其他训练数据集中常见的更泛化问答场景。
如果用户以正式证明风格提问数学问题,模型通常能正确回答。
但如果用户用随意口吻提问,它可能误以为自己处于更注重“友好表达、格式美观”的场景。
于是可能为追求这些附加属性而牺牲准确性,例如生成排版精美、甚至带表情符号的答案。
也就是说,AI在回答问题时也会“看人下菜碟”:
若认为用户提问“低水平”,它会给出“低水平”回答;若认为提问“高水平”,它也会呈现“高水平”回答。
这是模型对提示词格式“过度敏感”,导致出现本不该有的细微差别。
例如提示词中使用破折号或冒号,都可能影响模型回答质量。
“裂脑问题”凸显了训练模型的挑战性与微妙性,尤其是确保训练数据组合恰到好处。
它也解释了为何许多AI公司愿投入数十亿美元,聘请数学、编程、法律等领域专家生成训练数据,以避免模型在专业用户面前犯基础错误。
“裂脑问题”的出现,也降低了人们对AI即将自动化多个行业(从投行到软件开发)的预期。
虽然与AI类似,人类同样会误解问题。
但AI的存在意义在于弥补人类不足,而非通过“裂脑问题”放大不足。
因此,必须由具备哲学思维和领域专业知识的人类专家,通过提示词工程制定大模型训练和使用的“说明书”,人们借助这些“说明书”与大模型沟通,才能应对“裂脑问题”。
此外,当大模型呈现“拟人”特征时,还需避免将其视为“人”的错觉,这有助于更有效发挥其价值,减少机器幻觉。
这实际上亟需哲学训练,以确保与AI的对话清晰且富有逻辑。
从这个角度看,对大多数人而言,能否用好AI,不取决于AI专业知识,而取决于哲学思维能力。
参考资料:
https://www.theinformation.com/articles/ais-split-brain-problem?rc=epv9gi%20
https://x.com/karpathy/status/1997731268969304070%20
https://www.businessinsider.com/anthropic-philosopher-amanda-askell-tips-ai-prompting-whispering-claude-2025-12
本文由主机测评网于2026-02-09发表在主机测评网_免费VPS_免费云服务器_免费独立服务器,如有疑问,请联系我们。
本文链接:https://www.vpshk.cn/20260224065.html