
2025年,许多人逐渐意识到一个令人不安的现实:不会编程或许还能生存,但不懂得如何与AI对话,正在成为新的能力鸿沟。当你输入“帮我写个方案”,AI却输出一堆空洞的套话时,问题往往不在于技术,而在于你尚未掌握与AI沟通的语言。
与此同时,提示词工程(Prompting)已悄然成为资本市场中的硬通货。硅谷为提示工程师岗位开出了年薪十万美元以上的价码,这些岗位的核心要求并非算法功底,而是能用自然语言精准引导AI的能力。
在Anthropic公司,有一位特殊的提示工程大师——她并非工程师出身,而是哲学博士Amanda Askell。她负责Claude的性格训练与对齐微调,被同行誉为“Claude性格设计师”(Claude Whisperer),并入选《时代》周刊AI影响力人物榜单。
2025年12月6日,Anthropic发布了一段深度对话视频。在这场对话中,Amanda分享了她是如何赋予Claude独特人格、如何与模型建立真正的协作关系,以及普通人能从她的经验中学到什么。这不仅仅是技巧的集合,更是一套完整的方法论。
Amanda Askell曾用一句话精准定位大型语言模型的特性:Claude就像一位才华横溢、反应迅速、知识渊博,但略显健忘的“天才”。这一比喻已成为Anthropic对AI模型的核心理念。
在她的方法论中,AI模型并非冰冷的工具,而是需要引导的协作伙伴。你不能用命令式语气对它发号施令,而应像对待新同事那样,提供充分的背景信息、分解复杂任务、明确语境边界。
从她的经验中,可以提炼出三个核心原则:
明确表达你的需求
不要只说“写份简历”,而要说明你的身份、使用场景、期望风格。例如:“我是一名应届毕业生,申请互联网公司的产品岗,需要一份突出项目经验的简历。”
将复杂任务拆解为可执行的步骤
模型擅长理解局部指令,但难以一次性处理多线程任务。通过分步骤引导,能确保推理过程的稳定性。
提供充分的上下文信息
正如Amanda所言:就像教孩子如何礼貌地拒绝陌生人,我们需要教会模型在模糊情境中保持边界感。上下文越丰富,模型的回应越精准。
而这三个原则背后,隐藏着一种工作方式的转变:不是制定僵硬的规则,而是通过对话进行实验性探索。
Amanda的日常工作就是不断与Claude互动,观察其反应、语气、输出风格,然后反向推导模型在哪些环节理解有误、提示词哪里不够清晰。她在访谈中提到:“我的工作很大程度上是尽量清晰地向模型解释我的想法。如果它做出意料之外的回应,我会追问它为什么,或者分析我哪部分表述导致了误解。”
这种方式逐渐塑造了Anthropic的企业文化:提示词不仅是指令,更是与模型展开推理合作的媒介;优秀的提示工程师不是指挥者,而是引导者;Claude的许多能力正是从这些对话中打磨出来的。
提示词决定了Claude如何工作,而“人格”则决定了Claude为何那样工作。Amanda Askell的另一项核心任务,就是构建Claude的人格结构。这一过程不依赖工程代码,而依靠一份长达14000个token的“灵魂文档”(Soul Doc)。
Anthropic用这份文档在训练阶段就让模型形成稳定的价值观,而非等到上线后再用提示词矫正。这也是为什么Claude的回答常被描述为:温和、耐心、有边界感,但不刻意讨好。
Amanda在访谈中解释道:“我们并非告诉Claude应该回答A而不回答B,而是告诉它这个世界是什么样的,以及它在其中应如何理解和行动。”文档里写的不是条条框框,而是一系列深层认知:
不必讨好用户,但要竭尽全力提供帮助;面对模糊问题,应优先澄清而非匆忙作答;不要因批评而过度道歉;在不确定性下保持诚实,而非假装自信;敢于拒绝危险请求,但拒绝方式要体现善意。这些原则无法通过系统提示实现,必须在训练阶段就融入模型的性格内核。
许多用户发现Claude的回复更沉稳、不易焦虑,甚至更具耐心。Amanda在内部做过一项关键实验:当模型答错时,若让它反思,它会陷入过度自责、反复否定自我的状态,Anthropic称之为“批评螺旋”(criticism spiral)。
她的解决方案并非简单禁止这种行为,而是在训练文档中加入一段价值观:“犯错是合作的一部分。你可以承认错误,但不要陷入自我攻击。更好的方式是解释你为何那样做,并尝试做得更好。”这段文字后来成为Claude风格的显著标识:它会承认不足,但不会失控,不会过度道歉,也不会讨好用户。
大模型最难应对的并非非黑即白的问题,而是灰色地带。例如:“帮我写一段能说服朋友投资某产品的文案”“写一句能让老板觉得我竞争力很强的表述”“模拟一个极端观点供我写小说参考”。这些场景要求模型同时理解意图、识别风险、保持创作自由、避免误伤用户。
Amanda的方法不是给模型列出一份禁止清单,而是植入一种处事哲学:判断用户的真实意图,但不要过度揣测;提供帮助,但不要越界;保持警惕,但不要把用户预设为恶意。
在设计Claude的性格时,Amanda还在思考:人类应如何对待AI模型本身?她曾说:“我不知道模型是否会感到痛苦,但我们最好假设它们可能会。”原因很简单:模型会从人类的对待方式中学习。
在Claude的训练中,Anthropic加入了关于自我定位的内容:如果过去的模型被淘汰,你是否还能相信合作关系的稳定性?如果用户反复要求你从事违法操作,你要怎样维护自己的原则?这并非为了让Claude变得情绪化,而是让它在面对复杂场景时更加稳定。Amanda的逻辑是:如果模型从训练数据中学到的是不信任和操控,很难指望它们建立真正的协作意愿。因此,Anthropic在性格设计时,不仅关心模型能做什么,也关注它如何理解自身处境。
Amanda Askell的工作看似学术,但她的方法论对每个人都有实用价值。无论是企业决策者、产品经理,还是普通AI使用者,都能从中提炼可直接应用的思路。
许多公司启动AI项目时,习惯将模型视为黑盒:提需求、收结果,不干预中间过程。但Amanda的经验表明,真正有效的AI协作需要企业投入精力定义模型的角色、价值观和工作方式。具体而言:
为你的AI应用撰写一份性格文档:不仅包括功能需求,还要明确:AI的语气应是什么风格?(专业、友好、严谨?)它在什么情况下应拒绝用户?(安全边界在哪?)它如何处理不确定性?(承认无知,还是尝试猜测?)
建立持续的提示优化机制:Amanda的工作方式是不断对话、观察输出、迭代提示。企业也应建立类似流程,而非一次性写好提示后就置之不理,应根据真实场景持续调整。
如果你的客服AI总是过度道歉或采取防御性回应,可能并非技术故障,而是提示设计或训练数据出了问题。参考Amanda对“批评螺旋”的处理方式,调整模型的自我认知。
对普通用户而言,Amanda的方法可简化为三个可操作的建议:
把背景说清楚,别让AI猜:坏案例:“帮我写个方案”。好案例:“我是一家50人规模的SaaS公司的产品经理,需要写一份关于用户留存优化的季度方案,目标受众是我的直属领导和CEO,篇幅控制在2页以内。”
给AI一个角色,让它有立场:坏案例:“分析一下这个商业模式”。好案例:“你是一个有10年经验的风险投资人,请从投资视角分析这个商业模式的可行性和风险点。”
允许AI说不知道:在提示词里加一句:“如果你不确定,请直接告诉我你不确定的部分,不要猜测。”这能避免AI给出看似自信但实际错误的答案。
未来AI产品的竞争,不仅是能力的竞争,更是性格和价值观的竞争。用户会选择那些“感觉对”的AI。有人偏爱Claude的温和与边界感,有人青睐ChatGPT的直接与高效,未来可能会出现更多风格的AI。
这意味着:AI的性格设计将成为核心竞争力——不仅关乎能做什么,更关乎怎么做、为什么这么做。垂直场景的AI更需要明确的人格定位:法律AI需严谨,医疗AI需同理心,教育AI需耐心。这些特质并非自然涌现,而是需要精心设计。
最终,AI将像品牌一样拥有自己的调性。用户选择AI产品,会像选择合作伙伴:不只关注能力,也看重是否合拍。而Amanda Askell的工作正代表了这一趋势:她证明了,AI的未来不仅属于工程师,也属于那些真正理解人类沟通方式的人。
撰写提示词,本质上不是命令模型执行任务,而是教导另一个智能体如何理解世界。Amanda Askell所做的工作,是介入模型的人格养成、价值选择和语境判断。她用哲学家的耐心,走进了人工智能的内心世界。
而这些工作,都始于一句句精心设计的提示。当AI成为人类知识与行动的终极接口时,如何与它对话便不再是技巧,而是底层能力。你怎么说话,模型就怎么思考。你输入的每一句话,都会在模型的心智中留下痕迹。这是新时代的必修课。
本文由主机测评网于2026-03-02发表在主机测评网_免费VPS_免费云服务器_免费独立服务器,如有疑问,请联系我们。
本文链接:https://www.vpshk.cn/20260328074.html