前段时间,我在上海参与了一场关于人工智能的行业沙龙。
活动本身聚焦于AI技术的实际应用,干货满满。
但最令我难忘的,是一位投资界前辈分享的独特学习心得。
他说这个方法不仅拯救了他的学习效率,也彻底改变了他评估创业者时的标准。
具体是什么呢?其实就是掌握「提问」的艺术。
当你对某个领域产生好奇,就去和 DeepSeek 深入对话,一直聊到它无法给出答案为止。
这种「打破砂锅问到底」的技巧,当时让我深受触动,但活动结束后,这个想法就被我搁置了。
没有实践,也没再想起。
直到最近,我偶然刷到了 Gabriel Petersson 放弃学业,借助AI自学最终进入 OpenAI 的传奇经历。
我才猛然意识到,那位前辈所说的「追问到底」,在当今AI时代究竟蕴含着怎样的深意。
Gabriel 访谈播客|图片来源:youtube
Gabriel 来自瑞典,高中尚未毕业便选择了辍学。
Gabriel 社媒主页|图片来源:X
他曾一度认为自己资质平平,根本无缘涉足人工智能领域。
命运的转折出现在几年前。
他的表兄在斯德哥尔摩创立了一家专注电商产品推荐的初创公司,邀请他过去帮忙。
Gabriel 就这样踏入了这个领域,没有技术背景,也没有积蓄,创业初期甚至在公司公共休息室的沙发上凑合睡了一年。
但正是这一年,他学到了大量实用技能。不是在课堂上,而是在真实问题的驱动下硬啃下来的:编程、销售、系统集成。
后来为了提升学习效率,他干脆转为合同工,这样就能更自由地挑选项目,专门和最优秀的工程师共事,主动寻求反馈。
申请美国签证时,他遇到了一个棘手的难题:这类签证要求申请人证明自己在领域内具备「非凡能力」,通常需要学术论文、引用记录等硬指标。
一个高中辍学生怎么可能拿得出这些?
Gabriel 灵机一动:他把自己在程序员社区发布的高质量技术帖整理成册,作为「学术贡献」的替代证明。没想到这个方案竟然获得了移民局的认可。
抵达旧金山后,他继续利用 ChatGPT 自学高等数学和机器学习。
如今,他已是 OpenAI 的研究科学家,正参与 Sora 视频模型的构建工作。
说到这里,你一定很好奇,他究竟是如何做到的?
Gabriel 观点|图片来源:X
答案就是「持续追问」——选定一个具体难题,借助AI彻底攻克它。
Gabriel 的学习路径与大多数人的直觉截然相反。
传统模式是「自下而上」:先夯实基础,再谈应用。比如想学机器学习,得先啃下线性代数、概率论、微积分,接着学统计学习,然后深度学习,最后才能接触实际项目。这一套下来往往需要好几年。
而他的方式是「自上而下」:直接从具体项目切入,遇到障碍就解决障碍,发现知识盲区就立刻补上。
他在播客中坦言,过去这种方法难以推广,因为你需要一个无所不知的导师,随时指点「接下来该学什么」。
但现在,ChatGPT 就扮演了这个导师的角色。
Gabriel 观点|图片来源:X
具体怎么操作?他举了个例子:如何学习扩散模型。
第一步,从宏观概念入手。他会问 ChatGPT:「我想学习视频模型,最核心的概念是什么?」AI 回答:自动编码器。
第二步,代码先行。他让 ChatGPT 直接生成一段扩散模型的代码。一开始很多地方看不懂,但没关系,先把代码跑通。能运行起来,就有了调试的基础。
第三步,也是最核心的,进行递归式追问。他会盯着代码里的每一个模块不断提问。
就这样一层层深挖,直到彻底弄懂底层逻辑,然后再返回上一层,继续探究下一个模块。
他把这种方法命名为「递归式知识填补」。
递归式知识填补|图片来源:nanobaba2
这比按部就班学六年的效率高得多,可能只需三天就能建立基本的直觉框架。
如果你熟悉苏格拉底式提问法,就会发现这本质上是同一思路:通过层层追问逼近事物本质,每一个回答都成为下一个问题的起点。
只不过现在他把AI当作被追问的对象,而由于AI近乎全知全能,它能够将事物的本质以通俗易懂的方式逐步呈现给提问者。
实际上,Gabriel 正是用这种方式对AI进行了「知识萃取」,真正学到了事物的内核。
听完播客后,Gabriel 的故事让我产生了一个疑问:
同样是使用AI,为什么他能学得如此深入,而很多人用了AI之后,反而感觉自己在退化?
这并非我个人的主观臆断。
微软研究院2025年的一篇论文显示[1],当人们频繁依赖生成式AI时,自身批判性思维的使用频率会显著下降。
换句话说,我们把思考外包给了AI,自己的思考能力也随之萎缩。
技能这东西符合「用进废退」的规律:当我们用AI写代码时,手写代码的能力就在不知不觉中退化。
用AI「vibe coding」的工作方式看起来效率惊人,但长此以往,程序员自身的编程技能是在走下坡路的。
你把需求抛给AI,它吐出一堆代码,你跑通了,感觉很爽。但如果让你关掉AI,手写核心逻辑,很多人会发现大脑一片空白。
更极端的案例来自医学领域,一篇医学论文指出[2],医生在使用AI辅助三个月后,结肠镜检测技能下降了6%。
这个数字看似不大,但想想看:这是关乎患者生命的临床诊断能力。
所以问题来了:同样的工具,为何有人用它变强,有人用它变弱?
区别就在于你把AI当成什么。
如果你把AI当成一个替你干活的工具,让它替你写代码、替你写文章、替你做决策,那你的能力确实会退化。因为你跳过了思考的过程,只拿到了结果。结果可以复制粘贴,但思考能力不会凭空生长。
但如果你把AI当成一个教练或导师,用它来检验自己的理解、追问自己的盲区、迫使自己把模糊的概念说清楚——那你实际上是在用AI加速自己的学习循环。
Gabriel 的方法,核心不是「让AI替我学」,而是「让AI陪我学」。他始终是那个主动追问的人,AI只是提供反馈和素材。每一个「为什么」都是他自己问出来的,每一层理解都是他自己挖下去的。
这让我想起一句老话:授人以鱼不如授人以渔。
递归式知识填补|图片来源:nanobaba2
聊到这里,可能有人会问:我不是搞AI研究的,也不是程序员,这个方法对我有什么用?
我觉得 Gabriel 的方法论可以抽象成一个更通用的五步框架,每个人都可以借助AI学习任何不懂的领域。
1、从实际问题出发,而不是从教科书的第一章开始。
你想学什么,就直接动手做,遇到卡壳的地方再去补。
这样学到的知识有上下文、有目的,比孤立地背概念有效得多。
Gabriel 观点|图片来源:X
2、把AI当成一个永远有耐心的导师。
你可以问它任何蠢问题,可以让它用不同方式解释同一个概念,可以让它「像教五岁小孩一样解释」。
它不会嘲笑你,也不会不耐烦。
3、主动追问,直到建立直觉。不要满足于表面的理解。
一个概念,你能用自己的话复述出来吗?能举一个原文没提到的例子吗?
能解释给一个外行听吗?如果不能,就继续问。
4、这里有个陷阱需要警惕:AI也会产生幻觉。
在进行递归追问时,如果底层概念AI解释错了,你可能就在错误的道路上越跑越远。
所以建议在关键节点,通过多个AI进行交叉验证,确保提问的地基是稳的。
5、记录你的追问过程。
这样可以形成可复用的知识资产:下次遇到类似问题,你有一份完整的思考路径可以回顾。
传统观念里,工具的价值在于减少阻力、提高效率。
但学习这件事恰恰相反:适度的阻力、必要的摩擦,反而是学习发生的前提。如果一切都太顺滑,大脑就进入了省力模式,什么都记不住。
Gabriel 的递归追问,本质上就是在制造摩擦。
他不断问为什么,不断把自己逼到不懂的边缘,然后再一点点把洞填上。
这个过程很不舒服,但正是这种不舒服,让知识真正进入了长期记忆。
在这个时代,学历的垄断正在被打破,但认知的门槛却在隐形提高。
大多数人只把AI当作「答案生成器」,而极少数像 Gabriel 这样的人,把AI当作「思维练习器」。
其实类似的用法,已经在不同领域出现了。
比如在即刻上,我看到不少家长在用 nanobanana 给孩子辅导功课。但他们不是让AI直接给出答案,而是让AI生成解题步骤,一步一步地展示思考过程,然后和孩子一起分析每一步的逻辑。
这样孩子学到的不是答案,而是解题的方法。
提示词「解给定的积分,并把完整的解写在白板上」|图片来源:nanobaba2
还有人用 Listenhub 或者 NotebookLM 的功能,把长篇文章或论文转成播客形式,让两个AI声音对谈、解释、提问。有人觉得这是偷懒,但也有人发现,听完对谈再回去看原文,理解效率反而更高。
因为对谈过程中会自然地抛出问题,逼迫你思考:这个点我真的懂了吗。
Gabriel 访谈播客转播客|图片来源:notebooklm
这指向了一个未来的职业趋势:一专多能。
以前,你想做一款产品,需要懂前端、后端、设计、运维、营销。现在,你可以像 Gabriel 一样,用「递归补洞」法,快速掌握你短板领域的80%知识。
你原本是个程序员,通过AI补齐设计和商业逻辑,你可以变成一个产品经理。
你原本是个好的内容创作者,通过AI,你可以快速补齐代码能力的短板,变成一个独立开发者。
基于这个趋势可以推断:「也许,未来,会有更多的「一人公司」形态出现」。
现在再想那位投资人前辈的话,我才明白他真正想说的是什么。
「一直问到答不出来为止。」
这句话在AI时代是一个很棒的心法。
如果我们只满足于AI给出的第一个答案,我们就在悄无声息地退化。
但如果我们能通过追问,逼AI把逻辑讲透,再内化成自己的直觉:那AI就真的成了我们的外挂,而不是我们成了AI的附庸。
不要让 ChatGPT 替你思考,要让它陪你思考。
Gabriel 从睡沙发的辍学生,走到 OpenAI 研究员。
中间没有什么秘诀,就是成千上万次追问。
在这个充满着被AI替代焦虑的时代,最实在的武器可能就是:
别停在第一个答案,继续问下去。
[1].The Impact of Generative AI on Critical Thinking: Self-Reported Reductions in Cognitive Effort and Confidence Effects From a Survey of Knowledge Workers.
[2].Endoscopist deskilling risk after exposure to artificial intelligence in colonoscopy: a multicentre, observational study.
本文由主机测评网于2026-03-06发表在主机测评网_免费VPS_免费云服务器_免费独立服务器,如有疑问,请联系我们。
本文链接:https://www.vpshk.cn/20260328982.html