在 AI 时代,我是如何深入学习一个技术领域的
Categories: Share

想和大伙聊聊,在 AI 时代我是怎么深入学习一个技术领域的。没有 AI 之前,更多是看书、翻这个领域国内外有名的人的博客,然后摘抄记录到笔记本,速度挺慢,但很有学习的乐趣。比如当时学 WebGL,学懂一个东西差不多要半年空闲时间,慢但快乐。
有了 AI 之后,我还是很讨厌网上那种「3 分钟教你看完百年孤独」,也不喜欢短剧和倍速看剧的方式,更多还是挑好的看,宁愿慢一点、真正搞懂,也不愿意刷一堆摘要最后脑子里什么都没剩。
不过最近写「你不知道的 Claude Code」和 Agent 系列,除了自己懂的部分,还有大量不太清楚的领域。好在之前收藏了不少相关资料,刚好借这个机会清库存,全部搞懂再输出出去。一直觉得,看了多少、听了多少、输入了多少,其实不是最重要的,更在乎你能输出多少,能清楚说出来、写下来、整理发布的,才真的是你自己的。
前不久给自己挖了个深坑,研究大模型的训练流程,目标是确保非专业的人也能听懂,探索了两周。这个经历刚好可以分享出来,成文也差不多了,很快会发出。
我会把整个学习过程当做写代码一样组织起来。收集高质量资料是第一步:近几年的精品论文、各大模型厂商发布的关键技术博客、X 上模型负责人写的文章、斯坦福等高校近两年的相关课程,还有经典的手搓大模型代码仓库,这些都是我的资料来源。然后借助工具自动化完成下载、转 Markdown、清洗、整理,按分类放进这次研究专用的仓库,在正式开始读之前,先把整个信息环境弄干净。
接下来开始读和筛选。自己看得懂的内容,认真读一遍,觉得价值不大的就删掉,好的留下。看不懂的,直接让 Claude 帮我理解,更复杂的翻译成中文再读。代码能本地跑的就跑起来,不能跑的就看结构,理解核心思路。这个阶段我不追求完全掌握每个细节,只要对这个领域有真实的认知、摸清楚技术原理就够了。通常到这里,原来一半的内容都会被删掉,这是正常的,筛选本来就是学习的一部分,留下对的东西比读更多更重要。
到了这个阶段,对这个领域大概有认知了,就可以开始给文章写大纲,想清楚要讲什么、每个部分对应的资料来源、内容的顺序,以及读者读完之后应该得到什么。文章是写给别人看的,需要知道对方的认知水平,哪里会卡住,需要什么程度的解释,这和做汇报差不多,始终在想受众是谁。
然后就是苦力活了,和大学考试前复习很像,逐节把内容填充完整,补上缺少的解释,把整体跑通。这一步下来通常会得到一篇很长、有些啰嗦的初稿。这时候 AI 就很有用了,可以让它在不改变原意和语气的前提下,帮我去掉无用的啰嗦、修好断层的连接、找出逻辑不完整的地方,以及还需要补充哪些背景知识。这个过程里 AI 不是在替我写,是在帮我收紧结构、减少噪音、暴露漏洞,往往又能学到一些原来遗漏的东西。
这也是为什么我觉得 AI 在你有真实产出的时候才最有用。如果只是让它帮你总结,很容易感觉自己学了很多,但脑子里其实没什么扎实的。当你认真在写一篇东西、解释一个概念、做出一个成品的时候,AI 才真正有帮助,它放大的是你自己已经在做的事情。
初稿整理好之后,自己再读一遍,不是让 AI 读。AI 只是工具,一旦让它代替你的判断,这件事就没意思了。自己读的过程中继续修改调优,和写代码自测那种感觉很像,不断找薄弱点、修毛边、改读起来不对的地方。读完两遍,基本感觉差不多了,然后就可以发出来给大伙看。

这也是我做 Waza 的原因,一个围绕我实际工作方式构建的开源 Skills 集合。其中有一个叫 /learn,就是专门为这个流程设计的:收集资料、筛选、写大纲、填充内容、AI 辅助优化、自读发布,整个过程连成一条线。
肯定有小伙伴担心写了没人看,所以不想发,甚至干脆不写。我不觉得这是个好理由,只要内容有意义,自然会有读者,不一定立刻,不一定很多,但有意义的东西很少会被浪费。「没人看」大多数时候只是懒得动笔的借口。
这整个过程让我有个更清楚的感受:在 AI 时代,学习速度确实快了很多,但深度不会自动到来。AI 可以帮你收集、翻译、清洗、整理、对比、精简,把整个过程工业化,但真正的深度还是取决于你的判断、你的耐心、你的标准,以及你愿不愿意把输入转化成输出。这一点没有变,现在反而更重要了。