这份清单怎么选

这份清单覆盖的时间窗,主要是 2025 年 9 月 12 日到 2026 年 3 月 6 日。之所以不只看最近两周,是因为播客和长访谈真正有价值的地方,不是追单条发布,而是看一轮叙事里哪些判断后来不断被验证。

我这次的筛选口径只有三个。第一,信息密度要足够高,不能只是嘉宾重复路演话术。第二,要能解释 2026 年已经发生的现实变化,比如 Agent 从写代码走到云端执行、多代理评测开始反噬 benchmark、公有云和企业软件开始补治理层。第三,要尽量覆盖不同层次,不把十个名额全给模型厂商 CEO。

如果你时间很少,只看前四条就够。如果你想系统补课,十条按顺序看,会比碎片刷资讯更容易建立判断。

10 场访谈

1. Dario Amodei:模型公司为什么一边狂烧算力,一边还觉得不够

这场访谈最值得看的,不是 Dario 再次谈 “country of geniuses in a data center” 这种高热词,而是他把模型公司的经营现实、算力约束、经济扩散速度和代码自动化边界连成了一条线。他一边坚持 AGI 与经济级扩散在快速逼近,一边又承认企业改造、安全权限、组织变更这些现实摩擦不会瞬间消失。

如果你想理解为什么 2026 年的 AI 行业同时出现了“技术上更激进”和“商业上更保守”这两种表象,这一场几乎是必看材料。它也能帮助你看懂为什么 Anthropic、OpenAI、Google 都在拼命往工具链、平台和企业入口延伸。

2. Lex Fridman 年度状态局:把 2026 年主流争论一次摊开

这一期的价值,在于它不是单人路线图,而是 Nathan Lambert 和 Sebastian Raschka 把 2026 年最核心的公开问题都拉上桌了,包括中美竞赛、主流模型差异、编码工具体验、预训练和推理时计算的重新分工,以及开放权重生态为什么还没死。

如果你需要一条覆盖全局的底图,这一集是最省时间的入口。它不是每一处都给出定论,但基本把今年绕不开的问题都点到了,而且讨论深度足够,不会停留在媒体标题层。

3. Cursor:云端 Agent 为什么正在吃掉“本地 IDE 插件”叙事

这期的重要性非常具体。Cursor 团队把 cloud agents 的三个关键变化讲得很直白:模型要先自己把环境跑起来、默认测试、默认产出视频和远程桌面式可审查结果。这意味着编码 Agent 的重心正在从“补全”走向“长时间执行”。

如果你想判断 IDE 会不会被 agent 工作台替代、代码 review 为什么开始变成视频 review、并行 agent 为什么比更快的单 agent 更重要,这期基本就是一份产品路线实录。

4. METR:为什么一个流行图表不能直接当 AGI 倒计时

Joel Becker 这场访谈的核心价值,是把“时间跨度评测”这件事从社交媒体神图拉回研究语境。METR 的图之所以重要,不是因为它给出一个吓人的指数曲线,而是它试图用“AI 能独立完成多长的软件任务”来替代单点 benchmark。

如果你最近总看到各种“再过多久 AI 就能怎样”的曲线,这一场能帮你把误读、偏差和真正有意义的部分拆开。对研究、产品和投资判断都很重要。

5. Yi Tay:Deep Think、IMO 金牌和 Google DeepMind 的 RL 方向

Yi Tay 这场访谈的稀缺之处,在于它不是泛泛讲 Gemini,而是讲 Google DeepMind 如何把推理、竞赛级数学和 RL 驱动的 deep thinking 接进统一路线。它把 “Reasoning and AGI team Singapore” 这种组织信号也顺手解释清楚了。

如果你想理解 Google 为什么最近更像在押注一套长期推理和训练基础设施,而不只是发单个模型,这期比普通发布会材料有用得多。

6. Andrew White:AI for Science 什么时候不再只是写综述和做摘要

Andrew White 把科学自动化讲到了一个更实际的位置:从 ChemCrow 这类早期化学 agent,到能提出假设、运行实验、更新世界模型的 research loop,AI for Science 正在从辅助写作迈向闭环研究系统。

如果你只看过“AI 改变科研”的宽泛口号,这期可以帮你看到更实的工程问题:数据、实验接口、研究 taste 和世界模型到底各自占什么位置。

7. Jared Palmer:GitHub 为什么开始把 Agent 组织成工作台

这期最大的信号,是 GitHub 不再把 AI 只当作补全能力,而是把 Agent HQ 讲成开发者与 coding agents 的协作中枢。Jared Palmer 讲了平台约束、模型抽象、开发容器、代码审查和 agent 质量保障这些更接近生产系统的话题。

如果你关心 GitHub 和微软会怎样把 AI 正式嵌进主流软件工程栈,这期比单独看功能发布更能看出路线。

8. Fei-Fei Li 与 Justin Johnson:LLM 之后,为什么轮到世界模型和空间智能

World Labs 这期的价值,在于它把 “spatial intelligence” 从一个容易被误解成 3D 生成的新词,讲成了对机器人、仿真、游戏、视频和现实理解都更关键的一层能力。它直接提出,光有语言模型不够,机器还需要更稳定地理解空间和世界状态。

如果你想判断世界模型到底是下一轮真实基础设施,还是又一个过度包装的新方向,这期是很好的校准材料。

9. Adam Marblestone:今天的 AI 可能真正缺的不是参数,而是奖励与学习结构

Adam Marblestone 这场访谈更偏研究和认知科学,但它的重要性并不低。它逼你重新问一个问题:如果今天模型在泛化、持续学习和自主适应上还有结构性短板,那问题可能不只是规模和架构,而是奖励、记忆和学习过程本身。

这期不一定最适合刚入门的人,但如果你已经看多了“继续堆算力就行”的路线,它会帮你补上一个更不一样的研究视角。

10. Sergey Levine:机器人真正的大拐点,未必比通用 AGI 更晚

Sergey Levine 这场访谈最有价值的地方,是把机器人从炫技 demo 拉回了数据、鲁棒性、泛化和实际部署飞轮。他讲得很清楚:真正决定机器人能否大规模进入现实工作的,不是单次演示,而是数据回流、任务范围和硬件生态能不能一起扩。

如果你想知道 physical AI 为什么正在重新变成一级议题,这场值得留到清单最后看。它会把你从“纯软件 Agent”带到更完整的智能系统版图里。

怎么用这份清单

如果你是产品或创始人,我建议优先看 Dario、Cursor、Jared 和 METR。前两场帮你看产品机会,后两场帮你避免把评测和平台想得过于简单。

如果你是工程师,我会把 Lex、Cursor、Yi Tay 和 Joel Becker 放在最前面。它们分别对应全局判断、编码工作流、推理训练路线和评测边界。

如果你更关心三年后的技术终局,那就补 Fei-Fei、Adam Marblestone 和 Sergey Levine。这三场分别对应空间智能、学习机制和机器人落地。