2026 年 AGI 已经来了:从功能定义到 31 分钟猎头实战

顶级风投宣称 AGI 已经到来。从功能定义到实战案例,深度解读 AI Agent 如何在 31 分钟内完成猎头工作,以及每 7 个月翻倍的能力增长曲线意味着什么。

Bruce

AGIAI AgentAI 趋势智能体长周期Agent

AI原理

417 Words

2026-01-26 03:00 +0000


AGI 时代来临

2026 年 1 月 14 日,红杉资本发布了一篇重磅博客——《2026: This is AGI》

两位作者 Pat Grady(红杉联席掌门人,19 年投资老兵)和 Sonya Huang(红杉合伙人,从 2022 年就押中 AI 大趋势)开门见山:

Long-horizon agents are functionally AGI, and 2026 will be their year.

长周期智能体就是功能性的 AGI,2026 年将是它们的年份。

这不是某个技术极客的狂想,而是全球顶级风投机构的正式判断。他们的结论很简单:别等了,AGI 已经到来。

一、AGI 的定义:能把事情搞清楚

几年前,红杉的合伙人去请教顶尖 AI 研究者,问他们怎么定义 AGI。

研究者们互相看了看,给出了一个意味深长的答案:

“我们每个人都有自己的定义,但看到它的时候就会知道。”

当时这个回答让人摸不着头脑,但现在红杉给出了自己的答案。

Pat 和 Sonya 说得很坦诚:

“我们是投资人不是技术专家,没资格给 AGI 下技术定义。但从功能角度看,AGI 就是能把事情搞清楚的能力。就这么简单。”

这个定义初看简单,但仔细想想很有道理。你需要一个 AI 帮你做事的时候,你在乎的是什么?不就是它能不能把事搞清楚吗。至于它用的什么算法、调了多少参数,这些技术细节远不如"确实把事办成了"重要。

能把事搞清楚需要什么?

他们把这个逻辑拆解得很清楚:

一个能把事情搞清楚的人,需要三样东西:

  1. 基础知识:知道相关的信息和概念
  2. 推理能力:能够分析、判断、做出决策
  3. 迭代能力:遇到问题能调整方向,不断尝试直到找到答案

一个能把事情搞清楚的 AI,同样需要三样东西:

  1. 预训练知识:2022 年 ChatGPT 带来的海量知识储备
  2. 推理能力:2024 年底 OpenAI o1 系列带来的深度思考能力
  3. 迭代能力:2026 年 Claude Code 这样的编程智能体带来的自主探索能力

三块拼图都齐了。

这就像一个刚毕业的大学生:有知识储备(读了四年书)、有思考能力(能分析问题)、还能边做边学(实践中成长)。现在的 AI Agent,就是这样一个"刚毕业但潜力无限"的新人。

二、31 分钟的猎头工作:没人教它该怎么做

光说概念太抽象,红杉在博客里给出了一个让人拍案叫绝的真实案例。

场景

一个创业公司创始人给 AI Agent 发了一条消息:

“我需要找个开发者关系负责人(DevRel)。技术要够硬能镇住资深工程师,但又得喜欢玩 Twitter。我们的客户是平台团队。你去办吧。”

就这么几句话,没有详细的岗位描述,没有搜索策略,没有候选人名单。

Agent 的执行过程

Agent 接到任务就开始干活了:

第一步:LinkedIn 搜索

去 LinkedIn 搜索那些知名公司的 DevRel 职位,找到了几百份简历。

但它很快发现问题:职位头衔说明不了问题。简历上看不出谁干得好、谁干得糊弄。

第二步:换个思路——YouTube

于是它换了个思路,去 YouTube 找技术大会演讲。

找到 50 多个演讲者之后,开始筛选那些互动数据好的——点赞多、评论活跃的视频,说明演讲者有真本事。

第三步:Twitter 交叉验证

接着把这些人拿到 Twitter 上交叉比对。

结果发现:一半人账号不活跃,要么就是只转发公司博客的官方账号。

但确实找到了十几个有真实粉丝的人——他们发真实观点,和开发者互动,内容还挺有品味。

第四步:识别时机信号

Agent 继续往下挖,它注意到一个细节:有三个人最近三个月发帖频率明显下降

这可能意味着什么?对现在工作的倦怠期。这是一个微妙但重要的信号。

第五步:深入调研

然后它开始深入调研这三个人:

  • 第一个:刚宣布了新职位。晚了。
  • 第二个:是创业公司创始人,刚融完资。肯定不会跳槽。
  • 第三个:就很有意思了……

第六步:锁定目标

第三个候选人的情况:

  • 在一家 D 轮公司做 DevRel
  • 这家公司刚在市场部门裁了人(不稳定信号)
  • 她最近演讲主题正好是平台工程,和创业公司方向完全吻合
  • Twitter 有 1.4 万粉丝,发的梗图能让真正的工程师互动
  • LinkedIn 两个月没更新了(可能在观望新机会)

最后:起草邮件

Agent 起草了一封联系邮件,提到了她最近的演讲,提到了和公司客户画像的重合,还说了说小团队能提供的创作自由。

总耗时:31 分钟。

这个案例说明了什么?

创始人拿到的不是一份岗位描述,也不是一份长长的候选人名单,而是一份只有一个人的精准名单

关键是:没人告诉 Agent 该怎么做每一步

  • 没人说要去 YouTube 找演讲
  • 没人说要用发帖频率判断跳槽意愿
  • 没人说要关注公司裁员动态

它自己推理出来的:形成假设、验证假设、走进死胡同、然后转向,直到找到答案。

这就是红杉说的"把事情搞清楚"。

三、每 7 个月翻一番的指数曲线

红杉在博客里给出了一个让人不敢信的预测:

长周期智能体的能力大约每 7 个月翻一番。

这个数据来自 METR(一个追踪 AI 能力的研究机构)的实际测量,不是拍脑袋想出来的。

如果这条曲线继续

沿着这条指数曲线往下推会发生什么?

年份Agent 能可靠完成的任务规模
2026 年约 30 分钟的专家级工作
2028 年一整天的专家级工作
2034 年一整年的工作
2037 年一整个世纪的工作

换句话说:你原本打算 2030 年实现的目标,2026 年就能干成了。

争议与现实

这个预测引发了不小的争议。

支持者:OpenAI 的 Greg Brockman 转发了这篇博客,表示认同。

质疑者:觉得太乐观了,忽略了很多现实问题:

  • Agent 现在还是会犯错
  • 会产生幻觉(一本正经胡说八道)
  • 会丢失上下文
  • 有时候会信心满满地往完全错误的方向跑

红杉也承认这些问题,他们说:

“To be clear: agents still fail. They hallucinate, lose context, and sometimes charge confidently down exactly the wrong path. But the trajectory is unmistakable, and the failures are increasingly fixable.”

智能体确实还会失败。但趋势是明确的,而且这些失败越来越可以被修复。

判断的关键不在某个时间点的能力水平,而在能力提升的速度。

就像智能手机刚出来的时候,体验也很糟糕——电池不够用、App 少得可怜、经常死机。但它的进化速度摆在那里,所以方向是确定的。

四、从"会说话"到"会做事":商业模式要重写

这是红杉文章中我认为最有洞见的部分。

2023-2024:AI 是"说话者"(Talker)

过去两年的 AI 应用,本质上都是对话能力的延伸:

  • ChatGPT:和你聊天
  • AI 写作助手:帮你写文章
  • AI 编程助手:帮你写代码片段

它们确实很强,但影响力有限。为什么?因为说完之后,活还是你自己干

2026-2027:AI 是"行动者"(Doer)

红杉预测,新一代的 AI 应用会是行动者

“They will feel like colleagues.”

它们给人的感觉会像同事。

这意味着几个根本性的变化:

维度说话者时代行动者时代
使用频率每天几次全天候运行
实例数量一个聊天窗口多个实例同时开工
用户角色个人贡献者管理一个 Agent 团队
交互方式聊天对话任务委派

这对创业者意味着什么?

红杉给出了四个关键问题:

  1. 你能完成什么工作? 找出那些需要持续注意力的任务
  2. 如何产品化? UI 从聊天机器人演进到任务委派
  3. 能否可靠执行? 改进反馈循环,让 Agent 能自我纠错
  4. 如何定价? 按价值和成果收费,而不是按调用次数

这不是简单的"加个 AI 功能",而是整个商业模式的重构

五、Agent 正在进入的领域

红杉在文章中列举了多个正在被 Agent 渗透的垂直领域:

领域代表公司Agent 扮演的角色
医疗OpenEvidence专科医生
法律Harvey律师助理
网络安全XBOW渗透测试专家
DevOpsTraversal网站可靠性工程师
销售Day AI销售代表
招聘Juicebox猎头
数学Harmonic数学研究员
芯片设计Ricursive芯片工程师
AI 研究GPT-5.2/ClaudeAI 研究员

最后一条最有意思:AI 在帮助研究更强的 AI。这是一个自我加速的飞轮。

六、我们该怎么办?

读完红杉的文章,一个问题自然浮现:如果 AI 什么都能干,我还能干点什么?

恐惧是正常的

2025 年的新闻已经让人有些不安:

  • 医学诊断比赛,AI 赢了
  • 编程大赛,AI 赢了
  • 奥林匹克数学竞赛,AI 赢了
  • 股票交易大赛,AI 赢了

这种压迫感是真实的。但恐惧不会帮我们解决问题。

回到那个定义

记得红杉的定义吗?

“一个能把事情搞清楚的人,需要三样东西:基础知识、推理能力、迭代找答案的能力。”

这个定义其实也适用于我们。AI 在进化,我们也需要随着时代迭代。

关键词:指令

有人说得好:

“AI 是个趋势的时候,恐惧它的到来是没有丝毫用处的。有人已经让 AI 成为他的助手连滚带爬,而他自己则游刃有余。”

既然人创造了 AI,当然是为人类服务。我们的关键在于指令

  • 你的思考有多严谨,指令就有多明确
  • 指令有多明确,结果就有多精准

这不是危机,而是指挥能力变得更重要了。

从"个人贡献者"到"团队管理者"

红杉说得很清楚:用户角色会从"个人贡献者"变成"管理一个 Agent 团队"。

这意味着:

  • 不再比拼谁代码写得快,而是比拼谁问题拆解得好
  • 不再比拼谁知识记得多,而是比拼谁知道该问什么
  • 不再比拼执行速度,而是比拼方向判断

总结

红杉的这篇文章,核心观点可以浓缩为三句话:

  1. AGI 的功能定义:能把事情搞清楚
  2. 三块拼图已齐全:知识 + 推理 + 迭代
  3. 2026 是行动者元年:从说话者到行动者,商业模式重构

不管你是否同意"AGI 已经到来"这个判断,有一点是确定的:

AI 的能力边界正在以指数速度扩张,而且速度本身还在加快。

当能力提升的速度本身在加速的时候,我们对未来的预估往往会过于保守。

就像红杉文章结尾说的:

“Saddle Up!”(上马吧!)


参考链接