当全球科技界和资本市场热衷于计算大模型能替代多少人类岗位时,盛大创始人陈天桥却提出了一个截然不同的视角:通用人工智能(AGI)的终极价值,不在于模仿人类行为或取代现有劳动力,而在于突破人类认知边界、发现前所未有的新知识。
这一观点直指当前主流 AGI 路线的核心误区。以 OpenAI 为代表的“功能主义”定义,将 AGI 界定为“在大多数具有经济价值的工作中超越人类的系统”。这种思路看似务实,实则短视——它把 AI 的目标局限在对既有工作的优化与复制上,而非拓展人类知识的新疆域。然而,回望人类文明史,每一次重大飞跃——从牛顿力学、电磁理论到青霉素的发现、半导体材料的突破——都不是因为人类把旧事做得更快,而是因为我们发现了新的规律、新的物质、新的可能。
陈天桥由此提出“理科大模型”与“文科大模型”的区分。当前主流大模型本质上是“文科型”的:擅长语言生成、文本连贯、修辞优美,能在封闭系统中解奥数题、写论文、编故事。它们的价值在于“模拟”——模拟人类的语言习惯、思维模式甚至情感表达。这类模型在内容生产、教育辅助、客服对话等领域确有巨大潜力,但其本质仍是“叙述者”,而非“发现者”。
真正的 AGI 应该是“理科型”的:它不追求“说得像人”,而追求“推得准、验得实”。它的核心能力不是生成一段流畅的回答,而是提出一组可证伪的假设,并设计路径去验证这些假设;它在面对不确定性时不会“凑圆答案”,而是主动拆解问题、调用工具、寻求外部反馈;它把因果关系视为第一原则,关注“如果改变某个条件,现实世界会发生什么”;它还必须具备可累积、可追溯的长期记忆,将每一次验证结果沉淀为可靠知识。
这种“理科大模型”的终极产出,不是一篇文案或一段代码,而是新定理、新材料、新药物、新工艺——那些能真正推动科学进步与产业变革的硬核知识。而这一切的前提,是极高的可靠性。陈天桥强调,99% 的准确率并非营销话术,而是进入现实世界的“可质押、可签字”的门槛。在医疗、工程、气候建模等高风险领域,低一个百分点的错误率,可能意味着数亿美元的实验浪费、关键研发窗口的错失,甚至不可逆的安全事故。
要实现这一目标,AGI 必须跨越“300 步推理”的工程鸿沟。陈天桥团队定义了“标准原子推理单元”(SIU),即每一步只执行单一逻辑操作、可被工具独立验证的最小推理单位。即便单步准确率达 98%,300 步后的端到端成功率也仅剩 0.23%——这意味着仅靠概率续写无法支撑复杂现实问题的求解。系统必须构建“生成+检验”双层架构:生成层负责递归拆解问题,检验层则对每一步进行工具验证或仿真测试;一旦某步失败,系统局部回退重试,而非整链崩溃。
这一理念已在 MiroMind 的 BrowseComp 项目中初见成效。该系统仅用 235B 参数模型就取得 SOTA 成绩,其意义不在于分数本身,而在于验证了“时间序列上的反复求证”这一新范式——AGI 不再是一次性生成答案的“神谕”,而是在与环境持续交互中逐步构建可审计证据链的“求真者”。
陈天桥将这种智能比作佛经中的“大圆镜智”:如明镜般如实映照因果,不被语言幻象遮蔽,不为叙事偏好扭曲。在一个被海量文本和拟人化 AI 填满的时代,我们更需要的不是另一个“会聊天的灵魂伴侣”,而是一面只对真相负责的“因果明镜”。
因此,AGI 的竞赛不应止步于 HLE 分数或劳动力替代率,而应回归科学精神的本质:可验证、可纠错、可累积。未来的蓝海不在内容生成的红海厮杀中,而在那些需要数百步严谨推理、容不得半点幻觉的科学发现与复杂决策领域。这条路沉默、缓慢、工程难度极高,却可能是通往真正通用智能的唯一路径——不是再造一个更高效的人类,而是创造一种能带我们走向未知的“发现引擎”。
反思 OpenAI 路线:AGI 的真正价值不在“替代员工”,而在“发现新知”
通用人工智能(AGI)的终极价值,不在于模仿人类行为或取代现有劳动力,而在于突破人类认知边界、发现前所未有的新知识。
当全球科技界和资本市场热衷于计算大模型能替代多少人类岗位时,盛大创始人陈天桥却提出了一个截然不同的视角:通用人工智能(AGI)的终极价值,不在于模仿人类行为或取代现有劳动力,而在于突破人类认知边界、发现前所未有的新知识。
这一观点直指当前主流 AGI 路线的核心误区。以 OpenAI 为代表的“功能主义”定义,将 AGI 界定为“在大多数具有经济价值的工作中超越人类的系统”。这种思路看似务实,实则短视——它把 AI 的目标局限在对既有工作的优化与复制上,而非拓展人类知识的新疆域。然而,回望人类文明史,每一次重大飞跃——从牛顿力学、电磁理论到青霉素的发现、半导体材料的突破——都不是因为人类把旧事做得更快,而是因为我们发现了新的规律、新的物质、新的可能。
陈天桥由此提出“理科大模型”与“文科大模型”的区分。当前主流大模型本质上是“文科型”的:擅长语言生成、文本连贯、修辞优美,能在封闭系统中解奥数题、写论文、编故事。它们的价值在于“模拟”——模拟人类的语言习惯、思维模式甚至情感表达。这类模型在内容生产、教育辅助、客服对话等领域确有巨大潜力,但其本质仍是“叙述者”,而非“发现者”。
真正的 AGI 应该是“理科型”的:它不追求“说得像人”,而追求“推得准、验得实”。它的核心能力不是生成一段流畅的回答,而是提出一组可证伪的假设,并设计路径去验证这些假设;它在面对不确定性时不会“凑圆答案”,而是主动拆解问题、调用工具、寻求外部反馈;它把因果关系视为第一原则,关注“如果改变某个条件,现实世界会发生什么”;它还必须具备可累积、可追溯的长期记忆,将每一次验证结果沉淀为可靠知识。
这种“理科大模型”的终极产出,不是一篇文案或一段代码,而是新定理、新材料、新药物、新工艺——那些能真正推动科学进步与产业变革的硬核知识。而这一切的前提,是极高的可靠性。陈天桥强调,99% 的准确率并非营销话术,而是进入现实世界的“可质押、可签字”的门槛。在医疗、工程、气候建模等高风险领域,低一个百分点的错误率,可能意味着数亿美元的实验浪费、关键研发窗口的错失,甚至不可逆的安全事故。
要实现这一目标,AGI 必须跨越“300 步推理”的工程鸿沟。陈天桥团队定义了“标准原子推理单元”(SIU),即每一步只执行单一逻辑操作、可被工具独立验证的最小推理单位。即便单步准确率达 98%,300 步后的端到端成功率也仅剩 0.23%——这意味着仅靠概率续写无法支撑复杂现实问题的求解。系统必须构建“生成+检验”双层架构:生成层负责递归拆解问题,检验层则对每一步进行工具验证或仿真测试;一旦某步失败,系统局部回退重试,而非整链崩溃。
这一理念已在 MiroMind 的 BrowseComp 项目中初见成效。该系统仅用 235B 参数模型就取得 SOTA 成绩,其意义不在于分数本身,而在于验证了“时间序列上的反复求证”这一新范式——AGI 不再是一次性生成答案的“神谕”,而是在与环境持续交互中逐步构建可审计证据链的“求真者”。
陈天桥将这种智能比作佛经中的“大圆镜智”:如明镜般如实映照因果,不被语言幻象遮蔽,不为叙事偏好扭曲。在一个被海量文本和拟人化 AI 填满的时代,我们更需要的不是另一个“会聊天的灵魂伴侣”,而是一面只对真相负责的“因果明镜”。
因此,AGI 的竞赛不应止步于 HLE 分数或劳动力替代率,而应回归科学精神的本质:可验证、可纠错、可累积。未来的蓝海不在内容生成的红海厮杀中,而在那些需要数百步严谨推理、容不得半点幻觉的科学发现与复杂决策领域。这条路沉默、缓慢、工程难度极高,却可能是通往真正通用智能的唯一路径——不是再造一个更高效的人类,而是创造一种能带我们走向未知的“发现引擎”。
0
第一时间获取股权投资行业新鲜资讯和深度商业分析,请在微信公众账号中搜索投中网,或用手机扫描左侧二维码,即可获得投中网每日精华内容推送。
发表评论
全部评论