评分 7 · 来源:36氪 · 发布于 2026-03-26
评分依据:将LSTM之父Schmidhuber的哥德尔机思想与达尔文开放算法结合,提出能自我改进底层逻辑的超级智能体架构。Meta华人实习生主导,概念新颖且有理论基础。
Meta 研究团队发表题为 HYPERAGENTS(超级智能体)的论文,将 LSTM 之父 Jürgen Schmidhuber 二十年前提出的**哥德尔机(Gödel Machine)**思想与达尔文开放算法结合,提出了能持续自我迭代的达尔文哥德尔机。
核心思路:Agent 不仅能完成具体任务、持续提高自身表现,更重要的是可以不断优化「改进自身」的底层逻辑——实现真正的元学习(Meta-learning)。
论文提出:未来 AI 的终极目标不是让模型在某个 benchmark 上刷分,而是让 Agent 能像生物进化一样,自主决定如何改进自己。这种自我指涉式的改进,正是哥德尔不完备定理在计算机科学中的工程化实现。
值得注意的是,这篇论文由 Meta 的华人实习生主导。概念层面的突破比工程技巧更有启发性——当所有人都在堆算力做 scaling law,有人在重新思考「自我改进」的理论基础。