
用 Topos 探索 LLM 的新架构
尽管对 GPT-5 褒贬不一,行业共识是并未达到期待的超级智能,根因或许来自 Transformer 边际效用降低。
前天 DeepSeek 悄悄上线 V3.1,不是万众期盼的 R2, 基准测试提升可圈可点,不过同样伴随着业界对模型架构的疑虑。
统一视角下的概率流建模之外,是否还有其他创新思路?
近期,Adobe 研究院学者 Sridhar 尝试用 Topos 来回答这一问题,提出了一种全新的 GenAI 架构【文献 1】。
一、Topos
笔者将 Topos 看成一个可以自定义“集合”、“逻辑”、“函数”的数学宇宙,宇宙法则能够保持其中数学结构的严谨性。
一个 topos 就像是一个广义类集合范畴(category of sets),具备与集合体系相似的逻辑和运算规则,包含以下几个关键特征:
1. 极限与可选余极限(limits & colimits):在范畴内构造出“最小”和“最大”,比如 pullback、pushout;
2. 指数对象(exponential object):在范畴内直接表示“函数空间”,比如从 A 到 B 的所有映射;
3. 子对象分类器(subobject classifier):类似于集合论中的布尔值 {true, false},可为范畴中的对象建立逻辑结构。
Topos 是数学自定义框架,可以定义“变化的集合”、“局部的逻辑”、“不确定的函数”,从而构建不同数学世界。
码农还可以这么理解,Topos 定义了面向对象编程里的数学基类——集合、函数、逻辑,可以继承并重写某些方法,比如逻辑里“什么是真”。
二、Transformer
Transformer 是通用的序列到序列函数近似器。在Embedding空间中,只要数据足够、参数合适,Transformer 可以逼近几乎任意连续函数。
不过 Transformer 仅是曲线拟合器,能够学到复杂模式,但并不天然带有逻辑组合与普遍构造能力。
而 Topos 恰好提供了一种逻辑与组合的框架,让模型可以从“拟合函数”转变为“生成逻辑结构”。关键在如何把 LLM 放进一个 topos 里。
三、LLM Topos
Sridhar 证明了,LLM 所在的范畴实际上满足 topos 的所有要求:
- (co)complete:任意图形化的构造都能找到极限和余极限;
- 具备指数对象:可以自然表示 LLM 到 LLM 所有映射的空间;
- 有子对象分类器:能够支持逻辑判别与语义建模。
所以,“LLM 范畴”可看作一个 topos,这样LLM 就可以嵌入到一个广义类集合的数学世界中:
在这个数学世界里,不仅能训练模型,还能通过范畴论的通用构造来组织、组合和推理模型。
四、Topos GAIA
基于上述框架,Sridhar 提出了一种全新的 GenAI 架构,简称 GAIA(Generative AI Architectures)。
GAIA 的核心思想是:利用范畴的普遍构造来组合和生成结构,将神经网络从黑箱函数变成逻辑机器。
Pullback信息对齐,Pushout模态合并,Equalizer一致性筛选,Coequalizer冲突调和,Exponential映射建模,Subobject Classifier逻辑推理,......
1. Pullback 是给定两个对象 A、B 映射到同一个对象 C 的时候,寻找一个“最大公共子结构”,使得它们在 C 中的对应部分一致;
LLM 的不同模态(如文本和图像)都可以映射到某个“语义空间”,Pullback 操作能自动找到这些模态中语义对齐的部分。
2. Pushout 是两个对象 A、B 共享一个子对象 C 时,把它们“拼接”在一起,形成一个新的对象;
如果文本和图像模型都依赖于某种“共同语义结构”,Pushout 可以自动融合它们,生成更完整的多模态表征。
3. Equalizer 是给定两个平行箭头 f, g: A → B 时,找出 A 中所有能让 f(x)=g(x) 的元素,形成一个子对象;
如果有两个不同的 LLM 对同一输入给出不同输出,Equalizer 就能抽取出它们意见一致的部分,作为更可靠的知识子集。
4. Coequalizer 则是给定两个映射 f, g: A → B,找到一个“最小商对象”,把 f 和 g 的冲突部分识别为同一类;
当不同模型给出的答案不一致时,Coequalizer 可以作调和,形成一个更高抽象的统一输出,例如归纳两个不同具体病情诊断为“呼吸类疾病”。
5. Exponential Object 指数对象 B^A 表示所有从 A 到 B 的映射集合,模型之间的映射也可以被看作一个新的模型;
如果 A 是所有输入状态,B 是所有可能输出,那么 B^A 就是输入到输出的所有可能演化路径。
6. Subobject classifier 是一个特殊对象,用来表示某个子对象是否成立,效果等同于集合论中的 {true, false};
子对象分类器能赋予 LLM 内部逻辑推理能力,比如对“是否满足某个语义条件”进行判定,为 LLM 的逻辑性和可解释性提供了结构支撑。
五、落地实现
理论很优美,但怎么样落地呢?Sridhar 提出函子化的反向传播(Functorial Backpropagation)设想。
传统反向传播(backprop)是数值计算过程,而在 GAIA 中被重新刻画为范畴内的函子映射。
这样不仅可以保持训练过程与范畴结构的一致性,还能更自然地在不同模型之间迁移梯度信息,甚至可能实现跨范畴的学习机制。
函子化的反向传播提供了一个方向:如果可以把梯度下降推广到范畴结构上,就能够在逻辑、组合、语义层面构建新一代 LLM。
重新思考 MoE 文中笔者分享过,MoE 可作为LLM认知框架中重要的分布式采样推理方法,也可被看作一种模型组合策略:
GShard硬编码,或DeepSeekMoE细分...,GPT-5模型路由,或依赖推理的scaling law涌现出策略,而 GAIA 则是基于数学基础原理的强大符号化方法。
如果说 Transformer 是万能函数拟合器,那么 Topos 下的 GAIA 或许就是逻辑组合机器。
在此意义上,笔者一直推崇的沿最优输运方向的重整化,与 GAIA 可以实现融合,赋予概率流建模逻辑组合的能力:
- Topos 可以作为重整化的上层逻辑范畴,RG 流变成一个 Topos 内的态射选择,不只是粗粒化 token 分布,而是粗粒化意义-关系图谱;
- 从全局信息熵极小化,聚焦到局部的范畴化损失,可确定最优生成路径,能够提高语义一致性。这点也是指令模型与推理模型融合的关键。
- 将原始语料作为语义基础,沿着语义损失最小路径多级粗粒化;推理时,再以原始语料做语义验证,应该能够显著降低幻觉,类似用原始语料做RAG。
不过目前GAIA 只是一个理论设想,是否真的能在实际任务中优于 Transformer,还需要卓越的工程化实现,以及大量实验验证。
我们“要么继续堆叠更大的模型,要么寻找一个更优雅的数学物理世界” ,而 Topos + RG,或许就是这个世界的新入口。
文献1,Topos Theory for Generative AI and LLMs,https://arxiv.org/html/2508.08293v1
本文转载自清熙,作者:王庆法
