详解DeepSeekV4:Infra巨鲸、百万上下文走进现实、极致效率优化
Episode 163 · April 30th, 2026 · 1 hr 33 mins
About this Episode
「走进不同团队的成果,创新从来是连续的,不是跳跃的。」
上周五,DeepSeek V4 发布。我们邀请了两位一线 AI 从业者一起详解 DeepSeek V4 的技术实现和创新想法。
如果一句话概括:DeepSeek V4 并没有带来新的“范式变化”,它是继续在 R1 的“测试时扩展”范式下,用一系列组合创新和工程优化,让百万上下文从理论进入实用。
超长上下文上的稳定表现,正是 Agent 和多步复杂任务亟需的能力之一。
本期访谈之后也会发图文版。本期涉及的诸多技术术语见 Shownotes 末尾注释。
本期嘉宾
赵晨阳,RadixArk 工程师,SGLang 开源推理框架开发者
刘益枫,UCLA 博士生
本期主播
程曼祺,晚点科技报道负责人
时间线:
体感、对比、消失的成本、DeepSeek 的节奏
03:01 编程能力与“御三家”有差距;不再采用 DeepSeek 自己提出的 MLA
07:44 不再披露训练成本,“用模型能力说话”
09:23 延期推测:四个耦合的新 feature (新注意力+Muon+mHC+FP4)一起上,难度爆炸
12:36 不是范式创新,沿现有范式仍有巨大提升空间
性能与效率
14:32 提出新的能力方向比刷单个 benchmark 重要
16:41 坦诚的内部评测:9% DeepSeek 工程师不会把V4 Pro 作为编程首选
23:03 单 token 推理的计算量和 KV cache 大幅优化,但解决同样问题的 token 消耗更多了
V4 具体进展
28:32 整体思路:极致的稀疏

33:45 混合稀疏注意力:放弃 MLA,SWA滑动窗口+CSA稀疏压缩+HCA稠密压缩,层间预定义分工
39:37 Muon 优化器已成检验工程能力试金石
48:52 mHC:从 Seed 提出 HC 到 mHC;Kimi 的 Attention Residuals
54:24 Infra 两个关键词:TileLang & FP4
01:10:11 多专家训练+蒸馏的后训练
01:13:20 评测危机:benchmark会过时饱和,evaluation是永恒追求,agent评估未共识
更多讨论
01:19:25 近期模型共性:架构趋同(MOE+Muon),优化方向驱动(agent、coding)
01:25:18 美国追新能力、高定价;中国追性价比、工程极限
01:28:00 V4 最有可能被记住的思想:极致压缩+低激活比+低单token成本,成为后续开源模型起点
剪辑:Nick
相关链接:
158期:V4发布前的DeepSeek:人才竞争、组织特点和独特的AGI目标
143期:再聊 Attention:阿里、Kimi 都在用的 DeltaNet 和线性注意力新改进
104期:我给线性注意力找“金主”,字节 say No,MiniMax say Yes
103期:用Attention串起大模型优化史,详解DeepSeek、Kimi最新注意力机制改进
102期:DeepSeek 启动开源周,大模型开源到底在开什么?
附录:术语、概念解释
- 模型架构相关
Token-wise(词元级)改进:优化模型处理单 token 的过程,通常用于提升注意力计算、上下文建模或推理效率。
Layer-wise 的改进:优化模型不同网络层的结构或计算方式,通常用于提升训练稳定性、表达能力或整体计算效率。
MoE:Mixture of Experts 混合专家网络,让不同“专家”子网络处理不同输入,降低单次计算成本。
哈希路由:把 token、样本或请求分配到不同专家、节点或存储位置的方法。V4 在前几层 MoE 用了哈希路由,避免起始层路由塌缩。
Engram:DeepSeek 之前提出的一种带 N-gram 编码器的辅助模块,通过额外编码连续 token 片段,帮助模型利用局部短语级信息。V4 未使用 Engram。
- 注意力相关
MLA:Multi-head Latent Attention,多头潜在注意力,引入潜在表示压缩 KV 信息的注意力机制,能降低显存占用和计算开销。
MQA:Multi-Query Attention,多查询注意力结构,共享 Key/Value,仅保留多头 Query,提升推理效率并减少 KV cache。
线性注意力:通过核函数或近似方法将注意力复杂度从二次降低为线性(一维),是改进原初注意力随上下文长度增加,计算和显存爆炸的方向之一。
稀疏注意力:仅计算部分 token 间的注意力(而非全连接),改进原初注意力问题的另一主流方向。
滑动窗口注意力:限制注意力仅在局部窗口内计算的一种稀疏注意力。
CSA:Compressed Sparse Attention,压缩稀疏注意力。用于长上下文建模的注意力机制。把序列分组压缩成更少的token,query再从中挑选出最相关的部分。V4中的压缩比是4:1。
HCA:Heavily Compressed Attention,高度压缩注意力。同样用于长上下文建模。相比CSA压缩比例更高(128:1),query无需挑选token。
NSA/DSA:V4发布之前,DeepSeek 在年初和 9 月先后提出的两种稀疏注意力方案。
- 优化器相关
AdamW:一种改进的 Adam 优化器,通过解耦权重衰减(weight decay)提升训练稳定性和泛化能力。
Muon:一种面向大模型训练的优化算法,通过改进梯度更新或内存效率来提升训练性能。
Learning Rate:学习率,控制模型参数每次更新步长的超参数,对训练稳定性和收敛速度至关重要。
牛顿-舒尔茨迭代:一种用于矩阵归一化或求逆的数值迭代方法。Muon 作者 Jordan 提到通常使用 5 次迭代,V4 中采用了 10 次迭代。
- 残差相关
HC:Hidden/Highway Connection,一类改进残差连接的信息通路设计,用于增强信息传递或控制梯度流。
mHC:Manifold-Constrained Hyper-Connections 流形约束超连。DeepSeek 在 HC 基础上的改造,解决了 HC 在大规模训练时的数值不稳定问题。mHC 使用了双随机矩阵,即每行和、每列和都等于 1 的矩阵,以约束信息流。
Attention Residuals:注意力残差连接,将注意力模块输出与输入相加,用于稳定训练并保留原始信息。
- Infra 相关
矩阵乘法:深度学习中最核心的基础计算操作(如向量与权重相乘)。
Kernel:算子核,指在底层硬件(如 GPU)上执行的高效计算函数,是深度学习算子的实现基础。比如矩阵乘法就要写 Kernel 去实现。
CUDA:英伟达开发的能使用 GPU 的一层软件系统,也指一套语言,本次访谈语境里指编写 GPU 算子 kernel 的语言。
Triton:由 OpenAI 开源,是对 CUDA 的一层抽象,能更简单的写 Kernel。
TileLang:一种面向 AI 高性能算子的 tile 级 DSL / 编译框架,把矩阵乘法、注意力等张量计算映射到 GPU 等硬件上执行,在 Triton 的易用性和 CUDA 的控制力之间取得了较好的平衡。
FP8、FP4、INT4:低精度数值格式,分别用 8 位、4 位浮点和 4 位整数表示模型中的权重或中间数据,用于降低显存和带宽压力、提升训练或推理效率。
FP4 比 FP8 更省显存和带宽,又比 INT4 更保留浮点动态范围,因此更适合复杂训练/采样链路,但收益取决于硬件、缩放策略和 kernel 实现。V4 在 1.6T 参数规模上实现 FP4 训练是个不小的挑战。

☆《晚点聊 LateTalk》建立「 播客听友群」啦!☆
欢迎关注科技、商业大公司动态和创业创新的小伙伴进群交流,第一时间收听新节目。
这里有更多互动,更多话题讨论。欢迎贡献选题 & 推荐嘉宾。
请先添加「晚点」小助手的微信号,备注:“晚点聊”,我们邀请您入群。

关注公众号《晚点 LatePost》和《晚点对话》,阅读更多商业、科技文章:
