首页 > 资源分享 > 资源分享 > DeepSeek发布下一代技术!北大实习生立功

DeepSeek发布下一代技术!北大实习生立功

发布时间:2026-02-27 16:41:46

2月27日报道,昨天,DeepSeek发布了一项名为DualPath的全新推理系统方案,直指当前大语言模型在智能体应用场景下遭遇的短板——KV缓存存储I/O瓶颈。该方案通过引入双路径加载机制,显著提升系统吞吐量,基本消除了KV缓存的I/O开销。

DualPath的核心创新在于开辟了一条从存储直通解码引擎的新通道。KV缓存不再仅由预填充引擎加载,而是可以加载至解码引擎,再通过计算网络中的RDMA高效传输至预填充端。这一设计不仅缓解了存储端的压力,还避免了网络拥塞,确保延迟敏感型任务不受干扰。

与全局调度器协同后,DualPath实现了动态平衡两端负载,进一步提升资源利用率。在真实智能体工作负载测试中,DualPath将离线推理吞吐量提升最高达1.87倍,在线服务吞吐量平均提升1.96倍。

在大规模可扩展性方面,DualPath系统在最多1152张GPU上进行了验证。离线推理从2P4D(2K智能体)扩展到48P96D(48K智能体)实现近线性扩展,任务完成时间基本保持一致。

值得一提的是,与之前DeepSeek发表的许多研究论文类似,这篇论文的第一作者吴永彤同样是DeepSeek的实习生。吴永彤目前在北京大学攻读博士学位,师从金鑫教授,主要研究大模型基础设施相关课题,自2025年8月以来便在DeepSeek系统组工作,曾参与DeepSeek-V3.2的研究。

论文链接:

https://arxiv.org/pdf/2602.21548

一、智能体I/O瓶颈凸显,传统设计成本高昂

随着智能体应用普及,多轮推理已成常态。智能体通过工具与外部环境进行数十甚至数百轮交互,上下文跨轮累积到极长长度。由于多轮、短追加的特性,KV缓存命中率高达95%以上,加载效率取代计算成为性能主导因素。

现有系统采用分层预填充、预填充-解码分离(PD分离)和外部KV缓存存储架构。但问题在于:预填充引擎存储网卡带宽持续饱和,而解码引擎存储网卡带宽大量闲置。这种不平衡暴露了根本性低效——存储网络带宽利用不均,而单纯增加预填充端带宽成本高昂。

▲现有瓶颈(左)与DualPath(右)

DualPath的提出正是为了解决上述问题,其核心洞察在于打破“KV缓存加载必须以预填充为中心”的传统设计。

现有系统仅通过存储到预填充引擎的单一路径加载,导致预填充端带宽饱和而解码端带宽闲置。DualPath则增加了存储到解码路径,将KV缓存先加载至空闲的解码引擎,再通过RDMA高效传输给预填充引擎。

这一模式聚合了所有存储网卡带宽,重新分配网络负载,从根本上缓解预填充端的I/O瓶颈。

不过,该设计仍然面临两大挑战:首先,引入额外的加载路径会产生复杂的流量模式,并可能与模型执行中的集体通信原语产生潜在干扰,若管理不当会降低整体性能。

其次,系统必须在动态和异构的工作负载下在线决定使用哪条加载路径,并同时确保GPU和网卡之间的负载均衡。

二、三大核心组件打造DualPath,新组件并未引入瓶颈

那么,DeepSeek究竟是如何解决这些挑战的呢?DualPath使用了两项广泛使用的技术:

(1)PD分离,将提示词和解码处理分开以提高效率。

(1)分层预填充,避免了预填充引擎上的HBM瓶颈,并提高了GPU利用率。

而DualPath主要由三大核心组件构成。推理引擎是基础执行单元,每个引擎管理一个GPU,并明确区分为专司预填充计算的预填充引擎和负责解码生成的解码引擎。

流量管理器内嵌于每个引擎,统筹所有数据移动:包括主机与设备间的内存拷贝、预填充与解码引擎之间的KV缓存传输,以及通过存储网卡进行的KV缓存持久化读写。其采用以计算网卡为中心的流量管理策略,确保KV缓存流量不会干扰延迟敏感的模型集体通信。

请求调度器作为中央决策单元,接收客户端请求并智能分发给各引擎,同时动态决策每条请求采用传统存储到预填充路径还是新型存储到解码路径,实现双路径间的流量均衡与全局负载优化。

在具体实现上,DualPath在每个预填充引擎和解码引擎上预留少量DRAM作为缓冲区。对于预填充端读路径,命中token的KV缓存首先从存储读入预填充引擎缓冲区,然后按层流式传入预填充引擎的HBM,与未命中token的KV计算过程重叠执行。随后,完整的提示词KV会被传输至解码引擎缓冲区,供解码阶段使用。

对于解码端读路径,命中KV首先加载到解码引擎缓冲区,在预填充引擎执行预填充时逐层通过RDMA读取,同时与计算重叠。未命中KV计算完成后回传至解码引擎,与命中KV合并形成完整提示词缓存。

无论哪条路径,数据传输都采用分层流式方式,以缓解HBM容量压力并实现计算与通信的重叠。解码阶段开始前,解码引擎将完整KV从缓冲区传入HBM,完成主机到设备拷贝后释放CPU内存;在生成过程中,每当累积满一个固定大小的token块,就立即持久化到存储。

为了验证该架构不会引入新的瓶颈,论文对计算网卡带宽和DRAM带宽进行了系统性分析。通过建立每对预填充引擎—解码引擎之间的流量模型,并假设负载均衡与网络无拥塞,作者推导出在一定的P/D(预填充节点与解码节点数量之比)范围内,计算网卡、PCIe以及DRAM均不会成为瓶颈。

在典型配置(例如每节点8个GPU、存储带宽远小于计算带宽)下,可行的P/D区间覆盖大多数实际部署比例,说明系统能够在充分利用所有存储网卡带宽的同时,保持计算与内存资源的稳定运行。

三、系统落地仍面临三大挑战,采用计算网卡为中心的流量管理

然而,在真实系统中落地双路径架构仍面临三项核心挑战。首先是细粒度数据传输。分层执行缓解了HBM容量压力,但也将KV拆分为大量小块,需要在存储、主机DRAM和GPUHBM之间高效搬运,同时控制软件与硬件开销。

其次是流量隔离。新增的KV传输可能干扰模型执行中的延迟敏感型集体通信(如AllToAll、ReduceScatter/AllGather),若缺乏隔离机制,将直接推高端到端推理延迟。

最后是动态负载均衡。由于系统存在两条读取路径,调度器必须结合磁盘队列长度、GPU负载和请求特征动态决策,否则容易再次形成局部瓶颈。

为避免KV传输干扰模型通信,系统采用以计算网卡为中心的流量管理机制。所有进出GPU的流量,包括H2D/D2H拷贝,统一经由与GPU配对的计算网卡,并通过GPUDirectRDMA完成传输,使全部数据流汇聚到计算网络,从而利用硬件QoS能力进行优先级隔离。

资源分享更多>>

魅族天猫旗舰店所有手机都下架了:一个时代终结 机圈再无小而美 利好苹果,不利好国产,智能手机领域寒风刮起 小米17U徕卡版海外定名“LEITZPHONE powered by Xiaomi” 媒体称魅族第三方硬件合作方为酷比魔方:共享Flyme系统 存储芯片持续涨价,千元机市场静悄悄:中低端需求正被动萎缩 台积电先进封装科普:CoWoS、CoPoS、CoWoP 到底是个啥?谁才是下一代最该关注的技术? 1秒3亿、单日突破10亿!老铺黄金创下天猫大促最快销售纪录 百度无代码开发平台“秒哒”已生成超100万个AI应用 DeepSeek发布下一代技术!北大实习生立功 又一车企大规模召回,440万辆! 猿辅导沉浸式素养教育展落地冰城 T3出行大数据:火车站等交通枢纽峰值日打车需求同比增长将超48% 阅文计提新丽18亿商誉减值 出清商誉风险 有道“AI原生”战略成效显著,CEO周枫:将扩大AI应用与智能体的布局 字节跳动Seedance 2.0暂停真人素材参考能力 2026高性价比换机新年送礼首选!nova 15系列国补来袭:3000元档颜值实力双在线 里程碑时刻!100B扩散语言模型892 Tokens /秒,AI另一条路走通了 小众架构赢麻了:让100B扩散模型飙出892 tokens/秒的速度! 22亿!黄仁勋苏姿丰联手,投了一家“世界模型”公司 两天痛失两位华裔大佬!马斯克万亿估值为何留不住人心? RLinf-USER发布!别再用仿真,真实世界训练也能极致效率与系统化 Moltbook之外,上交大联合上海AI Lab模拟了AI原⽣社交的真实暗⾯ 盛色推出“OF27UT Pro”27英寸显示器,1299元 曝苹果首款OLED MacBook将于Q4发布 由三星供应屏幕 一季度PC内存要翻倍涨!涨幅达历史新高 折叠版iPad!iPhone Fold外观细节出炉:音量键在顶部 折叠屏iPhone不止一款!苹果或再推覆盖式可折叠iPhone,主打便携与易收纳 苹果出手,隔空投送白嫖FCP失灵了 千问APP投入30亿,阿里加入春节AI红包大战 腾讯内部信回应元宝“春节红包”分享质疑:无门槛领取与平台旨在打击的恶意营销存在本质不同