扩散大语言模型
-
动态缓存+自适应解码,哈工大华为联合提出免训练dLLM加速框架,最高4.48倍提速
Dynamic-dLLM团队 投稿 量子位 | 公众号 QbitAI 文本生成领域,扩散大语言模型(dLLMs)正展现出巨大潜力。但与此同时,它也面临严重的计算瓶颈—— 为此,哈工大(深圳)与华为、深圳河套学院的研究团队提出了一套免训练加速框架 Dynamic-dLLM。 不同于主流dLLM加速方案(如dLLM-Cache、Fast-dLLM等),这些方案主…
-
让搜索Agent不「傻等」:人大团队依托扩散模型实现「一心二用」,边等搜索结果边思考,加速15%性能不减
当前主流的搜索智能体(Agent)普遍存在一个效率瓶颈:其执行流程是严格串行的。以广泛采用的ReAct框架为例,其模式为 “思考→调用工具→等待结果→再思考……” 。在这种模式下,模型在等待搜索引擎返回结果时完全处于空闲状态,造成了大量的时间浪费。多轮交互中,延迟不断累积,严重影响了用户体验。 研究团队通过分析发现,在多跳问答等复杂任务中,这种“干等”的串行…
-
突破扩散大语言模型解码瓶颈:复旦大学团队提出一致性轨迹强化学习新范式
扩散大语言模型(Diffusion Large Language Models)作为生成式人工智能领域的新兴范式,在2025年迎来了关键性突破。2月,Inception Labs推出首个商业级扩散大语言模型Mercury;同期,中国人民大学开源了8B参数的LLaDA模型;5月,Gemini Diffusion的发布进一步印证了这一技术路线的潜力。这些进展表明…
