扩散大语言模型
-
让搜索Agent不「傻等」:人大团队依托扩散模型实现「一心二用」,边等搜索结果边思考,加速15%性能不减
当前主流的搜索智能体(Agent)普遍存在一个效率瓶颈:其执行流程是严格串行的。以广泛采用的ReAct框架为例,其模式为 “思考→调用工具→等待结果→再思考……” 。在这种模式下,模型在等待搜索引擎返回结果时完全处于空闲状态,造成了大量的时间浪费。多轮交互中,延迟不断累积,严重影响了用户体验。 研究团队通过分析发现,在多跳问答等复杂任务中,这种“干等”的串行…
-
突破扩散大语言模型解码瓶颈:复旦大学团队提出一致性轨迹强化学习新范式
扩散大语言模型(Diffusion Large Language Models)作为生成式人工智能领域的新兴范式,在2025年迎来了关键性突破。2月,Inception Labs推出首个商业级扩散大语言模型Mercury;同期,中国人民大学开源了8B参数的LLaDA模型;5月,Gemini Diffusion的发布进一步印证了这一技术路线的潜力。这些进展表明…