Fast-dVLM

  • Fast-dVLM:块扩散颠覆自回归,VLM推理提速6倍,内存带宽不再是瓶颈

    这篇论文真正要解决的核心问题,并非是单纯提升视觉语言模型的回答质量,而是要在实际部署场景中,彻底摆脱逐 token 自回归解码对推理速度的束缚。 在过去两年间,视觉语言模型早已超越了“看图问答”的单一功能,演变为物理 AI、机器人、自动驾驶、文档理解、图表分析以及多模态智能体等领域的通用感知与推理核心模块。 虽然模型本身的智能水平提升迅速,但其推理机制却依然…

    大模型推理 4小时前
    2400