内存墙
-
PF-LLM:大语言模型破解硬件预取困境,静态代码分析实现智能内存访问优化
关键词:硬件预取、内存墙、大语言模型、CPU 微架构、硬件-软件协同设计 在追求单核性能的征途上,CPU 设计师们正面临一道难以逾越的天堑——“内存墙”。这道墙的另一边,是主存(DRAM)动辄数百个周期的访问延迟,而 CPU 核心的运算速度却已逼近物理极限。为了填平这道墙,现代处理器普遍采用了一项关键技术:硬件数据预取。它像一个未卜先知的预言家,提前将程序未…
-
Dato:突破内存墙,数据流加速器编程新范式实现98%理论峰值利用率
关键词:Dato、数据流加速器、任务型编程模型、通信抽象、虚拟-物理映射 随着人工智能计算的不断发展,数据流加速器将扮演越来越重要的角色。Dato为这些复杂硬件的编程提供了全新的思路,有望成为下一代人工智能计算基础设施的关键组成部分。 Dato的核心创新在于其类型系统的设计,将数据通信和数据分片都提升为一等类型,这使得编译器能够在早期阶段进行深入的分析和优化…
-
Meta与ThinkMachine联手突破MoE训练内存墙:MoEBlaze框架实现内存降低4倍、训练加速6倍
关键词: MoEBlaze 、内存墙、MoE 训练 、索引化路由 在当今大模型浪潮中,参数规模已突破万亿,训练成本与内存压力成为制约模型规模继续扩大的关键瓶颈。混合专家模型(Mixture-of-Experts, MoE) 因其能够以稀疏激活的方式实现万亿参数级别的模型训练,已成为大规模语言模型的主流架构之一。 然而,MoE 的稀疏性在降低计算密度的同时,也…
