ในฐานะบรรณาธิการเทคนิคมืออาชีพ ผมได้เขียนเนื้อหาต้นฉบับใหม่ตามที่คุณร้องขอ ด้านล่างนี้คือเนื้อหาในรูปแบบ Markdown ที่ลบโฆษณา/ข้อมูล QR Code ออกแล้ว และคงไว้ซึ่งตัวยึดตำแหน่ง [[IMAGE_X]] ทั้งหมด
อีสุ่ย ส่งจากอ่าวเฟย
TPU ถูกประเมินค่าต่ำเกินไป
หลังจากดูTPU รุ่นที่ 8 ที่ Google เพิ่งเปิดตัว ในที่สุดผมก็เข้าใจความหมายของคำพูดของอีลอน มัสก์
TPU รุ่นที่ 8 ที่ Google สร้างขึ้นสำหรับยุค Agent โดยเฉพาะ มีจุดเด่นหลักคือ:
ประการแรก บนเส้นทาง “แยกการฝึกและการอนุมาน” Google ไปได้ไกลกว่า NVIDIA โดยตรงด้วยการเปิดตัวชิปสองตัวที่แตกต่างกันทางกายภาพ
- ชิปเฉพาะสำหรับฝึก TPU 8t: ประสิทธิภาพการคำนวณโดยรวมเกือบสามเท่าของรุ่นก่อนหน้า สามารถลดระยะเวลาการฝึกโมเดลจากหลายเดือนเหลือเพียงไม่กี่สัปดาห์
- ชิปเฉพาะสำหรับอนุมาน TPU 8i: ความสามารถในการให้บริการเพิ่มขึ้นเป็นสองเท่าโดยที่ต้นทุนไม่เปลี่ยนแปลง

ประการที่สอง มุ่งเน้นด้านประสิทธิภาพการใช้พลังงานอย่างต่อเนื่อง ด้วยเทคโนโลยีระบายความร้อนด้วยของเหลวรุ่นที่ 4 ประสิทธิภาพต่อวัตต์ของ TPU รุ่นที่ 8 เพิ่มขึ้นเกือบสองเท่าเมื่อเทียบกับรุ่นก่อนหน้า
การก้าวข้ามอุปสรรคสำคัญด้านประสิทธิภาพและการใช้พลังงาน ทำให้การปรับใช้ Agent ในวงกว้างเป็นไปได้จริง หลังจากการเปิดตัว TPU รุ่นที่ 8 ครั้งนี้ ได้เกิดการถกเถียงอย่างกว้างขวางบน 𝕏:
นี่คือการอัปเกรดฮาร์ดแวร์ที่สามารถสร้างการเปลี่ยนแปลงได้อย่างแท้จริง

ปฏิกิริยาของตลาดก็ตรงไปตรงมาเช่นกัน หลังจาก TPU รุ่นที่ 8 ปรากฏตัวในงานเปิดตัว ราคาหุ้น Alphabet พุ่งขึ้นสูงสุด 2.2% ในระหว่างวัน แสดงให้เห็นถึงการยอมรับเบื้องต้นของตลาดต่อทิศทางนี้

คาดว่าชิปทั้งสองรุ่นนี้จะวางจำหน่ายอย่างเป็นทางการในช่วงปลายปีนี้
Gemini มีส่วนร่วมในการออกแบบ Google เปิดเผยรายละเอียดชิป
ที่น่าสังเกตคือ เบื้องหลังการพัฒนา TPU รุ่นที่ 8 ของ Google มีการมีส่วนร่วมของ Gemini แม้ว่า Google จะไม่ได้เปิดเผยว่า Gemini มีส่วนร่วมในขั้นตอนใดบ้าง แต่บล็อกอย่างเป็นทางการได้ระบุชื่อไว้อย่างชัดเจน (Co-designed)
TPU รุ่นที่ 8 ซึ่งรวบรวม “ปัญญามนุษย์และเครื่องจักร” ได้รับการปรับให้เหมาะสมที่สุดในสองทิศทางคือการฝึกและการอนุมาน และในที่สุดก็ให้กำเนิดชิปสองตัวคือ 8t และ 8i
ผู้ใช้อินเทอร์เน็ตถึงกับแต่งกลอนง่ายๆ เพื่อแยกแยะ: “จอแนวนอนใช้สำหรับฝึก จอแนวตั้งใช้สำหรับอนุมาน”

มาดู 8t ที่เน้นการฝึกกันก่อน เมื่อเทียบกับรุ่นก่อนหน้า 8t ได้รับการอัปเกรดอย่างครอบคลุมในสามด้าน: “ขนาด ประสิทธิภาพ และความเสถียร”
- ขนาด: ชุดชิปเดี่ยวสามารถขยายได้ถึง 9600 ชิป + 2PB หน่วยความจำแบนด์วิธสูงที่ใช้ร่วมกัน แบนด์วิธระหว่างชิปเพิ่มขึ้นเป็นสองเท่า พลังประมวลผลรวม 121 ExaFlops รองรับการรันโมเดลโดยตรงในพูลหน่วยความจำขนาดใหญ่แบบรวม
- อัตราการใช้งาน: ความเร็วในการเข้าถึงหน่วยความจำเพิ่มขึ้น 10 เท่า ควบคู่กับการเชื่อมต่อข้อมูลโดยตรง TPUDirect เพื่อลดการว่างของพลังประมวลผลให้เหลือน้อยที่สุด และเพิ่มการใช้ทรัพยากรให้สูงสุด
- ความสามารถในการขยาย: 基于 Virgo 网络、JAX 与 Pathways,实现近乎线性的扩展能力,单一逻辑集群可延伸至百万级芯片规模。
- ความเสถียร: 通过实时遥测、自动绕过故障链路(ICI)、光路交换(OCS)等机制,在超大规模部署下仍能维持运行连续性,有效吞吐目标最高可达 97%。

而专攻推理的 8i,则着眼于低延迟这一核心目标。为此,谷歌几乎从底层将整套推理栈重构:
- 内存:直面“内存墙”挑战,将 288GB 高带宽内存 + 384MB 片上 SRAM 集成于单芯片(容量是上一代的 3 倍),确保模型的活跃数据尽可能驻留芯片内,减少数据搬运带来的延迟。
- 系统效率:引入自研的 Axion CPU 架构,将每台服务器的 CPU 主机数量翻倍,并通过 NUMA 进行隔离优化,提升系统协同效率。
- 模型适配:针对主流的 MoE 混合专家模型,将互连带宽提升至 19.2 Tb/s,并采用新的 Boardfly 架构将网络“路径长度”缩减过半,避免多专家协同时产生性能瓶颈。
- 延迟控制:新增片上集体加速引擎(CAE),将原本需要跨芯片完成的全局操作搬回芯片内部,整体延迟最高可降至原来的 1/5。
这一系列优化带来了直接效果:每美元性能提升约 80%,在相同成本下,服务能力接近翻倍。

对于为何决定训推分离,谷歌的逻辑很简单——智能体时代对延迟和吞吐的要求截然不同:训练要“快”,推理要“稳”。实践证明,单一芯片无法同时完美兼顾这两方面。
既然如此,何不尝试分开做?至少在第 8 代 TPU 上,谷歌已经看到了这种分离带来的实际收益。而谷歌敢于走这条分离之路,也离不开其对全栈的掌控能力。
背后是全栈协同优化
一个易被忽视的细节是:此前的 TPU 多搭配通用的第三方 CPU(如英特尔或 AMD 的 x86 架构)。但从这一代开始,TPU 终于与谷歌自研的 CPU(Axion)搭档。这使谷歌能够根据 AI 任务的实际需求,定制 CPU 与 TPU 的协作方式,从而榨取每一瓦电的性能。

针对 AI 发展最大瓶颈之一的“电力”,谷歌也投入了大量精力。
一方面,优化范围不再局限于芯片本身,而是扩展到整条链路——从 CPU、TPU 到网络,再到整个数据中心,均围绕“省电”重新设计。例如,将网络连接直接嵌入计算芯片,减少节点间的数据搬运。

再配合统一的电源管理,根据实时负载动态调功,将电力优先分配给最关键的计算环节。
另一方面,数据中心不再是单纯的承载设施,而是与 TPU 协同设计,供电、调度、散热全部重新打磨。结合第四代液冷技术,撑起了原本风冷难以应对的功率密度,使算力在更高能效区间稳定运行。

这些优化叠加后,效果显著:8t 和 8i 的每瓦性能相比上一代提升了近 2 倍。若放大到数据中心层面,单位电力所能提供的算力,五年间已提升了 6 倍。
更重要的是,谷歌已将这套全栈能力打包给开发者使用。8t 和 8i 原生支持 PyTorch、JAX、vLLM 等主流框架,并提供裸机访问,让开发者直接利用真实硬件性能。配合 MaxText、Tunix 等开源工具,从模型训练到部署的路径也进一步打通。
这也难怪谷歌敢于喊出“面向 Agent 时代的基础设施”这一口号。至少从现有布局来看,其正朝着这一方向推进。
One More Thing
随着谷歌第 8 代 TPU 的发布,网友们也纷纷围观起黄仁勋的“热闹”。

巧合的是,黄仁勋此前在一档播客中,回应了主持人的犀利提问:
世界上排名前三的 AI 模型中有两个——Claude 和 Gemini,都是在 TPU 上训练的。这对英伟达未来意味着什么?
黄仁勋当时只留下了引人无限遐想的几个字:TPU 没有威胁。
在他看来,专为 AI 设计的 TPU 仅在某条赛道取得突破,而英伟达做的是 All。
有大量应用场景是 TPU 无法覆盖的。英伟达把 CUDA 打造成一个出色的张量处理单元,但它也能处理数据处理、计算、AI 等的整个生命周期。我们的市场机会更广,覆盖面更大。因为我们支持世界上所有类型的应用,你可以在任何地方建立英伟达系统,并确信它会有客户需求。这是一个完全不同的概念。
换言之,英伟达出售的从来不是某一颗芯片,而是一整套加速计算体系——从 CUDA 生态,到覆盖 AI、数据处理、科学计算在内的全场景能力。从这个角度看,AI 只是当下其中最热门的一块。
然而,随着 AI 本身开始吞噬越来越多的算力需求,TPU 的重要性似乎正在被重新评估。至少,马斯克已经表明了自己的态度。

参考链接:
[1]https://x.com/Google/status/2046993420841865508
[2]https://x.com/koraykv/status/2047019069594116515
[3]https://www.bloomberg.com/news/articles/2026-04-22/google-cloud-releases-new-tpu-chip-lineup-in-bid-to-speed-up-ai?embedded-checkout=true
— 完 —
第8代TPU发布:训推分离芯片性能飙升,Agent时代加速
在“龙虾”概念爆火、带动一波Agent与衍生产品浪潮之后,市场情绪虽受短期热点牵引,但真正具备长期价值的AI公司与产品,或许不止于此。
若你正身处于、或见证着这些技术与商业的深层变革,欢迎申报分享。
让更多人看见你的实践与洞察。
👉 申报入口

一键关注 👇 点亮星标
科技前沿进展,每日触达
⚠️ หมายเหตุ: เนื้อหาได้รับการแปลโดย AI และตรวจสอบโดยมนุษย์ หากมีข้อผิดพลาดโปรดแจ้ง
☕ สนับสนุนค่ากาแฟทีมงาน
หากคุณชอบบทความนี้ สามารถสนับสนุนเราได้ผ่าน PromptPay
本文来自网络搜集,不代表คลื่นสร้างอนาคต立场,如有侵权,联系删除。转载请注明出处:http://www.itsolotime.com/th/archives/31678
