ZhiPingFang เปิดตัวชุมชนโอเพนซอร์สอัจฉริยะแบบครบวงจรแห่งแรกของโลก AlphaBrain Platform
หลังจาก Tesla เปิดสิทธิบัตรฮาร์ดแวร์โอเพนซอร์ส ทุกคนต่างรอคอย: บริษัทจีนจะตอบสนองอย่างไร?
ตอนนี้คำตอบมาแล้ว — การลอกเลียนแบบฮาร์ดแวร์มีความหมายจำกัด ถ้าจะเปิดโอเพนซอร์ส ก็ต้องหาสิ่งที่มีคุณค่ามากกว่าฮาร์ดแวร์
เมื่อวันที่ 22 เมษายน ZhiPingFang ได้เปิดตัว ชุมชนโอเพนซอร์ส AlphaBrain Platform อย่างเป็นทางการ นี่คือชุมชนโอเพนซอร์สโมเดลอัจฉริยะแบบครบวงจร แห่งแรกของโลก ที่ พร้อมใช้งานทันที

ที่น่าสนใจคือ ครั้งนี้ไม่ใช่แค่การเปิดโอเพนซอร์สโมเดลเดียว ZhiPingFang ร่วมมือกับทีมของ Xiong Hui จาก HKUST (Guangzhou) เปิดตัว “ชุดครอบครัวระดับพรีเมียม” โดยตรง:
- เทคโนโลยีล้ำหน้าด้านอัจฉริยะ (แบบจำลองสมอง/โลก)
- ครอบคลุมสถาปัตยกรรมที่หลากหลายที่สุด (RL/VLA แบบดั้งเดิม/แบบจำลองสมอง)
- ความสามารถในการผสมผสานที่ยืดหยุ่นที่สุด (ข้ามกระบวนทัศน์แบบเสียบแล้วใช้ได้ทันที)
- มาตรฐานการประเมินที่ยุติธรรมที่สุด (Benchmark 统一的)
- ชุมชนนักพัฒนาที่กว้างขวางที่สุด (รวบรวมพลังโอเพนซอร์สจากทั่วโลกทั้งภาคอุตสาหกรรมและวิชาการ)
เทคโนโลยีล้ำหน้าเหล่านี้ซึ่งเดิมมีอยู่เฉพาะใน ห้องปฏิบัติการชั้นนำ เท่านั้น บัดนี้เปิดให้ใช้งานได้อย่างอิสระ
นักพัฒนาคนหนึ่งให้ความเห็น:
เมื่อก่อนการเปิดโอเพนซอร์สคือการให้เครื่องมือคุณ一件 ตอนนี้การเปิดโอเพนซอร์สคือการให้กล่องเครื่องมือคุณทั้งใบ
ZhiPingFang ก่อตั้งขึ้นในปี 2023 มุ่งเน้นไปที่ หุ่นยนต์อัจฉริยะทั่วไป ที่เป็น AGI ดั้งเดิม ปัจจุบันบริษัทมีพนักงาน เกือบ 300 คน
ด้วย การระดมทุน 12 ครั้งในหนึ่งปี บริษัทถูกเรียกว่ายูนิคอร์นที่มี จังหวะการระดมทุนเร็วที่สุด ในสาขาอัจฉริยะทางกายภาพทั่วโลก Morgan Stanley ยังจัดให้เป็นบริษัทตัวแทนของโมเดลพื้นฐานทางอัจฉริยะทางกายภาพ
การเปิดตัว “กล่องเครื่องมือ” ในเวลานี้ ZhiPingFang มีแนวคิดอย่างไร?

ในช่วงสองปีที่ผ่านมา มีโมเดลโอเพนซอร์สจำนวนมากเกิดขึ้นในสาขาอัจฉริยะทางกายภาพ แต่ความจริงที่น่าอึดอัดคือ: แม้จะมีโมเดลโอเพนซอร์สมากมาย แต่โมเดลที่ “ใช้งานได้ดี” จริงๆ นั้นมีน้อย
นักพัฒนายังคงเผชิญกับปัญหาต่างๆ: โมเดลนี้ทำงานอย่างไร? โมเดลนั้นแข็งแกร่งกว่าเมื่อเทียบกัน? นวัตกรรมที่ต้องการนำไปใช้สามารถลงสู่สถานการณ์จริงได้หรือไม่?
ตอนนี้ AlphaBrain Platform เลือกที่จะเปิดโอเพนซอร์สความสามารถแบบครบวงจรที่ “ทำให้โมเดลทำงานได้ เปรียบเทียบได้ และนำไปใช้ได้จริง” สะดวกในการจำลอง เปรียบเทียบ และนำไปใช้ในสถานการณ์จริง
สัญญาณชัดเจนมากแล้ว: สงครามโอเพนซอร์สของอัจฉริยะทางกายภาพของจีน เข้าสู่ขั้นตอนการวางตำแหน่งของผู้เล่นหลักอย่างเป็นทางการ
ไฮไลท์ทางเทคนิค 5 ประการ สามประการที่น่าสนใจที่สุด
ดังที่กล่าวไว้ “ชุดครอบครัวระดับพรีเมียม” นี้รวบรวมเทคโนโลยีหลัก 5 ประการของอุตสาหกรรม
สิ่งที่ได้รับความสนใจมากที่สุดคือ แบบจำลองโลก, แบบจำลองสมอง, RL Token และอัลกอริทึมการเรียนรู้ต่อเนื่อง

สิ่งเหล่านี้ล้วนเป็นเส้นทางเทคโนโลยีที่ได้รับความนิยมมากที่สุดในสาขาอัจฉริยะทางกายภาพในปัจจุบัน แต่ละเส้นทางมีข้อได้เปรียบเฉพาะตัว มาวิเคราะห์ทีละข้อ
แบบจำลองโลก: “เครื่องยนต์จินตนาการ” ที่ได้รับความสนใจมากที่สุด
ส่วนที่แข็งแกร่งที่สุดของ AlphaBrain Platform คือการนำความสามารถของแบบจำลองโลกไปใช้อย่างเต็มที่ เปิดตัวสถาปัตยกรรมแบบจำลองโลกแบบเสียบได้ (WA) ตัวแรกของโลก
ไฮไลท์หลักมีสองประการ:
1. รวมน้ำหนักดั้งเดิมของ NVIDIA Cosmos Policy โดยกำเนิด
นี่ไม่ใช่แค่การอาศัยชื่อเสียงของแบรนด์
นักพัฒนาสามารถโหลดน้ำหนักก่อนการฝึก DiT 2B พารามิเตอร์ดั้งเดิมของ NVIDIA Cosmos Predict2 ได้โดยตรง และทำนายการทำงานของหุ่นยนต์ผ่านโมเดลการแพร่กระจายวิดีโอในพื้นที่แฝง
พูดง่ายๆ คือ การย้ายความสามารถ “การทำนายการกระทำ” ที่เป็นแกนหลักที่สุดของ NVIDIA มาอย่างสมบูรณ์ พารามิเตอร์ที่ฝึกได้ประมาณ 1,956M สถาปัตยกรรมพื้นฐานแข็งแกร่งพอ
2. กำหนด Backbone แบบจำลองโลกหลักสามแบบไว้ล่วงหน้า สามารถสลับได้อย่างอิสระ
- V-JEPA 2.1 ของ Meta (ประมาณ 1.8 พันล้านพารามิเตอร์) สถาปัตยกรรมการทำนายการฝังร่วมวิดีโอ
- ซีรีส์ Cosmos Predict ของ NVIDIA เอง (ประมาณ 2.1 พันล้านพารามิเตอร์) แบบจำลองโลก
- Wan 2.2 ของ Tongyi Qianwen (ประมาณ 5 พันล้านพารามิเตอร์) เป็นรุ่นที่ใหญ่ที่สุดในสามรุ่น เน้นการสร้างข้อความ-วิดีโอขนาดใหญ่
รายชื่อนี้โดยพื้นฐานแล้วรวบรวมแบบจำลองโลกชั้นนำของโลกไว้ทั้งหมด
Backbone ทั้งสามนี้สามารถสลับได้อย่างอิสระในตัวถอดรหัส Flow-Matching กล่าวคือ ตัวถอดรหัสการกระทำหนึ่งตัว (ประมาณ 110 ล้านพารามิเตอร์) สามารถใช้ร่วมกับแบบจำลองโลกทั้งสามนี้ได้

หากนักพัฒนาต้องการเปรียบเทียบประสิทธิภาพของแบบจำลองโลกที่แตกต่างกันในงานเดียวกัน สามารถสลับได้ด้วยคลิกเดียว
การสลับโหมดการฝึกก็ทำได้ง่ายที่สุดเช่นกัน
คำสั่งเดียว สามารถสลับโหมดการฝึกผ่านจุดเข้าใช้งานการกำหนดค่าแบบรวม เพียงแก้ไขไฟล์การกำหนดค่าอย่างง่ายก็สามารถทำงานได้
RL Token: การผสมผสานทองคำระหว่างการเรียนรู้แบบเสริมกำลังและ VLA
ตั้งแต่ก่อตั้ง ZhiPingFang ได้กำหนดให้การสร้างแบบจำลองขนาดใหญ่ของโลกทางกายภาพเป็นทิศทางเทคโนโลยีหลัก และเป็นผู้นำในการปรับใช้สถาปัตยกรรม VLA ก่อนที่อุตสาหกรรมจะมีความเห็นพ้องต้องกัน การวิจัย VLA ตลอดหลายปีที่ผ่านมาไม่เคยหยุด
ในทิศทางการวิจัยที่ผสมผสาน VLA กับการเรียนรู้แบบเสริมกำลัง นักพัฒนามักเผชิญกับปัญหาสำคัญสองประการ: ประสิทธิภาพการอนุมานที่ต่ำมากจากพารามิเตอร์หลายพันล้านตัว และปัญหา “การลืมอย่างหายนะ” ที่เกิดขึ้นได้ง่ายเมื่อปรับแต่ง
RL Token คือ “การผสมผสานทองคำ” ที่ทำลายทางตันนี้ และเป็นอาวุธที่ทำให้โมเดลขนาดใหญ่สามารถนำไปใช้ในสถานการณ์จริงได้อย่างแท้จริง
ZhiPingFang เป็นผู้นำในการตรวจสอบเส้นทางนี้บนสภาพแวดล้อม LIBERO และเสนอแผนการเพิ่มประสิทธิภาพโอเพนซอร์สที่เป็นมิตรต่อนักพัฒนาอย่างมาก
การ突破ที่สำคัญของแผนนี้คือ:
1. การเข้ารหัสคอขวดข้อมูลและการแช่แข็ง主体 VLA
เพื่อแก้ปัญหาค่าใช้จ่ายในการคำนวณและการลืม แผนนี้引入了ตัวเข้ารหัสคอขวดข้อมูลและกลยุทธ์การฝึกสองขั้นตอน
ในขั้นตอนการปรับแต่ง RL พารามิเตอร์主体 VLA ขนาดใหญ่จะถูกแช่แข็งอย่างสมบูรณ์ สิ่งนี้ไม่เพียงรักษาเส้น底线ความสามารถทั่วไปดั้งเดิมของโมเดล (หลีกเลี่ยงการลืมอย่างหายนะ) แต่ยังทำให้ต้นทุนการคำนวณในการฝึกลดลงอย่างรวดเร็ว
2. ลด门槛การฝึก RL
ผ่านการปรับปรุงสถาปัตยกรรม จำนวนพารามิเตอร์ที่ระบบต้องฝึกจาก 3.9B ขนาดใหญ่เดิมลดลงเหลือประมาณ 137M (คิดเป็นเพียง 3.5% ของพารามิเตอร์ VLA ทั้งหมด)
ที่แข็งแกร่งยิ่งขึ้นคือ ในขั้นตอนการอัปเดตเกรเดียนต์การเรียนรู้แบบเสริมกำลังจริง เกี่ยวข้องกับพารามิเตอร์เพียง 1.3M ที่เบามาก
ซึ่งหมายความว่า นักพัฒนาไม่จำเป็นต้องมีคลัสเตอร์การคำนวณขนาดใหญ่ เพียงใช้การ์ดจอ RTX 4090 ระดับผู้บริโภคทั่วไปเพียงใบเดียว ก็สามารถรันการฝึกหลังการฝึก (Post-training) ของ VLA ด้วยการเรียนรู้แบบเสริมกำลังได้
3. เลิกทำลายแล้วเริ่มใหม่ บรรลุ “วิวัฒนาการที่มั่นคง”
กล่าวอีกนัยหนึ่ง นักพัฒนาจำนวนมากสามารถปรับต้นทุนต่ำสำหรับงานเฉพาะได้ โดยไม่ทำลายความสามารถดั้งเดิมของโมเดล
ในที่สุดโมเดลขนาดใหญ่ก็สามารถพัฒนาต่อไปได้อย่างต่อเนื่องบนพื้นฐานของประสบการณ์ที่หลากหลายที่มีอยู่ เช่นเดียวกับมนุษย์ แทนที่จะต้องทำลายและเริ่มต้นใหม่ทุกครั้งที่พบสถานการณ์ใหม่
แผนนี้พิสูจน์ให้เห็นว่า การเรียนรู้แบบเสริมกำลัง + VLA คู่ทองคำนี้ สามารถทำให้ทุกอุตสาหกรรม ทุกสถานการณ์ ใช้มันเพื่อปรับแต่ง “AI ที่ทำงานได้” ของตัวเอง
การเรียนรู้ต่อเนื่อง: วิศวกรรม “ไม่ลืม” ภายใต้กระแสข้อมูล
เมื่อหุ่นยนต์ถูกปรับใช้จริง ทุกวันจะสร้างสถานการณ์ งาน และทักษะใหม่ๆ
โหมดการฝึกแบบดั้งเดิมมีปัญหาที่ยากจะแก้ไข — เรียนรู้สิ่งใหม่ ลืมสิ่งเก่า ซึ่งเป็น “การลืมอย่างหายนะ” ที่เป็นที่ยอมรับในอุตสาหกรรม
เพื่อสร้างหุ่นยนต์อัจฉริยะทั่วไป การเรียนรู้ต่อเนื่อง (Continual Learning, CL) เป็นความสามารถพื้นฐานที่หลีกเลี่ยงไม่ได้
AlphaBrain Platform ได้ทำงานวิศวกรรมอย่างเป็นระบบในด้านนี้: ผลักดัน CL จาก “ของเล่นวิจัยบนโมเดลเดียว” ไปสู่แพลตฟอร์มเปรียบเทียบที่สามารถจำลองได้ข้ามสถาปัตยกรรม

ไฮไลท์ทางเทคนิค主要有สามประการ:
1. การเปรียบเทียบแนวนอนข้ามสถาปัตยกรรม
สถาปัตยกรรม VLA ที่ล้ำสมัยในปัจจุบัน — QwenGR00T, NeuroVLA, LlamaOFT, PaliGemmaOFT — ทั้งหมดถูกรวมไว้ในกระบวนการตรวจสอบ CL ชุดเดียวกัน
ในแต่ละสถาปัตยกรรม มีการรันตัวแปรการฝึกทั้งแบบ全参และ LoRA ก่อให้เกิดการเปรียบเทียบแนวนอนภายใต้เกณฑ์มาตรฐาน统一 แทนที่จะแสดงผลจุดเดียวบน backbone ใด backbone หนึ่งเท่านั้น
2. การแยกส่วนข้ามสถาปัตยกรรม: อัลกอริทึมและโมเดลไม่รุกรานกัน
อินเทอร์เฟซอัลกอริทึม CL ถูกแยกส่วนออกจากโมเดลธุรกิจอย่างสมบูรณ์ — ต้นทุนการเปลี่ยน backbone ต่ำมาก
หากต้องการเปลี่ยน Experience Replay เป็นวิธี CL อื่น เพียง implement คลาสนามธรรมแบบ统一 สถาปัตยกรรมทั้งหมดก็จะปรับตัวได้โดยอัตโนมัติ
การ注入, บันทึก, โหลดและรวม LoRA ก็ถูกแยกเป็นโมดูลอิสระ เปิดเผย API ที่ชัดเจนเพียงไม่กี่ตัวภายนอก
กล่าวคือ นักวิจัยอัลกอริทึมไม่จำเป็นต้องศึกษารายละเอียดการ implement ของ VLA แต่ละตัว นักพัฒนาโมเดลไม่ต้องกังวลว่าอัลกอริทึม CL ทำงานภายในอย่างไร ทั้งสองฝ่ายทำหน้าที่ของตน ต้นทุนความร่วมมือลดลงอย่างมาก
3. ห่วงโซ่การฝึก-ประเมินผลที่พร้อมใช้งานทันที
ตั้งแต่เริ่มการฝึกด้วยคำสั่งเดียว ไปจนถึงการประเมินเมทริกซ์ การวิเคราะห์การลืมที่ได้ผลลัพธ์ ทั้ง pipeline มี wrapper และเอกสารประกอบครบชุด
ขนาด checkpoint ภายใต้เส้นทาง LoRA ก็เล็กกว่ารุ่น全参อย่างมาก เป็นมิตรกับหน่วยความจำและการจัดเก็บมากขึ้น นักวิจัยจำนวนมากขึ้นสามารถจำลองและดัดแปลงบนเครื่องของตนเองได้
โดยสรุป ก่อนหน้านี้การทำการทดลองเช่น “โมเดลหนึ่งเรียนรู้หลายงานต่อเนื่องโดยไม่ลืม” แค่การสร้างสภาพแวดล้อมก็ยุ่งยากพอ
ตอนนี้ชุดเครื่องมือนี้ลด门槛ลงหนึ่งระดับ: บรรลุการสลับสถาปัตยกรรมด้วยคลิกเดียว จำลองได้ เปรียบเทียบได้ และขยายได้
แบบจำลองสมอง: อนาคตของ VLA
ก่อนหน้านี้ได้กล่าวถึง “คิดไกล” และ “เรียนรู้เร็ว” แต่สิ่งที่ทำให้หุ่นยนต์ “เรียนรู้ไปพร้อมทำงาน ฉลาดขึ้นเรื่อยๆ” เหมือนมนุษย์จริงๆ คือ การคำนวณแบบสมอง
NeuroVLA ที่ ZhiPingFang เปิดตัวในครั้งนี้ เป็นโมเดลโอเพนซอร์สอัจฉริยะทางกายภาพแบบสมองตัวแรกของโลกที่รองรับการตรวจสอบบนเกณฑ์มาตรฐานสาธารณะ
มันไม่ใช่แค่การติดป้าย “แบบสมอง” แต่เป็นการก้าวไปข้างหน้าอย่างมากจากสถาปัตยกรรมพื้นฐาน ไปสู่กลไกการเรียนรู้ของสมองทางชีวภาพ การออกแบบที่สำคัญมีสี่ประการ:
1. หัวการกระทำของโครงข่ายประสาทแบบพัลส์ (SNN)
ในฐานะบรรณาธิการเทคนิคมืออาชีพ ฉันได้เขียนส่วนของข้อความต้นฉบับใหม่ตามที่คุณต้องการ เนื้อหาที่เขียนใหม่ได้ล้างโฆษณา รหัส QR และคำพูดชี้นำออกแล้ว เก็บแกนหลักทางเทคนิคไว้ และจัดรูปแบบให้เป็นมาตรฐาน ส่งออกเป็น Markdown โดยตรง
นวัตกรรมเทคโนโลยีหลักของ NeuroVLA
ผลลัพธ์ของโมเดล AI แบบดั้งเดิมมักเป็นค่าตัวเลขต่อเนื่อง คล้ายกับสถานะ二元 “เปิด/ปิด” โมเดล NeuroVLA ได้引入นวัตกรรมของเซลล์ประสาท LIF (Leaky Integrate-and-Fire) อย่างสร้างสรรค์ โดยใช้การเข้ารหัสพัลส์เพื่อแสดงข้อมูล
กลไกนี้จำลองกระบวนการ “放电” ของเซลล์ประสาททางชีวภาพ: จะสร้างพัลส์เมื่อได้รับสิ่งกระตุ้นเพียงพอเท่านั้น เมื่อไม่มีสิ่งกระตุ้นจะอยู่ในสถานะพัก ซึ่งใกล้เคียงกับรูปแบบการทำงานของสมองมนุษย์มากขึ้น

2. อัลกอริทึมการฝึก R-STDP
แกนหลักของอัลกอริทึม R-STDP คือการ赋予หุ่นยนต์ความสามารถในการเรียนรู้จากประสบการณ์ “สำเร็จหรือล้มเหลว”
อัลกอริทึมนี้รองรับสองโหมด:
* โหมดผสม Backpropagation + STDP
* โหมด STDP บริสุทธิ์
กลไกหลักคือ: สัญญาณรางวัลจะปรับความแข็งแรงของการเชื่อมต่อของเซลล์ประสาทแบบไดนามิก เมื่อการกระทำถูกต้อง การเชื่อมต่อที่เกี่ยวข้องจะถูกเสริมกำลัง เมื่อการกระทำผิด การเชื่อมต่อจะถูกทำให้อ่อนลง โดยพื้นฐานแล้วสิ่งนี้จำลองหลักการเรียนรู้ “ใช้แล้วเจริญ ไม่ใช้แล้วเสื่อม” ในสมองทางชีวภาพ
3. การปรับตัวแบบทดสอบออนไลน์ STDP
โมเดลแบบดั้งเดิมมักจะคงที่หลังจากปรับใช้ ยากที่จะปรับตัวเข้ากับสภาพแวดล้อมใหม่
NeuroVLA แตกต่าง ในระหว่างการทำงาน มันไม่จำเป็นต้องพึ่งพา backpropagation เพียงอาศัยสัญญาณรางวัลแบบ自我监督ที่เกิดจากการโต้ตอบกับสภาพแวดล้อม (เช่น ความแม่นยำในการทำนายสถานะ ความราบรื่นในการดำเนินการ) ก็สามารถอัปเดตน้ำหนักของ SNN (โครงข่ายประสาทแบบพัลส์) ได้แบบเรียลไทม์
关键คือ กระบวนการนี้ไม่สร้างค่าใช้จ่ายในการคำนวณเพิ่มเติมใดๆ ซึ่งหมายความว่าหุ่นยนต์สามารถเรียนรู้ไปพร้อมกับปฏิบัติงาน โดยไม่消耗พลังการคำนวณเพิ่ม

4. โมดูลปรับแต่งการกระทำ GRU-FiLM
หลังจาก SNN ส่งคำสั่งการกระทำ โมดูล GRU-FiLM จะทำหน้าที่เป็น “ผู้ปรับแต่ง”
โมดูลนี้基于สถานะ本体ปัจจุบันของหุ่นยนต์ (เช่น มุมข้อต่อ ความเร็ว) ทำการแก้ไขคำสั่งการกระทำตามเงื่อนไข กลไก “ปรับหยาบก่อน แล้วค่อยปรับละเอียด” นี้ ช่วยเพิ่มความแม่นยำของการกระทำได้อย่างมาก
พูดง่ายๆ คือ หุ่นยนต์แบบดั้งเดิมความสามารถจะถูกกำหนดตั้งแต่出厂 เมื่อเจอสถานการณ์ใหม่มักจะทำอะไรไม่ได้ ในขณะที่方案 NeuroVLA ให้ความสามารถ “เรียนรู้ตลอดชีวิต” แก่หุ่นยนต์ ทำให้มันสามารถเรียนรู้ไปพร้อมทำงาน ทำได้ดีขึ้นเรื่อยๆ และต้นทุนการเรียนรู้ต่ำมาก นี่คือข้อได้เปรียบหลักของสมองทางชีวภาพ
สถานการณ์การใช้งานและระบบนิเวศทางเทคนิค
แพลตฟอร์มโอเพนซอร์สนี้รวมโมเดลและเครื่องมือต่างๆ มากมาย มีเป้าหมายเพื่อลด门槛การพัฒนา
-
การรวมและการประเมินโมเดล: แพลตฟอร์มไม่เพียงเปิดโอเพนซอร์สโมเดล “แรกของโลก” ที่ล้ำหน้าที่สุดสามตัวของ ZhiPingFang เอง แต่ยังรวมโมเดลชั้นนำอื่นๆ ด้วย นักพัฒนาไม่จำเป็นต้อง配置依赖ที่ซับซ้อนก็สามารถใช้งานได้โดยตรง แพลตฟอร์มมีเกณฑ์มาตรฐานการประเมิน (Benchmark) แบบ统一 สามารถประเมินประสิทธิภาพของโมเดลต่างๆ ได้ด้วยคลิกเดียว ทำให้กระบวนการเปรียบเทียบง่ายขึ้น
-
รองรับชุดเครื่องมือครบวงจร: แพลตฟอร์มมีชุดเครื่องมือ完整ตั้งแต่ข้อมูล การฝึก สถาปัตยกรรม ไปจนถึงการทดสอบ มีเป้าหมายเพื่อเชื่อมต่อห่วงโซ่ทั้งหมดตั้งแต่การวิจัยและพัฒนาไปจนถึงการนำไปใช้ในสถานการณ์จริง นอกจากนี้ โมเดลสามารถทำงานบนการ์ดจอระดับผู้บริโภค พารามิเตอร์ที่ต้องฝึกลดลงเหลือ 3.5% ของเดิม และรองรับการปรับแต่งหลังการฝึกด้วยการเรียนรู้แบบเสริมกำลังต้นทุนต่ำ เพื่อปรับให้เข้ากับแพลตฟอร์มหุ่นยนต์ต่างๆ
-
การเข้าถึงเทคโนโลยี: เทคโนโลยี前沿 เช่น การคำนวณแบบสมอง แบบจำลองโลก การผสมผสานการเรียนรู้แบบเสริมกำลังกับ VLA สามารถเข้าถึงได้ผ่านชุมชนโอเพนซอร์สนี้

背景ของแพลตฟอร์มและวิวัฒนาการทางเทคนิค
ZhiPingFang ไม่ใช่ครั้งแรกที่เปิดโอเพนซอร์ส ย้อนกลับไปในเดือนมิถุนายน 2024 บริษัทได้เปิดโอเพนซอร์สโมเดล VLA ตัวแรก — เวอร์ชันเริ่มต้นของ AlphaBrain ตามรายงาน ขนาดโมเดลนี้เป็นเพียง 1/20 ของโมเดลที่คล้ายกันของ Google แต่ประสิทธิภาพกลับแซงหน้า 80% ผลงานที่เกี่ยวข้องได้รับการคัดเลือกให้อยู่ใน NeurIPS 2024
จนถึงเดือนกรกฎาคม 2025 ZhiPingFang ได้推出สถาปัตยกรรม VLA ใหม่ที่ผสาน “ระบบเร็ว-ช้า” อย่างลึกซึ้ง ซึ่งเป็นโมเดล VLA ระบบคู่ “อินพุตต่างชนิด + ความถี่异步” ตัวแรกในอุตสาหกรรม ตามรายงานประสิทธิภาพแซงหน้าเกณฑ์มาตรฐานสากล Pi0 ถึง 30% โมเดลนี้ด้วยความถี่ควบคุม 117.7 Hz บรรลุการ突破ในด้านความเร็วตอบสนองและความฉลาด

เกี่ยวกับการอภิปรายเรื่อง “แบบจำลองโลก” ZhiPingFang ได้提出ตั้งแต่ครึ่งหลังของปี 2023 ว่าแบบจำลองโลกไม่ควรเป็นโมดูลภายนอกของ VLA แต่ควรฝังลึกอยู่ภายในโมเดล 基于แนวคิดนี้ AlphaBrain ได้รวมสถาปัตยกรรม Video2Act ในเดือนพฤศจิกายน 2025 บรรลุความสามารถ “ทำนายก่อน แล้วค่อยดำเนินการ”

ปัจจุบัน ZhiPingFang ได้รวมโมเดล VLA แบบสมอง (NeuroVLA) เข้ากับแพลตฟอร์ม AlphaBrain และเปิดโอเพนซอร์ส AlphaBrain Platform ที่มีโมเดลและชุดเครื่องมือหลากหลาย เพื่อส่งเสริมการแบ่งปันเทคโนโลยีและการพัฒนาอุตสาหกรรม
ทีมงานและ背景การนำไปใช้ในอุตสาหกรรม
ZhiPingFang ถูกผู้สังเกตการณ์ในอุตสาหกรรมบางส่วนเรียกว่า “บริษัทหุ่นยนต์จีนที่เหมือน Tesla มากที่สุด” เนื่องจากเป็นรายแรกที่นำเส้นทางเทคโนโลยีโมเดลขนาดใหญ่端到端มาใช้ใน赛道หุ่นยนต์ฮิวแมนนอยด์ ตั้งแต่ก่อตั้งบริษัทได้กำหนดเส้นทางเทคโนโลยี VLA อย่างชัดเจน มุ่งมั่นพัฒนา “โมเดลขนาดใหญ่ของโลกทางกายภาพ”
ดร. Guo Yandong ผู้ก่อตั้งและซีอีโอของบริษัท มีปริญญาเอกสาขาวิศวกรรมไฟฟ้าและคอมพิวเตอร์จาก Purdue University เป็นศิษย์ของผู้เชี่ยวชาญด้าน AI เขาเคยทำงานที่ Microsoft Research USA, XPeng Motors และ OPPO ในตำแหน่งหัวหน้านักวิทยาศาสตร์และผู้บริหารฝ่ายวิจัยและพัฒนา ดร. Guo Yandong ได้รับการแต่งตั้งเป็นศาสตราจารย์พิเศษที่ Hong Kong University of Science and Technology (Guangzhou) ในปี 2025 และได้รับเลือกให้เป็นบุคคลนวัตกรรมวิทยาศาสตร์และเทคโนโลยี Forbes China ในปีนั้น
ทีมงานของ ZhiPingFang รวมถึงนักวิทยาศาสตร์ 5 คนที่อยู่ใน 2% แรกของโลกของ Stanford สมาชิกมีพื้นหลังมาจากบริษัทต่างๆ เช่น Microsoft, Google, OPPO, XPeng, Momenta รวมถึงมหาวิทยาลัยและสถาบันวิจัยที่มีชื่อเสียงทั้งในและต่างประเทศ เช่น Tsinghua, Peking University, Chinese Academy of Sciences, CMU, Berkeley
แตกต่างจากบริษัทหุ่นยนต์บางแห่งที่停留在ขั้นตอนการสาธิตเท่านั้น ZhiPingFang มุ่งเน้นการพัฒนา “หุ่นยนต์อัจฉริยะทั่วไปแบบ生产力” หุ่นยนต์อัจฉริยะทั่วไปแบบมีล้อ AlphaBot (Ai Bao) ซึ่งขับเคลื่อนโดยโมเดลขนาดใหญ่ AlphaBrain เริ่มถูกนำไปใช้ในระดับ规模ในสถานการณ์อุตสาหกรรมตั้งแต่ปี 2025 ข้อมูลที่เกี่ยวข้องรวมถึง:
- กันยายน 2025: สายการผลิตที่สร้างเองเริ่มใช้งาน
- เดือนเดียวกัน: เซ็นสัญญาคำสั่งซื้อมูลค่า 500 ล้านหยวนกับ HKC ซึ่งเป็นผู้ผลิตแผง LCD ชั้นนำสามอันดับแรกของโลก
- ธันวาคม 2025: ส่งมอบ AlphaBot 2 จำนวนหลายร้อยเครื่องจริงในเดือนเดียว
- ปี 2026: แผนขยายสายการผลิตเป็นหมื่นเครื่อง

นอกเหนือจากสถานการณ์อุตสาหกรรม “ZhiMoFang” พื้นที่บริการอัจฉริยะทางกายภาพแบบโมดูลาร์ตัวแรกของโลกที่เปิดตัว ได้ดำเนินการตามปกติในหลายเมืองแล้ว
ลิงก์ชุมชนโอเพนซอร์ส: https://www.alphabrain-platform.com/
⚠️ หมายเหตุ: เนื้อหาได้รับการแปลโดย AI และตรวจสอบโดยมนุษย์ หากมีข้อผิดพลาดโปรดแจ้ง
☕ สนับสนุนค่ากาแฟทีมงาน
หากคุณชอบบทความนี้ สามารถสนับสนุนเราได้ผ่าน PromptPay
本文来自网络搜集,不代表คลื่นสร้างอนาคต立场,如有侵权,联系删除。转载请注明出处:https://www.itsolotime.com/th/archives/31476
