AI ขึ้นรถในระดับลึก: จาก ChatBot สู่ยานยนต์อัจฉริยะทั้งคัน StepStar และ Qianli Technology มอบคำตอบใหม่
AI ขึ้นรถไม่ขาดคำขวัญ แต่ขาดเส้นทางที่สมบูรณ์ตั้งแต่โมเดลจนถึงการผลิตจำนวนมาก
Zeekr 8X ที่โด่งดังในงาน Beijing Auto Show วันนี้ มีผู้ใช้ปล่อยวิดีโอสาธิตคันใหม่ ผู้ใช้ในรถพูดว่า “พาฉันไปรับลูกที่โรงเรียน แถวๆ นั้นหา McDonald’s สักหน่อย ก่อน 5 โมงฉันต้องถึงโรงเรียน”
สิ่งที่เกิดขึ้นต่อจากนั้น แตกต่างอย่างสิ้นเชิงจากความเข้าใจเดิมของคุณเกี่ยวกับ “ยานยนต์อัจฉริยะ” รถยนต์วางแผนเส้นทางด้วยตนเอง เปิดใช้งานระบบขับขี่อัจฉริยะ จอดแวะที่ McDonald’s ระหว่างทาง และจอดรถอัตโนมัติเมื่อถึงหน้าโรงเรียน กระบวนการทั้งหมด ผู้ใช้ไม่ต้องแตะระบบนำทาง สลับโหมดขับขี่อัจฉริยะด้วยตนเอง หรือหาที่จอดรถในลานจอด
นี่ไม่ใช่ผู้ช่วยเสียงที่ช่วยคุณค้นหา แต่เป็น Agent ที่ดำเนินการแทนคุณ
เบื้องหลังการสาธิตที่เจ๋งนี้ ไม่จำเป็นต้อง “เชื่อมต่อโมเดลภาษาขนาดใหญ่ที่ฉลาดเข้ากับรถ” แต่ต้องใช้ระบบยานยนต์อัจฉริยะทั้งคันที่เชื่อมต่อตั้งแต่ “สมอง” ไปจนถึง “แขนขา”
AI ขึ้นรถถูกพูดถึงมาสามปีแล้ว ทำไมถึงวันนี้เราถึงเริ่มเห็นผลิตภัณฑ์แบบนี้?
จาก ChatBot สู่ “AI ขึ้นรถ”
ย้อนดูกระแส “โมเดลภาษาขนาดใหญ่ขึ้นรถ” ในช่วงสองปีที่ผ่านมา ความจริงที่น่าอึดอัดคือ โมเดลภาษาขนาดใหญ่เข้าไปในรถ แต่ไม่ได้กลายเป็นส่วนหนึ่งของรถจริงๆ
ตั้งแต่ปี 2024 ถึง 2025 เกือบทุกค่ายรถยนต์ประกาศเชื่อมต่อโมเดลภาษาขนาดใหญ่ DeepSeek, Qianwen, Doubao แต่ละค่ายผลัดกัน登场 ผู้ช่วยเสียงในห้องโดยสารฉลาดขึ้นมากจริงๆ มันคุยกับคุณได้ ค้นหาสารานุกรมได้ ถ้าทำดีก็ใส่คู่มือรถเข้าไป บอกคุณได้ว่า “ยางแบนทำไง”
แต่สุดท้าย นี่ยังคงเป็นหุ่นยนต์สนทนาที่ทำงานในห้องโดยสาร
ผู้ช่วยเสียงควบคุมพวงมาลัยไม่ได้ ระบบขับขี่อัจฉริยะก็ไม่รู้ว่าคุณเพิ่งคุยอะไรกับระบบในรถ เหมือนใส่สมองที่ฉลาดให้คนคนหนึ่ง แต่ไม่มีเส้นประสาทเชื่อมต่อระหว่างสมองกับแขนขา เทคโนโลยีขับขี่อัจฉริยะมีเส้นทางวิวัฒนาการของตัวเอง จากการขับขี่ตามกฎ สู่ BEV+Transformer สู่ end-to-end สู่ VLA+World Model แต่เส้นทางนี้กับระบบอัจฉริยะในห้องโดยสารเป็นเส้นขนานที่ไม่มีวันบรรจบกัน
ความแตกแยกนี้ไม่ใช่เพราะไม่มีใครอยากแก้ แต่เพราะมันยากจริงๆ
ความท้าทายแรกคือตัวโมเดลเอง วิธีหลักในอุตสาหกรรมคือ ใช้โมเดลภาษาขนาดใหญ่ทั่วไป แล้วฝึกซ้ำด้วยข้อมูลขับขี่อัจฉริยะ เส้นทางแบบ “ต่อเชื่อม” นี้ทำให้โมเดลคุยได้ แต่ไม่ทำให้มันเข้าใจโลกทางกายภาพจริงๆ มันไม่เข้าใจว่าท่าทางตำรวจจราจรหมายถึงอะไร ไม่เข้าใจตรรกะการต่อรองระหว่างคนเดินถนนกับรถในแยกที่ซับซ้อน ถ้าต้องการไปถึง L4 โมเดลต้องมีความเข้าใจโลกทางกายภาพตั้งแต่ขั้นตอน pre-training ไม่ใช่ “เรียนเพิ่ม” ทีหลัง
ความท้าทายที่สองคือสถาปัตยกรรม ระบบขับขี่อัจฉริยะและระบบอัจฉริยะในห้องโดยสารเป็นสองระบบ สองชิป สองทีม เพื่อให้ “หนึ่งคำสั่งควบคุมทั้งคัน” สถาปัตยกรรมทั้งคันต้องถูกปรับโครงสร้างใหม่ตั้งแต่พื้นฐาน การรับรู้ การตัดสินใจ การโต้ตอบ ต้องรวมกันภายใต้ระบบโมเดลเดียวกัน
ความท้าทายที่สามคือการผลิตจำนวนมาก ระหว่าง PowerPoint กับรถที่ผลิตจริง มีช่องว่างเรื่องการปรับชิป ความปลอดภัยตามมาตรฐานรถยนต์ การควบคุมต้นทุน และการอัปเดต OTA โมเดลความร่วมมือแบบปะติดปะต่อ很难ทำให้วงจรนี้สมบูรณ์อย่างมีประสิทธิภาพ
นั่นคือ รถยนต์ AI ที่แท้จริง ไม่ต้องการแค่ใส่โมเดลภาษาขนาดใหญ่ที่ฉลาดในรถ แต่ต้องการใช้ AI เขียนตรรกะพื้นฐานของรถใหม่
ใครมีคำตอบที่ดีกว่า?
ก่อนงาน Beijing Auto Show 2026 เกือบทุกค่ายตะโกนว่า “รถยนต์ AI” แต่ถ้าดูแผนของแต่ละค่ายอย่างละเอียด คุณจะพบว่าพวกเขาแก้ปัญหาในระดับที่ต่างกัน
ห้องโดยสารระบบนิเวศ IM AIOS ที่ร่วมมือระหว่าง Zhiji และ Alibaba จุดแข็งคือ การนำบริการระบบนิเวศของ Alibaba อย่าง Ele.me, AutoNavi, Alipay เข้ามาในรถในรูปแบบ Agent ผู้ใช้ใช้ภาษาธรรมชาติ就能สั่งอาหาร จองร้านอาหาร ประสบการณ์ใหม่จริงๆ แต่จุดโฟกัสหลักอยู่ที่ชั้นบริการในห้องโดยสาร ไม่เกี่ยวข้องกับการผสานระบบขับขี่อัจฉริยะ
โมเดลภาษาขนาดใหญ่ Doubao ของ ByteDance เชื่อมต่อห้องโดยสารของหลายแบรนด์ เช่น Buick Zhijing, Roewe ส่วนใหญ่提升ความฉลาดในการโต้ตอบด้วยเสียง นี่เป็นความร่วมมือแบบเบา “Model as a Service” บริษัทโมเดลให้ API ค่ายรถเรียกใช้ในห้องโดยสาร ขอบเขตชัดเจน
แผนเหล่านี้各有คุณค่า แต่มีจุดร่วมคือ ความสัมพันธ์ระหว่างโมเดลกับรถ เป็นการเชื่อมต่อผ่าน API ไม่ใช่การผสานจากพื้นฐาน
วันที่ 22 เมษายน StepStar และ Qianli Technology ประกาศความร่วมมือเชิงกลยุทธ์全面 ทั้งสองฝ่ายจะร่วมกันสร้าง “โมเดลฐานขับขี่อัจฉริยะดั้งเดิม” วิธีการร่วมมือนี้ แตกต่างอย่างสิ้นเชิงจากแผนข้างต้น
ความแตกต่างหลักคือ “การเชื่อมต่อแบบดั้งเดิมที่แข็งแกร่ง”
เส้นทางดั้งเดิมคือ “สร้างโมเดลภาษาขนาดใหญ่ทั่วไปก่อน แล้วค่อยปรับให้เข้ากับรถ” วิธีของ StepStar และ Qianli กลับกัน ตั้งแต่ขั้นตอน pre-training ของโมเดลพื้นฐาน ก็ฉีดข้อมูลความรู้ทั่วไปและข้อมูลขับขี่อัจฉริยะพร้อมกัน ทำให้โมเดลมีความเข้าใจโลกทางกายภาพตั้งแต่ต้น ไม่ใช่เอาสมองทั่วไปยัดเข้าไปในรถ แต่เลี้ยงสมองที่ “เข้าใจการขับรถ” ตั้งแต่เริ่ม
ฐานเทคโนโลยีของ StepStar รองรับเรื่องนี้ได้ ในฐานะบริษัทโมเดลพื้นฐาน知名ของจีน StepStar รอบ “กลยุทธ์ AI + อุปกรณ์ปลายทาง” สร้างระบบเทคโนโลยีที่สมบูรณ์ โมเดลฐาน旗舰สำหรับสถานการณ์ Agent อย่าง Step 3.5 Flash หลังจากเปิดตัว เรียกใช้บน OpenRouter ขึ้นอันดับหนึ่งทั่วโลก กลายเป็นหนึ่งในโมเดล首选สำหรับนักพัฒนาทั่วโลกในการสร้าง Agent อัจฉริยะ
ในด้าน multimodal StepStar มีเมทริกซ์โมเดลที่พัฒนาด้วยตนเองครบถ้วนที่สุดในประเทศ การโต้ตอบด้วยเสียง การอนุมานเสียง ความเข้าใจภาพ การสร้างภาพ โมเดลภาษาภาพ ครอบคลุมความต้องการ感知ห่วงโซ่เต็มรูปแบบของสถานการณ์รถยนต์ ตั้งแต่ “ฟัง” ถึง “ดู” ถึง “พูด” ในด้านการ部署 StepStar สร้างระบบโมเดล端云协同ตั้งแต่ 1B ถึง 200B พารามิเตอร์ โมเดลเบาที่端侧负责การรับรู้แบบเรียลไทม์และการ执行ที่รวดเร็ว โมเดลใหญ่ที่云侧负责การอนุมานและการตัดสินใจในสถานการณ์ซับซ้อน สร้างสถาปัตยกรรม分层คล้าย “คิดเร็ว + คิดช้า” ของสมองมนุษย์
Qianli Technology เติมเต็ม另一半 ความสามารถด้านวิศวกรรม全栈

ความร่วมมือของทั้งสองฝ่ายไม่ใช่การจับมือเชิงพาณิชย์ธรรมดา แต่เป็นการเดิมพันร่วมกันใน终点เดียวกันของ “รถยนต์ AI ดั้งเดิม” สถาปัตยกรรมเทคโนโลยีตรงกัน วิสัยทัศน์ผลิตภัณฑ์ตรงกัน ตั้งแต่การออกแบบโมเดล ไปจนถึงการ部署ที่อุปกรณ์ปลายทาง สร้างวงจรสมบูรณ์
บางคนเรียกสิ่งนี้ว่าชุด组合จีนที่ใกล้เคียงกับแนว “Grok + FSD” มากที่สุด Tesla ใช้โมเดลภาษาขนาดใหญ่ Grok ผสานกับระบบขับขี่อัจฉริยะ FSD อย่างดั้งเดิม กำหนดมาตรฐานของรถยนต์ AI ในขณะที่ StepStar × Qianli เป็นคู่ที่ใกล้เคียงกับรูปแบบนี้มากที่สุดในจีนตอนนี้
值得注意的是 แผนระบบนิเวศของ StepStar ยังคงถูกเติมเต็มอย่างต่อเนื่อง
วันที่ 23 เมษายน StepStar และ Tencent Cloud ประกาศความร่วมมือเชิงกลยุทธ์ ทั้งสองฝ่ายจะร่วมมือลึกในด้านห้องโดยสารอัจฉริยะ เมทริกซ์ระบบนิเวศของ Tencent ในด้านเพลง วิดีโอ แผนที่ การชำระเงิน จะเชื่อมต่อกับผู้ใช้ผ่าน Agent ในห้องโดยสารอัจฉริยะ ทำการแนะนำเนื้อหาตามความชอบส่วนบุคคล เปิดวงจรบริการในรถตั้งแต่การระบุความต้องการจนถึงการทำธุรกรรมสำเร็จ
ถ้า StepStar + Qianli แก้ปัญหา “สมอง + แขนขา” การ加入ของ Tencent Cloud ก็เติมเต็ม “ชั้นบริการระบบนิเวศ” ทำให้ Agent อัจฉริยะนี้ไม่เพียงขับรถได้ แต่ยังช่วยคุณเปิดเพลง นำทาง จ่ายเงิน
รถยนต์ “AI” ที่แท้จริง กำลังจะมา
และ Zeekr 8X คือมาตรฐานการผลิตจำนวนมากล่าสุดภายใต้รูปแบบ “Grok + FSD” ของ StepStar และ Qianli
Step 3.5 Flash 从全面开源到正式上车 ใช้เวลาเพียง 40 กว่าวัน ความเร็วนี้本身แสดงถึงข้อได้เปรียบในประสิทธิภาพวิศวกรรมของรูปแบบการเชื่อมต่อแบบดั้งเดิมที่แข็งแกร่ง
Zeekr 8X เปิดตัวครั้งแรกด้วย Super Eva ยานยนต์อัจฉริยะทั้งคัน บรรลุการผสานดั้งเดิมระหว่างโมเดลภาษาขนาดใหญ่กับระบบขับขี่อัจฉริยะ ระบบ底盘 และระบบส่งกำลัง 基于โมเดลเสียงที่แข็งแกร่งที่สุดของ StepStar Eva มีความสามารถในการเข้าใจอารมณ์และการคิดวิเคราะห์ เสียงเป็นธรรมชาติและเต็มไปด้วยอารมณ์ 基于โมเดลความเข้าใจภาพ Eva มองเห็นสภาพแวดล้อมรอบรถและตัดสินใจ สภาพถนน ที่จอดรถ ร้านค้าโดยรอบ อยู่ในขอบเขตการรับรู้ของมัน
วันที่ 17 เมษายน Zeekr 8X เปิดตัวอย่างเป็นทางการ ภายใน 29 นาที ยอดจอง大定ทะลุ 10,000 คัน ตลาดกำลังลงคะแนนด้วยเท้า
สองปีที่แล้ว ตอนที่โมเดลภาษาขนาดใหญ่เพิ่งขึ้นรถ สิ่งที่มันทำได้มากที่สุดคือช่วยคุณค้นหา McDonald’s ใกล้ๆ วันนี้ มันสามารถวางแผนเส้นทาง ขับรถ จอดรถ สั่งอาหารให้คุณ ตลอดกระบวนการ只需要一句话
เบื้องหลังการเปลี่ยนแปลงนี้ ไม่ใช่某个โมเดลที่แข็งแกร่งขึ้น แต่ความสัมพันธ์ระหว่างโมเดลกับรถเปลี่ยนไปอย่างสิ้นเชิง จาก “แอปพลิเคชันภายนอก” กลายเป็น “สมองดั้งเดิม”
เมื่อ AI กลายเป็นฐานของรถ ไม่ใช่ส่วนประกอบ การเปลี่ยนแปลงประสบการณ์การขับขี่ เพิ่งเริ่มต้น
⚠️ หมายเหตุ: เนื้อหาได้รับการแปลโดย AI และตรวจสอบโดยมนุษย์ หากมีข้อผิดพลาดโปรดแจ้ง
☕ สนับสนุนค่ากาแฟทีมงาน
หากคุณชอบบทความนี้ สามารถสนับสนุนเราได้ผ่าน PromptPay
本文来自网络搜集,不代表คลื่นสร้างอนาคต立场,如有侵权,联系删除。转载请注明出处:https://www.itsolotime.com/th/archives/32006
