阿里 HappyHorse 1.0 เปิดตัวอย่างเป็นทางการ: ทดลองใช้งานฟรี เอฟเฟกต์สร้างวิดีโอสวยสะกดตา การเคลื่อนไหวและภาษากล้องอัปเกรดครบทุกมิติ

ครั้งหนึ่งเคยครองอันดับหนึ่งในตารางจัดอันดับ AI Video Arena ของแพลตฟอร์มประเมิน AI ชั้นนำอย่าง Artifical Analysis โมเดลสร้างวิดีโอ HappyHorse 1.0 ในที่สุดตอนนี้เราก็สามารถใช้เวอร์ชันทางการได้อย่างเป็นทางการแล้ว เพียงเปิดแอป Qianwen หรือเว็บไซต์ Qianwen Creation (c.qianwen.com) ก็สามารถสัมผัสประสบการณ์ได้ทันที พร้อมสิทธิ์ทดลองใช้ฟรีอีกด้วย

阿里 HappyHorse 1.0 เปิดตัวอย่างเป็นทางการ: ทดลองใช้งานฟรี เอฟเฟกต์สร้างวิดีโอสวยสะกดตา การเคลื่อนไหวและภาษากล้องอัปเกรดครบทุกมิติ

ไม่นานมานี้ โมเดลสร้างวิดีโอชื่อ HappyHorse 1.0 ได้ไต่อันดับขึ้นสู่จุดสูงสุดของตาราง AI Video Arena อย่างเงียบๆ ก่อให้เกิดกระแสพูดถึงอย่างกว้างขวางในโซเชียลมีเดีย จนกระทั่ง Alibaba ออกมายอมรับอย่างเป็นทางการว่า “ม้าน้อยแห่งความสุข” ตัวนี้เป็นของพวกเขา ปริศนาจึงถูกไข — มันมาจากกลุ่มธุรกิจ ATH ที่เพิ่งก่อตั้งขึ้นไม่ถึงเดือน วันนี้ Alibaba ได้ประกาศช่องทางทดลองใช้ HappyHorse 1.0 อย่างเป็นทางการ โดย Qianwen เปิดตัวการทดสอบแบบปิดเป็นครั้งแรก ทั้งแอป Qianwen และเว็บไซต์ Qianwen Creation สามารถใช้งานได้โดยตรง

阿里 HappyHorse 1.0 เปิดตัวอย่างเป็นทางการ: ทดลองใช้งานฟรี เอฟเฟกต์สร้างวิดีโอสวยสะกดตา การเคลื่อนไหวและภาษากล้องอัปเกรดครบทุกมิติ

มือถือ (แอป Qianwen): เพียงอัปเดต Qianwen เป็นเวอร์ชันล่าสุด คลิกที่แคปซูล “HappyHorse” บนหน้าแรก ก็จะเข้าสู่แผงสร้างวิดีโอของ HappyHorse 1.0 โดย Qianwen ยังมอบสิทธิ์ทดลองใช้ฟรีให้อีกด้วย

阿里 HappyHorse 1.0 เปิดตัวอย่างเป็นทางการ: ทดลองใช้งานฟรี เอฟเฟกต์สร้างวิดีโอสวยสะกดตา การเคลื่อนไหวและภาษากล้องอัปเกรดครบทุกมิติ

เว็บไซต์ PC (เว็บไซต์ Qianwen Creation): สำหรับผู้ใช้ที่มีความต้องการสร้างสรรค์ที่มืออาชีพมากขึ้น สามารถเปิด c.qianwen.com ผ่านเบราว์เซอร์เพื่อเข้าสู่ระบบและใช้งาน การสร้างบนเว็บไซต์จะใช้คะแนน ซึ่งโดยรวมแล้วคุ้มค่า ไม่ว่าจะเป็นการสร้างวิดีโอจากข้อความหรือจากภาพ รองรับความละเอียดสูงสุด 1080p ผู้ใช้สามารถเลือกอัตราส่วนกว้างยาวได้อย่างอิสระ 16:9, 9:16 หรือ 1:1 ความยาววิดีโอที่สร้างได้เลือกได้ 5 วินาที 10 วินาที หรือ 15 วินาที และรองรับการสร้างเสียงแบบเนทีฟ APPSO ได้รับสิทธิ์ทดลองใช้เป็นคนแรก แม้การจัดอันดับบนตารางประเมินจะบอกผลลัพธ์ได้ แต่ HappyHorse 1.0 สร้างวิดีโอที่มีข้อดีอะไรบ้าง? มาดูผ่านการทดสอบจริงกัน

จากการทดสอบจริง เราพบว่า HappyHorse 1.0 ไม่ได้เน้นที่ตัวเลือกอ้างอิงที่ซับซ้อนครบวงจร แต่ มุ่งเน้นพลังหลักไปที่ความเป็นธรรมชาติของการเคลื่อนไหว เสียง และพื้นที่ ประกอบกับภาษากล้องที่สมเหตุสมผลและการถ่ายทอดสไตล์ที่แม่นยำ ผลงานโดยรวมน่าทึ่งมาก ด้วยคำสั่งเดียว ก็สามารถจัดการการเคลื่อนไหวกล้องและสตอรีบอร์ดได้ โมเดลวิดีโอหลักส่วนใหญ่ถือว่าการเคลื่อนไหวของกล้องเป็นคลังให้ผู้ใช้เลือก การเคลื่อนไหวของกล้องที่เรียกว่ามักจะเป็นการสุ่มจากคลัง เช่น การดันเข้า ดึงออก หมุน ฯลฯ โดยไม่ได้สอดคล้องกับเหตุการณ์เฉพาะในภาพ ในขณะที่ความรู้สึกของกล้องซึ่งเป็นส่วนประกอบที่สำคัญที่สุดของวิดีโอมักจะเห็นความแตกต่างอย่างชัดเจนในพริบตา แต่ยากที่จะวัดด้วยตัวเลขที่แน่นอน

วิธีการจัดการของ HappyHorse 1.0 ก็ยอดเยี่ยมเช่นกัน: จังหวะการเปลี่ยนมุมกล้องต้องรับใช้ผลงาน เมื่ออารมณ์ต้องการความตึงเครียด กล้องจะดันเข้า เมื่อต้องการอธิบายสภาพแวดล้อม จะให้ภาพมุมกว้าง เบื้องหลังคือการจัดการที่มีตรรกะการเล่าเรื่อง คำแนะนำเดียวกันที่ให้กับโมเดลหลายตัว ภาพวิดีโอที่สร้างอาจมีแนวโน้มไปที่ “ตำแหน่งกล้องคงที่” โดยมีตัวละครอยู่ตรงกลาง ขาดการจัดการกล้อง เพราะวิธีนี้ผิดพลาดน้อยที่สุด แต่ความรู้สึกในการรับชมวิดีโอลดลงอย่างมาก ในขณะที่ HappyHorse 1.0 ในวิดีโอที่สร้างขึ้น กลับเหมือนผู้กำกับภาพที่ชำนาญ ใช้การเคลื่อนไหวกล้องระดับมาสเตอร์ ตั้งแต่ภาพมุมกว้างไปจนถึงการติดตามระยะใกล้ของฝุ่นที่กระเด็นจากกีบม้า จากนั้นเปลี่ยนไปยังมุมต่ำเงยขึ้นในจังหวะชักปืนอย่างราบรื่น

มันทำลายองค์ประกอบที่ปลอดภัยของโมเดลสร้างวิดีโอ AI แบบดั้งเดิมที่ “เลือกความธรรมดาเพื่อความมั่นคง” ผ่านการจัดการกล้องที่แน่นหนา นำเสนอพลังไดนามิกของฉากไล่ล่านี้อย่างครบถ้วน อารมณ์และการเคลื่อนไหวมีมิติมากขึ้น แม้แต่การแสดงออกทางสีหน้าเล็กน้อยก็สามารถแสดงอารมณ์ได้ สำหรับโมเดลวิดีโอหลายตัว การเคลื่อนไหวของตัวละครเป็นปัญหาที่ยากที่สุด แม้จะใช้การอ้างอิงโดยละเอียดในการสร้าง ช่วงครึ่งหลังก็ยังมีแนวโน้มที่จะผิดรูป เช่น นิ้วเกินหนึ่งนิ้ว ใบหน้าพร่ามัว หรือจังหวะการเคลื่อนไหวเปลี่ยนกะทันหัน แต่ HappyHorse 1.0 มีความเสถียรในตัวชี้วัดที่ยากนี้มาก: วิดีโอความยาว 5 วินาที การเคลื่อนไหวของตัวละครตั้งแต่ต้นจนจบยังคงต่อเนื่องเป็นส่วนใหญ่ ความถี่ของข้อผิดพลาดต่ำกว่าอย่างเห็นได้ชัด

ยกตัวอย่างที่ชัดเจน คำแนะนำที่เราใช้คือ: หญิงสาวในชุดกระโปรงสีขาวเดินอยู่ในทะเลดอกไม้ จากด้านซ้ายของภาพไปทางขวา กล้องติดตาม หญิงสาวหมุนกระโปรง หยิบดอกไม้ขึ้นมาดม HappyHorse 1.0 ให้การเปลี่ยนการเคลื่อนไหวที่เป็นธรรมชาติมาก หญิงสาวเดินในพุ่มดอกไม้โดยไม่มีการเลื่อนแบบ “สเต็ปอวกาศ” ตั้งแต่การหมุนกระโปรงไปจนถึงการหยิบดอกไม้ขึ้นมาใกล้จมูก กระบวนการเคลื่อนไหวทั้งหมดราบรื่น

การเคลื่อนไหวมีมิติ การแสดงออกทางสีหน้าก็สมจริงเช่นกัน เราสร้างวิดีโอเด็กกัดมะนาวเปรี้ยว: ตั้งแต่จังหวะที่กัดมะนาว ไปจนถึงรสเปรี้ยวจัดที่ทำให้กล้ามเนื้อใบหน้าตึงเครียด ใบหน้าหมุนเข้าหากัน หลับตาสนิท จากนั้นเมื่อความเปรี้ยวค่อยๆ หายไป กล้ามเนื้อใบหน้าค่อยๆ ผ่อนคลาย และสุดท้ายลืมตากว้างอีกครั้งอย่างงุนงง ผ่านการเคลื่อนไหวและการแสดงออก อารมณ์ของตัวละครมีมิติมากขึ้น วิดีโอที่สร้างโดย HappyHorse 1.0 ก็ทำให้ผู้ชมไม่หลุดจากอารมณ์ได้ง่ายขึ้น ข้อมูลทางการแสดงว่า GSB (Good-Significant-Bad Human Preference Score) ภายในของ HappyHorse 1.0 สูงกว่า Wan2.7 ถึง 3 เท่า ความลื่นไหลและความคมชัดของการเคลื่อนไหวดีขึ้นอย่างเห็นได้ชัด บทสนทนาฟังดูเหมือนมนุษย์มากขึ้น เสียงแวดล้อมเริ่มมีส่วนร่วมในการเล่าเรื่อง นอกจากการแสดงภาพแล้ว HappyHorse ยังมีประสิทธิภาพในการพากย์เสียงวิดีโอ AI ที่ดีกว่าโมเดลอื่นๆ ปัญหาที่หลีกเลี่ยงไม่ได้ของเสียงพากย์ AI ส่วนใหญ่คือฟังดูเหมือน “อ่าน” ไม่ใช่ “พูด” น้ำเสียงราบเรียบ ไม่เปลี่ยนตามอารมณ์ เมื่อสองคนสนทนา คนหนึ่งพูด อีกคนแค่รอ ไม่มีปฏิกิริยาหรือการเปลี่ยนแปลงสีหน้า เหมือนสองคนกำลังทำงานแยกกัน

วิธีการจัดการของ HappyHorse 1.0 คือบทสนทนามีความรู้สึกตามสถานการณ์: น้ำเสียงและโทนเสียงสอดคล้องกับอารมณ์ของภาพ เมื่อประหลาดใจ น้ำเสียงถูกต้อง เมื่อผ่อนคลาย จังหวะสบาย ในสถานการณ์สนทนาหลายคน ฝ่ายที่ฟังก็เป็นธรรมชาติ มีการแสดงออกและการเคลื่อนไหวของกล้ามเนื้อเล็กน้อย ไม่ใช่แค่รอคิวพูดประโยคถัดไป เสียงแวดล้อมก็เช่นกัน รายละเอียดเช่นเสียงเขียน เสียงพลิกหน้ากระดาษ เสียงพื้นหลังที่อยู่ไกล ในโมเดลวิดีโอส่วนใหญ่มักจะขาดหายไป หรือฟังดูเหมือนสุ่มมาจากคลังเสียง ในขณะที่ใน HappyHorse 1.0 เสียงเหล่านี้สอดคล้องกับเนื้อหาของภาพและสามารถมีส่วนร่วมในการแสดงอารมณ์ ในฉากที่เงียบสงบ เสียงกระดาษเสียดสีกันเล็กน้อยอาจสร้างความดื่มด่ำได้มากกว่าเพลงประกอบส่วนใหญ่

ยังมีความสามารถที่ค่อนข้าง小众แต่มีประโยชน์: การซิงค์ริมฝีปากหลายภาษา ครอบคลุมภาษาจีนกลาง กวางตุ้ง อังกฤษ ญี่ปุ่น เกาหลี เยอรมัน ฝรั่งเศส ฯลฯ ป้อนข้อความภาษาจีนเพื่อสร้างวิดีโอที่ตัวละครพูด การขยับปากจะตรงกับเสียงพูด ความสามารถนี้มีพื้นที่จินตนาการค่อนข้างมาก ตั้งแต่การพากย์วิดีโอสั้นไปจนถึงผู้ประกาศเสมือนจริง จะมีประโยชน์ในอนาคต ไม่จำเป็นต้องใช้คำแนะนำสไตล์ที่ซับซ้อน จัดการสไตล์ภาพยนตร์และละครคลาสสิกได้อย่างง่ายดาย หากก่อนหน้านี้ประเด็นเกี่ยวกับกล้อง การเคลื่อนไหว และเสียงแก้ปัญหาฮาร์ดแวร์ของวิดีโอ AI — นั่นคือวิดีโอ AI ต้องไม่ทำให้ผู้ชมหลุดจากอารมณ์ การถ่ายทอดสไตล์ก็คือการทำให้ภาพสุดท้ายมีอรรถรสมากขึ้น มันเริ่มใช้สี แสงและเงา และพื้นผิว เพื่อสร้างบรรยากาศทางสุนทรียะที่เป็นของผู้สร้าง การเพิ่มสไตล์ก็ต้องพิถีพิถัน ไม่ใช่แค่ใส่ฟิลเตอร์หรือแพ็คเกจ LUT ที่เตรียมไว้ มันต้องการให้โมเดลวิดีโอเข้าใจสไตล์สุนทรียะที่แตกต่างกัน เพื่อใช้การจัดสไตล์ที่เหมาะสม

HappyHorse 1.0 ในการถ่ายทอดสไตล์เฉพาะ มีรายละเอียดที่แน่นหนามาก สไตล์ภาพยนตร์และละครคลาสสิกต่างๆ ความหยาบของฟิล์มในหนังฮ่องกงเก่าและไฮไลท์ที่เย็น เราสามารถเห็นได้ในผลการสร้างจริง

ไม่ว่าจะเป็นสไตล์ภาพวาดของ Water Margin สามก๊กเก่าที่มีความหยาบและสมจริง ให้ความรู้สึกถึงประวัติศาสตร์ที่หนักแน่น สไตล์ฮ่องกงคลาสสิกที่แสงและเงาลวงตา หรือสไตล์อเมริกันที่เน้นความแตกต่างสูงและแสงเย็นเฉียบ รวมถึงบรรยากาศซีรีส์เกาหลีที่เน้นแสงนุ่มนวลละเอียดอ่อน มันสามารถจัดการได้อย่างแม่นยำ

หากคุณเป็นผู้สร้างที่ใส่ใจในคุณภาพของภาพ แนะนำให้ไปสัมผัส “การควบคุมสุนทรียะระดับผู้กำกับ” นี้ใน Qianwen ด้วยตัวเอง เส้นทางวิดีโอ AI ต้องการม้ามืดสักตัว ลาก่อนการต่อคิวสร้างวิดีโอที่กินเวลาครึ่งวัน โมเดลอันดับหนึ่งในตาราง Video Arena ตอนนี้ไม่เพียงแต่อยู่ในแอปมือถือให้ใช้ได้ทุกเมื่อ แต่ยังมีสิทธิ์ทดลองใช้ฟรีอีกด้วย Qianwen รอบนี้ทำได้ดีจริงๆ ย้อนดูคุณสมบัติของ HappyHorse 1.0 เหล่านี้: การเคลื่อนไหวไม่ผิดพลาด กล้องมีภาษาที่สื่อความหมาย แก้ปัญหาความคาดหวังในคุณภาพของเนื้อหา AI ทำให้เราไม่ต้องมีทัศนคติแบบ “สุ่มการ์ด” ในการสัมผัสการสร้างวิดีโอ AI อีกต่อไป บทสนทนาที่เป็นธรรมชาติ เสียงแวดล้อมจริง การถ่ายทอดสไตล์ที่แม่นยำ ช่วยให้เราและผู้สร้างลดต้นทุนการแก้ไขหลังการผลิตลงอย่างมาก ไม่ต้องสลับไปมาระหว่างเครื่องมือหลายตัว หากนำความสามารถในการสร้างที่มีเกณฑ์ต่ำและอัตราความผิดพลาดสูงนี้ไปใช้ในบริบททางธุรกิจที่เฉพาะเจาะจง คุณค่าก็ชัดเจน สำหรับทีมงาน新媒体运营 ผู้กำกับซีรีส์สั้น หรือทีมการตลาดอีคอมเมิร์ซ สิ่งที่เคยต้องใช้ทีมงานหลังการผลิตขนาดใหญ่และงบประมาณถ่ายทำสูงเพื่อทำการซ้อมมุมกล้อง ออกแบบแนวคิด หรือวิดีโอสั้น ตอนนี้只需ป้อนคำสั่งในมือถือหรือคอมพิวเตอร์ก็สามารถทำได้อย่างรวดเร็ว ใน Qianwen คนคนเดียวคือทีมผลิตภาพและเสียงที่มีประสิทธิภาพ

ตอนนี้ ใน Qianwen เราสามารถได้วิดีโอผู้ประกาศเสมือนจริงที่สมจริง ในช่วงที่ผ่านมา ตรรกะการแข่งขันของเส้นทางสร้างวิดีโอคือ “โมเดลของใครแข็งแกร่งกว่า” — ความละเอียดสูงขึ้น ระยะเวลานานขึ้น การจำลองทางฟิสิกส์ที่ซับซ้อนขึ้น เป็นการแข่งขันทางเทคนิคของพารามิเตอร์และอัลกอริทึม แต่สิ่งที่เราติดขัดจริงๆ ไม่ค่อยเป็นเพราะ “โมเดลทำไม่ได้” ส่วนใหญ่คือ “ทำได้แต่ใช้ไม่ได้หรือใช้ไม่ถึง”: เวลารอนานเกินไป เสียงและภาพต้องแยกประมวลผล ความเสถียรของการเคลื่อนไหวขึ้นอยู่กับโชค ทุกขั้นตอนของแรงเสียดทานกำลังขัดขวางการสร้างวิดีโอไม่ให้เข้าถึงผู้ใช้มืออาชีพและผู้สร้าง AI ระดับซูเปอร์สตาร์ และครั้งนี้ Qianwen ไม่เพียงแต่ช่วยประหยัดความยุ่งยากในการสลับระหว่างเครื่องมือต่างๆ นำความสามารถในการสร้างวิดีโอระดับสูงสุดมาไว้ในกล่องโต้ตอบที่คุ้นเคยที่สุด แต่ยัง借助ความสามารถของโมเดลพื้นฐาน ขจัดแรงเสียดทานในการสร้างเหล่านี้ทีละอย่างอย่างสมบูรณ์

阿里 HappyHorse 1.0 เปิดตัวอย่างเป็นทางการ: ทดลองใช้งานฟรี เอฟเฟกต์สร้างวิดีโอสวยสะกดตา การเคลื่อนไหวและภาษากล้องอัปเกรดครบทุกมิติ

Qianwen ตอนนี้เป็นผู้ช่วย AI ที่ครบวงจรในการทำงาน การเรียน ชีวิต และการสร้างสรรค์ HappyHorse เป็นม้ามืดที่แข็งแกร่งอย่างไม่ต้องสงสัย มันเป็นชิ้นส่วนสำคัญในห่วงโซ่ที่สมบูรณ์ของกลุ่มธุรกิจ ATH ที่เพิ่งก่อตั้งโดย Alibaba ในด้านความสามารถของโมเดล การกระจายแพลตฟอร์ม และการประยุกต์ใช้เฉพาะ หลังจากเปิดตัวการทดสอบแบบปิดใน Qianwen ห่วงโซ่ก็เริ่มทำงาน จากการช่วยผู้ใช้แก้ปัญหาประจำวัน เพิ่มประสิทธิภาพการทำงานและการเรียนด้วยการสนทนาข้อความ ไปจนถึงการรวมความสามารถในการสร้างภาพและวิดีโอ AI ระดับสูง เส้นทางวิวัฒนาการของ Qianwen ชัดเจนมาก: มันกำลังทำลายกำแพงระหว่าง “การเพิ่มประสิทธิภาพชีวิต” และ “การสร้างสรรค์มืออาชีพ” ผ่านการ迭代ฟังก์ชันครั้งแล้วครั้งเล่า Qianwen กำลังทำให้พลังการคำนวณระดับสูงเป็นประชาธิปไตย เปลี่ยนจากเครื่องมือถามตอบง่ายๆ ไปเป็น “ผู้ช่วย AI ที่ครบวงจร” ที่ครอบคลุมทุกสถานการณ์ของผู้ใช้ ในฐานะคนธรรมดา เราอาจไม่จำเป็นต้องสนใจโครงสร้างอัลกอริทึมที่ซับซ้อนเบื้องหลัง เพราะเทคโนโลยีที่ดีที่สุด ได้ถูกบรรจุไว้ในโทรศัพท์ของคุณผ่าน Qianwen ด้วยวิธีที่ราบรื่นที่สุด

阿里 HappyHorse 1.0 เปิดตัวอย่างเป็นทางการ: ทดลองใช้งานฟรี เอฟเฟกต์สร้างวิดีโอสวยสะกดตา การเคลื่อนไหวและภาษากล้องอัปเกรดครบทุกมิติ

ตอนนี้ ถึงตาของทุกคนแล้ว หากคุณ也想สัมผัสความสามารถในการสร้างวิดีโอที่ทรงพลังของ HappyHorse 1.0 Qianwen ยังได้เปิดการแข่งขัน “天马行空” พร้อมกัน มีเส้นทางวิดีโอ AIGC สี่เส้นทาง พร้อมเงินรางวัลรวม 200,000 หยวนรอคุณอยู่ ไปที่แอป Qianwen หรือเว็บไซต์ Qianwen Creation โดยตรง ใช้แรงบันดาลใจบนผืนผ้าใบใหม่ที่ไม่มีข้อจำกัดนี้ เพื่อ “天马行空” อย่างแท้จริงสักครั้ง


⚠️ หมายเหตุ: เนื้อหาได้รับการแปลโดย AI และตรวจสอบโดยมนุษย์ หากมีข้อผิดพลาดโปรดแจ้ง

☕ สนับสนุนค่ากาแฟทีมงาน

หากคุณชอบบทความนี้ สามารถสนับสนุนเราได้ผ่าน PromptPay

PromptPay QR
SCAN TO PAY WITH ANY BANK

本文来自网络搜集,不代表คลื่นสร้างอนาคต立场,如有侵权,联系删除。转载请注明出处:https://www.itsolotime.com/th/archives/32392

Like (0)
Previous 19 hours ago
Next 19 hours ago

相关推荐