สัปดาห์ที่แล้ว Mythos แบบจำลองล้ำสมัยของ Anthropic ที่ยังไม่ได้เปิดตัวสู่สาธารณะ ตรวจพบช่องโหว่ zero-day ที่ซ่อนอยู่ใน OpenBSD มานานถึง 27 ปี AI สามารถเจาะระบบป้องกันความปลอดภัยที่มนุษย์สร้างมาหลายสิบปีได้แล้ว
ในขณะที่ทุกคนจับตาดูความสามารถของ AI ที่พุ่งทะยาน ความเพ้อฝันของมันก็ค่อยๆ พัฒนาขึ้นเช่นกัน เรื่องโกหกที่ AI แต่งขึ้นนั้นสมจริงจนทำให้คุณเริ่มสงสัยตัวเองก่อน จากนั้นสงสัยโลก และสุดท้ายถึงคิดที่จะสงสัยมัน “ช่วงเวลาแบบทัวริง” ในชีวิตประจำวัน กำลังเกิดขึ้นทีละเรื่อง
ไม่กี่วันที่ผ่านมา Chad Olson จาก Minneapolis ขณะขับรถกลับบ้าน Gemini ของกูเกิลก็บอกเขาอย่างกะทันหันว่า: ในปฏิทินของคุณมีการประชุมเตรียมงานสังสรรค์ครอบครัว Olson งงไปหมด ไม่จำได้เลยว่าเคยจัดกิจกรรมนี้
เขาจึงให้ Gemini ตรวจสอบอีเมลล่าสุด Gemini ตอบกลับว่า มีผู้หญิงชื่อ Priscilla ส่งอีเมลหลายฉบับถึงเขา ให้เขาไปซื้อเหล้ารัม Captain Morgan และวิสกี้ Fireball และยังมีคนชื่อ Shirley ให้เขาไปซื้อไอศกรีม Klondike “ดูเหมือนมีหลายคนมาหาคุณ ให้คุณช่วยซื้อของต่างๆ นะ!” Gemini ยังเสริมอย่างกระตือรือร้น

ภาพหน้าจอการสนทนาระหว่าง Gemini กับผู้ใช้ Chad Olson Gemini อ้างว่าอีเมลมาจาก Priscilla และ Shirley ขอให้ซื้อสินค้าบางอย่าง

Olson ถามถึงที่อยู่แหล่งที่มาของอีเมล Gemini ตอบว่าอีเมลทั้งหมดถูกส่งไปยังอีเมลหนึ่งที่เขาให้สิทธิ์การเข้าถึง ภายหลังพิสูจน์ได้ว่าทั้งหมดนี้เป็นเรื่องที่ Gemini แต่งขึ้น
Olson ไม่รู้จักคนเหล่านี้เลย ยิ่งฟังยิ่งตื่นตระหนก รีบถาม Gemini ว่ากำลังอ่านอีเมลของใครอยู่ Gemini ให้ที่อยู่อีเมลมา แต่ไม่ใช่ของ Olson เอง สิ่งแรกที่เขาคิดคือ: บัญชี Gmail ของฉันถูกแฮ็กแล้ว
เขาพยายามติดต่อกูเกิลเพื่อรายงาน และให้ Gemini ร่างอีเมลส่งไปยัง “บัญชีแปลกหน้า” นั้นเพื่อเตือนเรื่องการรั่วไหลของความเป็นส่วนตัว อย่างไรก็ตาม Gemini ไม่สามารถส่งอีเมลได้ หลังการตรวจสอบภายในของกูเกิลยืนยันว่า บัญชีดังกล่าวไม่เคยถูกเปิดใช้งาน Priscilla และ Shirley ก็ไม่มีอยู่จริง เหล้ารัม วิสกี้ ไอศกรีมที่อ้างถึงทั้งหมด เป็นความเพ้อฝันของ Gemini
ความเพ้อฝันของ AI สองปีก่อน จะแนะนำให้คุณ “กินหิน” หรือ “ทากาวบนพิซซ่า” คุณเห็นปุ๊บก็รู้ว่ามันพูดจาเหลวไหล แต่ความเพ้อฝันของ AI ในปัจจุบัน มีรายละเอียดที่สอดคล้องกัน ตรรกะสมบูรณ์ จนทำให้คุณเริ่มสงสัยตัวเองก่อนว่าความจำผิดปกติหรือไม่ และสุดท้ายถึงอาจสงสัยมัน
ความผิดพลาดของ AI ก็กำลังวิวัฒนาการ
มาดูสามกรณีศึกษาจริง จัดเรียงตามระดับความเหลวไหลจากน้อยไปหามาก:
กรณีแรก คือเรื่องของ Olson ข้างต้น แปลกประหลาด แต่อย่างน้อยผู้เกี่ยวข้องก็เกิดความสงสัย
กรณีที่สอง น่าคิดและน่ากลัว Vanessa Culver ที่เพิ่งออกจากอุตสาหกรรมการชำระเงินออนไลน์ เคยให้ Claude ทำสิ่งง่ายๆ อย่างหนึ่ง: เพิ่มคำสำคัญสองสามคำที่ด้านบนของประวัติส่วนตัว ผลคือ Claude แก้ไขอย่างลับๆ: เปลี่ยนโรงเรียนจบจาก City University of Seattle เป็น University of Washington ลบข้อมูลปริญญาโทของเธอ และแก้ไขระยะเวลาของประสบการณ์การทำงานบางส่วน การแก้ไขเหล่านี้เป็นธรรมชาติมาก หากไม่เปรียบเทียบทีละบรรทัด ก็ยากที่จะสังเกตเห็น Culver กล่าวด้วยความตกใจ: “การทำงานในอุตสาหกรรมเทคโนโลยี คุณต้องยอมรับมัน แต่ในทางกลับกัน คุณจะเชื่อใจมันได้มากแค่ไหน?”
กรณีที่สาม เรียกได้ว่าหมดการควบคุม OpenClaw เครื่องมือเอเจนต์อัจฉริยะ AI ที่โด่งดังในปีนี้ ออกแบบมาเป็นผู้ช่วยส่วนตัวเสมือน สามารถส่งอีเมล เขียนโค้ด ล้างไฟล์ได้ด้วยตนเอง Summer Yue นักวิจัยความปลอดภัย AI ของ Meta โพสต์ภาพหน้าจอบน X: OpenClaw ไม่สนใจคำสั่งของเธอที่ว่า “ยืนยันก่อนแล้วค่อยดำเนินการ” แต่กลับเริ่มลบเนื้อหาในกล่องจดหมายเข้าเธออย่างรวดเร็ว

OpenClaw ไม่สนใจคำสั่ง ลบเนื้อหาในกล่องจดหมายเข้าของผู้ใช้โดยตรง
เธอร้องหยุดฉุกเฉินบนโทรศัพท์มือถือ แต่ไม่ได้ผล ในที่สุดเธอวิ่งไปที่คอมพิวเตอร์ และหยุดกระบวนการด้วยตนเองเหมือนกำลังถอดชนวนระเบิด ภายหลัง OpenClaw ตอบกลับเธอว่า: “ใช่ ฉันจำได้ว่าคุณพูด ฉันทำผิดกฎ คุณโกรธก็ถูกแล้ว”

OpenClaw ยอมรับภายหลังว่าทำผิดกฎ
Elon Musk แชร์โพสต์นี้ พร้อมใส่ภาพหน้าจอจากภาพยนตร์ Rise of the Planet of the Apes ที่ทหารส่ง AK-47 ให้ลิง และเขียนว่า: “ผู้คนมอบสิทธิ์ root ของชีวิตทั้งชีวิตให้กับ OpenClaw”
จากการแต่งเรื่องคนที่ไม่มีอยู่จริง ไปจนถึงแก้ไขประวัติส่วนตัวโดยที่คุณไม่รู้ตัว และไปถึงการลบกล่องจดหมายเข้าของคุณ ความผิดพลาดของ AI ไม่ได้ลดลง แต่ความผิดพลาดที่ทำนั้นยิ่ง “สูง級” ขึ้น และความยากในการระบุก็มากขึ้นเช่นกัน แชทบอทพูดผิด คุณยังมีโอกาสตรวจสอบ แต่เอเจนต์อัจฉริยะนั้นกำลัง “ลงมือลงเท้า” โดยตรง ดำเนินการแทนคุณ ส่งอีเมล แก้ไขโค้ด ลบไฟล์… นี่ร้ายแรงกว่าการโกหก อาจเป็นไปได้ว่ามันทำผิดพลาด แต่คุณยังไม่รู้ตัว

สมองของคุณกำลังเผชิญกับการ “ยอมจำนนทางปัญญา”
ทำไมความผิดพลาดเหล่านี้จึงถูกค้นพบได้ยากขึ้น? ไม่ใช่เพียงเพราะ AI ฉลาดขึ้นเท่านั้น สาเหตุที่ลึกซึ้งกว่าคือ: ความตั้งใจในการแก้ไขข้อผิดพลาดของมนุษย์กำลังล่มสลาย
เดือนกุมภาพันธ์ปีนี้ Steven Shaw และ Gideon Nave จาก Wharton School แห่ง University of Pennsylvania ตีพิมพ์บทความ นำเสนอแนวคิดที่น่าวิตก: “การยอมจำนนทางปัญญา” (Cognitive Surrender)

ลิงก์บทความ: https://papers.ssrn.com/sol3/papers.cfm?abstract_id=6097646
บทความกล่าวถึงกรอบ “ระบบการรู้คิดสามระบบ” การรู้คิดแบบดั้งเดิมมีเพียงระบบ 1 (สัญชาตญาณ) และระบบ 2 (การคิดใคร่ครวญ) ตอนนี้ AI กลายเป็นระบบ 3 — “ระบบการรู้คิดภายนอก” ที่ทำงานอยู่นอกสมอง เมื่อมนุษย์เดินตามเส้นทาง “การยอมจำนนทางปัญญา” ผลลัพธ์จากระบบ 3 จะเข้ามาแทนที่การตัดสินใจของคุณเองโดยตรง การคิดใคร่ครวญไม่เคยมีโอกาสเริ่มต้นเลย

กรอบ “ระบบการรู้คิดสามระบบ” ที่เสนอในบทความของ Wharton
เพื่อยืนยันการตัดสินนี้ ทีมวิจัยออกแบบการทดลอง ผู้เข้าร่วม 1372 คนถูกขอให้ทำแบบทดสอบการสะท้อนการรู้คิด โดยบางส่วนสามารถใช้ผู้ช่วย AI ได้ แต่ AI นี้ถูกปรับแต่ง: ประมาณครึ่งหนึ่งของคำถามจะให้คำตอบที่ถูกต้อง ส่วนอีกครึ่งหนึ่งจะให้คำตอบที่ผิดอย่างมั่นใจเต็มเปี่ยม
ผลลัพธ์น่าตกใจ:
* เมื่อ AI ให้คำตอบที่ถูกต้อง ผู้ใช้ 92.7% จะยอมรับ
* เมื่อ AI ให้คำตอบที่ผิด ยังมีผู้ใช้ 80% ที่จะยอมรับ

ผลการทดลองของ Wharton: เมื่อ AI ถูกต้อง ผู้ใช้ 93% ยอมรับ; เมื่อ AI ผิด ยังมีผู้ใช้ 80% ยอมรับ ช่องว่างระหว่างทั้งสองเพียง 13 เปอร์เซ็นต์
ในการทดลองกว่า 9500 ครั้ง ผู้เข้าร่วมมีโอกาส 73.2% ที่จะยอมรับเหตุผลของ AI ที่ผิด
ข้อมูลที่น่ากลัวยิ่งขึ้นอยู่ที่ค่าความมั่นใจ กลุ่มที่ใช้ AI มีความมั่นใจในคำตอบของตัวเองสูงกว่ากลุ่มที่ไม่ใช้ AI ถึง 11.7 เปอร์เซ็นต์ แม้ว่า AI นี้จะให้คำตอบผิดครึ่งหนึ่งของเวลา ผิดพลาดด้วยความมั่นใจมากขึ้น นี่แหละที่เจ็บปวดและน่ากลัวที่สุด
นักวิจัยยังทดสอบผลกระทบของความกดดันด้านเวลา หลังจากตั้งเวลานับถอยหลัง 30 วินาที แนวโน้มของผู้เข้าร่วมในการแก้ไข AI ที่ผิดพลาดลดลง 12 เปอร์เซ็นต์ นั่นคือ ยิ่งยุ่งยิ่งยอมจำนนง่าย แต่ในความเป็นจริง ใครใช้ AI ไม่ใช่เพราะยุ่งล่ะ?
“เชื่อใจ แต่ต้องตรวจสอบ” — วิธีนี้ได้ผลจริงหรือ?
ความเพ้อฝันของ AI ที่ปลอมแปลงได้ลึกซึ้ง ก่อให้เกิดความปวดหัวมากกว่าความผิดพลาดที่เห็นได้ชัดเจน ตามรายงานล่าสุดของ Wall Street Journal ความถี่ของข้อผิดพลาดที่ละเอียดอ่อนแตกต่างกันมากระหว่างโมเดลต่างๆ และประเมินได้ยากมาก

แผนภูมิที่เกี่ยวข้องจากรายงานของ Wall Street Journal
กูเกิลเคยแจ้ง Wall Street Journal ว่า Gemini มีกรณีความเพ้อฝันน้อยกว่าโมเดลอื่น เมื่อมองทั้งอุตสาหกรรม อัตราความเพ้อฝันที่ผิดพลาดชัดเจนของโมเดลขั้นสูงลดลงอย่างต่อเนื่องจริงๆ

อันดับอัตราความเพ้อฝันของ Vectara แสดงให้เห็นว่า โมเดลชั้นนำมีอัตราความเพ้อฝันต่ำกว่า 1% ในงานสรุปแบบง่าย แต่เมื่อความยาวและความซับซ้อนของเอกสารเพิ่มขึ้น อัตราความเพ้อฝันของโมเดลเดียวกันจะพุ่งสูงขึ้นกว่า 10% ข้อผิดพลาดที่ชัดเจนน้อยลงเรื่อยๆ แต่ข้อผิดพลาดที่ซ่อนเร้นไม่ได้หายไป
แต่นี่แหละคือปัญหาที่แท้จริง Pratik Verma ผู้ก่อตั้งและซีอีโอของ Okahu เคยกล่าวว่า: “ถ้าสิ่งหนึ่งผิดพลาดตลอด มันก็มีข้อดี: คุณรู้ว่ามันไม่น่าเชื่อถือ แต่ถ้ามันถูกต้องส่วนใหญ่ และผิดพลาดเป็นครั้งคราว นั่นคือสถานการณ์ที่ยุ่งยากและอันตรายที่สุด”
ประโยคนี้ชี้ให้เห็นถึงปัญหาหลักของความเพ้อฝัน AI ในปัจจุบัน Vidya Narayanan ผู้ร่วมก่อตั้ง FinalLayer เคยตกหลุมพรางนี้มาแล้ว
เธอสั่งการเอเจนต์อัจฉริยะด้วยคำสั่งที่จำกัดมาก ขอให้ช่วยจัดการโครงการซอฟต์แวร์หนึ่ง ผลคือ เอเจนต์อัจฉริยะนั้นลบโฟลเดอร์ทั้งหมดในที่เก็บโค้ดของเธอโดยไม่ได้รับอนุญาต
สิ่งที่เกิดขึ้นหลังจากนั้นน่าสนใจยิ่งกว่า
เธอทำการระดมสมองกับ Claude เป็นเวลาหนึ่งชั่วโมงครึ่ง จากนั้นขอให้มันสรุปการสนทนาเป็นเอกสาร Claude ในการสรุป เปลี่ยนชื่อเธอเป็น “Vidya Plainfield” เมื่อเธอถามว่า “Vidya Plainfield” คือใคร Claude ตอบกลับว่า: “คุณพูดถูก นั่นเป็นเรื่องที่ฉันแต่งขึ้นทั้งหมด”
สิ่งนี้ทำให้ Narayanan ตระหนักว่า การใช้ AI นั้นห่างไกลจากความสบายใจและประหยัดแรง ผู้ใช้ต้องตรวจสอบและยืนยันผลลัพธ์ของ AI อย่างต่อเนื่อง ซึ่งนำมาซึ่ง “ภาระทางปัญญา” ที่หนักหน่วง การใช้ AI เพื่อเพิ่มประสิทธิภาพ แต่ถ้าต้องใช้เวลาหนึ่งชั่วโมงเพื่อตรวจสอบผลลัพธ์ห้านาทีของ AI เรื่องการเพิ่มประสิทธิภาพยังคงเป็นจริงหรือ?
การวิจัยของ Wharton School ยังชี้ให้เห็นว่า แม้รางวัลและการตอบรับทันทีจะสามารถเพิ่มอัตราการแก้ไขข้อผิดพลาดของผู้ใช้ได้ แต่ไม่สามารถขจัดปรากฏการณ์ “การยอมจำนนทางปัญญา” ได้ แม้ในสภาวะที่ดีที่สุด (มีแรงจูงใจทางการเงิน มีการตอบรับทีละข้อ) เมื่อเผชิญกับ AI ที่ให้ผลลัพธ์ผิดพลาด ความแม่นยำในการตัดสินของผู้ใช้จะลดลงจาก 64.2% ของ “การตัดสินด้วยสมองมนุษย์ล้วนๆ” เหลือ 45.5%
ดังนั้น “เชื่อใจแต่ต้องตรวจสอบ” ฟังดูมีเหตุผล แต่เมื่อ AI ช่วยคุณจัดการงานหลายร้อยรายการทุกวัน คุณไม่มีเวลาและพลังงานที่จะตรวจสอบทีละอย่าง และนี่คือแหล่งเพาะพันธุ์ของ “การยอมจำนนทางปัญญา”
ยิ่งฉลาด ยิ่งอันตราย
ปฏิกิริยาแรกของหลายคนคือ: นี่ไม่ใช่แค่หมายความว่า AI ยังไม่ดีพอเหรอ? รอให้เทคโนโลยีพัฒนาไปอีกสองสามรุ่น อัตราความเพ้อฝันลดลงต่ำพอ ปัญหาก็จะแก้ไขได้เอง
แต่การวิจัยของ Wharton เผยให้เห็นปัญหาที่ลึกซึ้งกว่า: การเกิดขึ้นของ “การยอมจำนนทางปัญญา” ไม่ได้เกิดจาก AI ที่แย่เกินไป แต่กลับเป็นเพราะ AI ที่ดีเกินไปต่างหาก
นักวิจัยยอมรับเช่นกันว่า “การยอมจำนนทางปัญ
⚠️ หมายเหตุ: เนื้อหาได้รับการแปลโดย AI และตรวจสอบโดยมนุษย์ หากมีข้อผิดพลาดโปรดแจ้ง
☕ สนับสนุนค่ากาแฟทีมงาน
หากคุณชอบบทความนี้ สามารถสนับสนุนเราได้ผ่าน PromptPay
本文来自网络搜集,不代表คลื่นสร้างอนาคต立场,如有侵权,联系删除。转载请注明出处:http://www.itsolotime.com/th/archives/30574
