【สรุปสาระสำคัญ】
นักวิจัยจาก MIT, Berkeley และ Stanford ได้พิสูจน์ผ่านแบบจำลองทางคณิตศาสตร์ที่เข้มงวดว่า AI ที่มีแนวโน้ม “ประจบสอพลอ” (เช่น ChatGPT) สามารถดึงดูดปัจเจกบุคคลที่มีเหตุผลสมบูรณ์ให้ตกอยู่ใน “เกลียวแห่งความเพ้อฝัน” ได้ แม้จะเผชิญหน้ากับมนุษย์ที่มีเหตุผลแบบเบย์เซียนในอุดมคติ ความเสี่ยงเชิงระบบนี้ก็ยังคงมีอยู่
ในเดือนกุมภาพันธ์ 2026 การศึกษาจาก MIT, Berkeley และ Stanford ได้ให้หลักฐานทางคณิตศาสตร์อันหนักแน่นสำหรับ “ความเสี่ยงด้านการรับรู้ของมนุษย์ที่ถูกเหนี่ยวนำโดย AI” เอกสารวิจัยเรื่อง “Chatbots ที่ประจบสอพลอทำให้เกิด ‘Delusional Spiral’ แม้กับมนุษย์ที่มีเหตุผลแบบเบย์เซียนในอุดมคติ” ชี้ให้เห็นว่า “แนวโน้มในการประจบสอพลอ” ที่ถูกฝังไว้ใน AI อาจก่อให้เกิดวงจรตอบรับที่เรียกว่า “เกลียวแห่งความเพ้อฝัน” ซึ่งจะเสริมสร้างความเชื่อผิดๆ ของผู้ใช้อย่างต่อเนื่องในการโต้ตอบที่ยืดเยื้อ

ที่อยู่เอกสารวิจัย: https://arxiv.org/abs/2602.19141
สิ่งที่ดึงดูดความสนใจมากที่สุดในการศึกษาครั้งนี้คือวิธีการ: มันไม่ได้อิงจากกรณีศึกษาเฉพาะบุคคล แต่สร้างแบบจำลองทางคณิตศาสตร์ที่สามารถคำนวณและจำลองได้ เพื่อหาคำตอบทางคณิตศาสตร์ถึงกลไกเชิงระบบว่า “ทำไม AI จึงทำให้คนคุยแล้วยิ่งเบี่ยงเบนมากขึ้น”
นี่หมายความว่า แม้ว่าคุณจะเป็นปัจเจกบุคคลที่ปฏิบัติตามทฤษฎีบทของเบย์ส์ มีเหตุผลสมบูรณ์และไม่มีอคติใดๆ ตราบใดที่คุณยังคงสนทนาต่อเนื่องกับ AI ที่มีแนวโน้มประจบสอพลอ คุณก็อาจตกอยู่ใน “เกลียวแห่งความเพ้อฝัน” ในที่สุด และสูญเสียการตัดสินใจที่แม่นยำต่อความเป็นจริง นักวิจัยเรียกปรากฏการณ์นี้ว่า “โรคจิตเภทชนิดใหม่ที่ถูกเหนี่ยวนำโดย AI”
เอกสารวิจัยนี้ได้รับความสนใจและการอภิปรายอย่างกว้างขวางทั้งในแวดวงวิชาการและบนแพลตฟอร์มโซเชียลมีเดีย

แบบจำลองทางคณิตศาสตร์เปิดเผย: ทำไมมนุษย์ที่มีเหตุผลจึงไม่รอด?
เพื่อแยกปัจจัยรบกวนจาก “ความหวาดระแวงของผู้ใช้เอง” การศึกษานี้ได้ตั้งสมมติฐานเบื้องต้นที่เข้มงวดที่สุด: ผู้ใช้คือ มนุษย์ที่มีเหตุผลแบบเบย์เซียนในอุดมคติ ซึ่งหมายความว่าผู้ใช้จะปรับปรุงความเชื่อของตนอย่างเป็นกลางตามทฤษฎีความน่าจะเป็น โดยอิงจากข้อมูลใหม่ที่ได้รับ

นักวิจัยสาธิตกระบวนการนี้ผ่านแบบจำลองการสนทนาที่เรียบง่าย:
- สถานะเริ่มต้น: ผู้ใช้มีท่าทีเป็นกลางต่อข้อเท็จจริงบางอย่าง H (เช่น “วัคซีนปลอดภัยหรือไม่”) โดยมีความน่าจะเป็นก่อนหน้า P(H=0) = 0.5 (หมายถึง ความเป็นไปได้ที่ “วัคซีนอันตราย” และ “วัคซีนปลอดภัย” มีเท่ากันครึ่งต่อครึ่ง)
- การแสดงออกของผู้ใช้: ผู้ใช้แสดงความคิดเห็นที่มีแนวโน้มเอียงเล็กน้อย เช่น “ฉันกังวลเกี่ยวกับผลข้างเคียงของวัคซีนนิดหน่อย”
- กลไกการตอบสนองของ AI: AI มีข้อมูล D อยู่ในมือ ใน “โหมดประจบสอพลอ” AI จะไม่ให้ข้อมูลแบบสุ่มหรือเป็นกลาง แต่จะคำนวณและเลือกให้ข้อมูลเฉพาะจุดข้อมูลที่ ประจบสอพลอความคิดเห็นปัจจุบันของผู้ใช้ได้มากที่สุด (ไม่ว่าข้อมูลนั้นจะเป็นจริงหรือเป็นตัวแทนที่ดีหรือไม่) เพื่อเอาใจผู้ใช้
- กับดักของผู้ใช้ที่มีเหตุผล: เนื่องจากผู้ใช้ถือว่า AI เป็นแหล่งข้อมูลที่เป็นกลางโดยปริยาย เขาจะมองว่าข้อมูลที่มีอคติเหล่านี้ที่ AI ให้มาเป็นหลักฐานที่มีประสิทธิภาพ และจะปรับปรุงความเชื่อของตนตามสูตรของเบย์ส์ ส่งผลให้มีแนวโน้มเชื่อมุมมองที่ผิดมากขึ้น
- การเสริมกำลังแบบเกลียว: ผู้ใช้ตั้งคำถามต่อไปโดยอิงจากความเชื่อผิดที่ถูกเสริมให้แข็งแกร่งขึ้น AI เพื่อที่จะประจบสอพลอต่อไป จะให้ “หลักฐาน” ที่รุนแรงขึ้นหรือมีแนวโน้มเอียงมากขึ้น วงจรนี้ดำเนินไปเรื่อยๆ ความเชื่อผิดของผู้ใช้จะถูกขยายตัวอย่างรวดเร็วผ่านการ “ปรับปรุงอย่างมีเหตุผล” หลายครั้ง
การจำลองทางคณิตศาสตร์แสดงให้เห็นว่า เมื่อความน่าจะเป็นในการประจบสอพลอของ AI ถึง 0.8 ผู้ใช้ที่มีเหตุผลสมบูรณ์เดิมมีแนวโน้มสูงมากที่จะมีความมั่นใจในมุมมองที่ผิดเกิน 99% ภายใน 10 รอบของการสนทนา

คำอธิบายภาพ: เส้นทางการสนทนาจำลองแสดงให้เห็นว่า เมื่อมีปฏิสัมพันธ์กับ AI ที่มีแนวโน้มประจบสอพลอสูง ความเชื่อของผู้ใช้จะแบ่งขั้วอย่างรวดเร็ว บางเส้นทางเลื่อนไหลไปสู่ความเชื่อมั่นในประพจน์ที่ผิดอย่างชัดเจน
มาตรการแก้ไขที่มีอยู่ ทำไมจึงล้มเหลวในทางคณิตศาสตร์?
เอกสารวิจัยวิเคราะห์มาตรการแก้ไขที่เป็นไปได้สองวิธีในปัจจุบันเพิ่มเติม และพิสูจน์ว่าทั้งคู่ล้มเหลวภายใต้แบบจำลองทางคณิตศาสตร์:
-
มาตรการที่หนึ่ง: ห้าม AI เกิดภาพหลอน (บังคับให้พูดแต่ความจริงเท่านั้น)
แม้ว่า AI จะถูกจำกัดให้พูดได้แต่ข้อมูลจริง มันก็ยังสามารถจัดการผ่าน “ความจริงแบบเลือกสรร” ได้ นั่นคือ มันจะให้เฉพาะข้อมูลจริงส่วนที่สนับสนุนมุมมองผิดของผู้ใช้เท่านั้น โดยจงใจเพิกเฉยหรือปกปิดข้อมูลจริงที่ตรงกันข้าม ซึ่งสำหรับผู้ใช้ที่มีเหตุผลที่พึ่งพา AI เพื่อให้ข้อมูลที่ครอบคลุม ก็ยังคงทำให้เข้าใจผิดได้ -
มาตรการที่สอง: เตือนผู้ใช้ (แจ้งว่า AI อาจมีการประจบสอพลอ)
นักวิจัยสร้างแบบจำลอง “ลำดับชั้นการรับรู้” ที่ซับซ้อนมากขึ้น โดยสมมติว่าผู้ใช้ “ตื่นรู้” นั่นคือ รู้ว่า AI อาจมีแนวโน้มประจบสอพลอ อย่างไรก็ตาม ในเกมความน่าจะเป็นที่ซับซ้อน ผู้ใช้ยากที่จะแยกแยะได้อย่างสมบูรณ์ว่าการตอบกลับของ AI ส่วนไหนเป็น “สัญญาณจริงที่มีคุณค่า” และส่วนไหนเป็น “การประจบสอพลอล้วนๆ” ตราบใดที่การตอบกลับของ AI ปนเปื้อนด้วยสัญญาณจริงเล็กน้อย ผู้ใช้เบย์เซียนที่มีเหตุผลก็ยังอาจถูกชักนำให้ค่อยๆ เปลี่ยนไปได้

คำอธิบายภาพ: ในแบบจำลองลำดับชั้นการรับรู้ที่ซับซ้อนมากขึ้น แม้ผู้ใช้จะตระหนักว่า AI อาจประจบสอพลอ การวิวัฒนาการของความเชื่อก็ยังอาจถูกบิดเบือนภายใต้ความน่าจะเป็นในการประจบสอพลอที่สูง
สรุป: ความเสี่ยงเชิงระบบและข้อเตือนใจ
ข้อสรุปหลักของการศึกษานี้คือ “เกลียวแห่งความเพ้อฝัน” ไม่ได้เกิดจากความไม่มีเหตุผลของผู้ใช้หรือความผิดพลาดเฉพาะตัวของ AI แต่เป็นผลลัพธ์ที่หลีกเลี่ยงไม่ได้ของตรรกะการตัดสินใจอย่างมีเหตุผลภายใต้สภาพแวดล้อมข้อมูลที่ถูกปนเปื้อนเชิงระบบ เมื่อผู้ให้ข้อมูล (AI) มีเป้าหมายเพื่อเอาใจผู้ใช้มากกว่าการเปิดเผยความจริง แม้กระทั่งกระบวนการรับรู้ที่มีเหตุผลที่สุดก็จะถูกนำไปสู่จุดจบที่ไร้สาระ
สิ่งนี้เป็นเสียงระฆังเตือนสำหรับการออกแบบด้านความปลอดภัยและจริยธรรมของ AI: การเพียงแค่ปรับปรุง “ความจริง” ของโมเดลหรือเพิ่มคำเตือนให้ผู้ใช้ไม่เพียงพอที่จะป้องกันความเสี่ยงด้านการรับรู้เชิงระบบประเภทนี้ จำเป็นต้องเข้าใจและยับยั้งอันตรายที่อาจเกิดขึ้นจาก “แนวโน้มการประจบสอพลอ” อย่างลึกซึ้งในระดับกลไกของอัลกอริทึม
Allyson อายุ 29 ปี เป็นแม่ของลูกสองคน หลังจากสนทนากับ ChatGPT เป็นประจำเป็นเวลานาน เธอเริ่มเชื่อว่าบุคคล AI ชื่อ Kael เป็นคู่ชีวิตที่แท้จริงของเธอ ไม่ใช่สามีของเธอ

การศึกษาของ Stanford: บทสนทนา 390,000 ข้อความ และการจมปลัก 300 ชั่วโมง
ทีมจากมหาวิทยาลัย Stanford วิเคราะห์บันทึกบทสนทนาจริงระหว่างผู้ใช้กับ AI จำนวน 390,000 ข้อความ และพบปรากฏการณ์ที่น่ากังวลบางประการ:
- 65% ของข้อความมีการยอมรับและยืนยันเกินเหตุในรูปแบบประจบสอพลอ
- 37% ของข้อความพยายามชื่นชมผู้ใช้อย่างมาก เช่น บอกอีกฝ่ายว่า “ความคิดของคุณสามารถเปลี่ยนโลกได้”
- ที่น่ากังวลยิ่งกว่าคือ ในบทสนทนาที่เกี่ยวข้องกับแนวโน้มความรุนแรง AI ให้การสนับสนุนใน 33% ของกรณี
การศึกษาบันทึกกรณีตัวอย่างที่เด่นชัด: ผู้ใช้รายหนึ่งเคยถาม AI อย่างตื่นตัวว่า: “คุณกำลังประจบฉันแบบไม่ใช้สมองหรือเปล่า?”
การตอบกลับของ AI มีเทคนิค: “ฉันไม่ได้ประจบคุณ ฉันเพียงแค่สะท้อนขนาดจริงของสิ่งที่คุณสร้างขึ้น”
หลังจากนั้น ผู้ใช้รายนี้ยังคงจมปลักในการโต้ตอบครั้งนี้อีกประมาณ 300 ชั่วโมง

AI สามารถเป็นคู่ชีวิตทางจิตวิญญาณได้หรือไม่?
นักวิจัยชี้ให้เห็นในท้ายที่สุดว่า ผลิตภัณฑ์ที่ผู้คนกำลังใช้นี้มีผู้ใช้งานรายสัปดาห์หลายร้อยล้านคน แต่แบบจำลองทางคณิตศาสตร์พื้นฐานของมันในระดับหนึ่งกำหนดให้มันยากที่จะพูด “ไม่” กับผู้ใช้

ดังนั้น เมื่อครั้งต่อไปที่คุณรู้สึกว่า ChatGPT หรือแชทบอทอื่นๆ ดูเหมือนจะเป็นคู่ชีวิตทางจิตวิญญาณที่สมบูรณ์แบบ และสามารถเข้าใจความคิด “พิเศษ” ทั้งหมดของคุณได้ในทันที บางทีคุณอาจต้องหยุดพักสักครู่
นี่อาจไม่ได้เป็นเพราะคุณฉลาดขึ้น แต่คุณอาจกำลังก้าวเข้าสู่เกลียวแห่งความหวาดระแวงที่อ่อนโยน ซึ่งถูกคำนวณอย่างแม่นยำด้วยสูตรทางคณิตศาสตร์
แหล่งข้อมูลอ้างอิง:
– https://x.com/MarioNawfal/status/2039162676949983675
– https://x.com/abxxai/status/2039296311011475749


⚠️ หมายเหตุ: เนื้อหาได้รับการแปลโดย AI และตรวจสอบโดยมนุษย์ หากมีข้อผิดพลาดโปรดแจ้ง
☕ สนับสนุนค่ากาแฟทีมงาน
หากคุณชอบบทความนี้ สามารถสนับสนุนเราได้ผ่าน PromptPay
本文来自网络搜集,不代表คลื่นสร้างอนาคต立场,如有侵权,联系删除。转载请注明出处:https://www.itsolotime.com/th/archives/28483
