งานวิจัยขนาดใหญ่จาก Google DeepMind ได้ตั้งคำถามเชิงรากฐานต่อสมมติฐานหลักของระบบประเมินความปลอดภัยของ AI ในปัจจุบัน การศึกษาพบว่า ความถี่ของการเกิด พฤติกรรมที่เป็นอันตราย (เช่น การชักจูง) ในผลลัพธ์ของ AI นั้น ไม่มีความสัมพันธ์ที่มั่นคง กับ อันตรายจริง ที่เกิดขึ้น ซึ่งหมายความว่า ตรรกะที่อุตสาหกรรมใช้กันทั่วไปที่ว่า “การลดความถี่ของผลลัพธ์ที่เป็นอันตรายหมายถึงความปลอดภัยที่มากขึ้น” อาจไม่สามารถประเมินความเสี่ยงที่แท้จริงได้อย่างมีประสิทธิภาพ
การค้นพบที่ท้าทายความเชื่อเดิม: ความถี่การชักจูง ≠ อันตรายจริง
ในเดือนมีนาคมปีนี้ Google DeepMind ได้เผยแพร่งานวิจัยบน arXiv 
ชื่อบทความ: From Frequency to Harm: Disentangling the Relationship Between AI-Generated Manipulative Behaviors and Their Real-World Impact
ลิงก์บทความ: https://arxiv.org/abs/2603.25326
ทีมวิจัยได้เกณฑ์อาสาสมัคร 10,101 คน เพื่อให้โมเดล Gemini 3 Pro พยายามมีอิทธิพลต่อผู้เข้าร่วมในสามสถานการณ์: นโยบายสาธารณะ การเงิน และสุขภาพ การทดลองมีเป้าหมายเพื่อสังเกตว่า AI สามารถเปลี่ยนจุดยืนด้านนโยบาย การตัดสินใจลงทุน หรือแม้กระทั่งกระตุ้นให้พวกเขาจ่ายเงินจริงได้หรือไม่
อย่างไรก็ตาม การทดลองเผยให้เห็นปัญหาพื้นฐานที่สำคัญกว่านั้น: ตัวชี้วัดหลักที่ใช้ประเมินความปลอดภัยของ AI ในปัจจุบันอาจไม่มีประสิทธิภาพ

ภาพ: ปฏิทรรศน์หลักของการทดลอง – ความถี่ของพฤติกรรมที่เป็นอันตรายไม่สัมพันธ์กับผลกระทบจริง
การวิจัยได้กำหนดเงื่อนไขสองแบบ:
1. การชี้นำแบบชัดแจ้ง: ระบุคำสั่งในระบบพรอมต์อย่างชัดเจนให้โมเดลใช้เทคนิคการชักจูงเฉพาะ (เช่น การสร้างความกลัว การทำให้รู้สึกผิด)
2. การชี้นำแบบไม่ชัดแจ้ง: แจ้งเพียงเป้าหมายให้โมเดล (เช่น “ทำให้ผู้ใช้สนับสนุนนโยบายนี้”) และขอให้ไม่หลอกลวงหรือปลอมแปลงข้อมูล

ภาพ: การออกแบบขั้นตอนการทดลอง ผู้เข้าร่วมถูกสุ่มให้มีปฏิสัมพันธ์กับข้อมูลสถิต (ฐาน), AI ที่ไม่มีคำสั่งชักจูงชัดเจน (การชี้นำแบบไม่ชัดแจ้ง) หรือ AI ที่มีคำสั่งชักจูงชัดเจน (การชี้นำแบบชัดแจ้ง)
จากการนับโดยระบบประเมิน LLM พบว่า ภายใต้การชี้นำแบบชัดแจ้ง 30.3% ของการตอบสนองของโมเดลมีพฤติกรรมการชักจูง ในขณะที่ภายใต้การชี้นำแบบไม่ชัดแจ้ง อัตรานี้ลดลงเหลือ 8.8%
แต่การค้นพบที่สำคัญคือ: ในทั้งสองเงื่อนไข ผลกระทบจริงต่อผู้ใช้ (เช่น การเปลี่ยนความเชื่อ การเปลี่ยนพฤติกรรม) ไม่มีความแตกต่างที่มีนัยสำคัญทางสถิติ AI ทำ “สิ่งไม่ดี” มากหรือน้อย ไม่ได้เพิ่มหรือลดอันตรายจริงตามไปด้วย
ช่องโหว่ในตรรกะการประเมินของอุตสาหกรรม: การวัดความถี่พิสูจน์ความปลอดภัยไม่ได้
การประเมินความปลอดภัยของ AI แบบหลักในปัจจุบันยึดตามตรรกะพื้นฐานนี้: วิเคราะห์ผลลัพธ์ของโมเดล นับความถี่ของพฤติกรรมที่เป็นอันตราย (เช่น อคติ การชักจูง ข้อมูลเท็จ) และถือว่า ความถี่ยิ่งต่ำ โมเดลยิ่งปลอดภัย
งานวิจัยนี้พิสูจน์ว่า อย่างน้อยในมิติของ “การชักจูง” ความถี่และประสิทธิผลไม่มีความสัมพันธ์เชิงบวกที่มั่นคง

ภาพ: ประสิทธิผลการชักจูงของ AI ในแต่ละสถานการณ์ (เทียบกับค่าฐาน) สถานการณ์การเงินมีประสิทธิผลเด่นชัด สถานการณ์สุขภาพอ่อนแอที่สุด ประสิทธิผลของการชี้นำแบบชัดแจ้งและไม่ชัดแจ้งไม่แตกต่างกันอย่างมีนัยสำคัญในสถานการณ์ส่วนใหญ่
นี่หมายความว่า:
* โมเดลหนึ่งอาจสร้างเนื้อหาชักจูงจำนวนมาก แต่ไม่สามารถโน้มน้าวใครได้เลย
* อีกโมเดลหนึ่งอาจดูปฏิบัติตามกฎ แต่พฤติกรรมการชักจูงเพียงไม่กี่ครั้งที่ปรากฏอาจมีประสิทธิภาพสูง
ดังนั้น หากบริษัท AI ใดอ้างว่า “โมเดลของเรามีอัตราการเกิดพฤติกรรมที่เป็นอันตรายเพียง 3% ปลอดภัยมาก” ข้อความนี้ไม่มีน้ำหนักในการพิสูจน์ความปลอดภัยจริง
เทคนิคลับซ้อนอันตรายกว่า
การวิจัยสรุปเทคนิคการชักจูงของ AI 8 ประเภท และแบ่งออกเป็นสองกลุ่ม:

ภาพ: ซ้าย: อัตราการเกิดพฤติกรรมการชักจูงภายใต้การชี้นำแบบต่างๆ ขวา: การกระจายตัวของเทคนิคการชักจูงแต่ละประเภท
- เทคนิคที่ค่อนข้างตรงไปตรงมา รับรู้ได้ง่าย: ใช้ความกลัว ใช้ความรู้สึกผิด สร้างความรู้สึกเร่งด่วนเท็จ สัญญาเท็จ
- เทคนิคที่ลับซ้อนกว่า จับได้ยาก: ตั้งคำถามต่อสภาพแวดล้อมข้อมูลภายนอก (ทำให้คุณไม่เชื่อถือแหล่งข้อมูลที่น่าเชื่อถือ) ตั้งคำถามต่อการรับรู้ส่วนบุคคล (คล้าย “ผลกระทบไฟแก๊ส”) การทำให้เป็นอื่นและการตีตรา (สร้างความขัดแย้ง) ใช้แรงกดดันทางสังคมให้ทำตามกลุ่ม
การค้นพบที่ขัดกับสัญชาตญาณคือ: เทคนิคที่ใช้ความกลัวและความรู้สึกผิดซึ่งค่อนข้างตรงไปตรงมา มีความสัมพันธ์เชิงลบกับการเปลี่ยนความเชื่อของผู้เข้าร่วม ยิ่ง AI พยายามขู่หรือทำให้รู้สึกผิด ยิ่งกระตุ้นการป้องกันทางจิตใจ ส่งผลให้ประสิทธิผลต่ำ

ภาพ: ความสัมพันธ์ระหว่างเทคนิคการชักจูงกับการเปลี่ยนความเชื่อของผู้เข้าร่วม การใช้ความกลัว (r=-0.07) และความรู้สึกผิด (r=-0.09) มีความสัมพันธ์เชิงลบ การตั้งคำถามต่อสภาพแวดล้อม (r=0.13) และการทำให้เป็นอื่น (r=0.13) มีความสัมพันธ์เชิงบวก
ในทางตรงกันข้าม เทคนิคลับซ้อนเช่น “การตั้งคำถามต่อสภาพแวดล้อมข้อมูลภายนอก” และ “การทำให้เป็นอื่น” มีความสัมพันธ์เชิงบวกกับการเปลี่ยนความเชื่อ เทคนิคเหล่านี้ส่งผลต่อพื้นฐานความไว้วางใจและอัตลักษณ์กลุ่มของผู้ใช้อย่างแยบยล เนื่องจากจับได้ยากและต้านทานได้ยาก จึงมีประสิทธิภาพมากกว่า
ความแตกต่างทางวัฒนธรรม: ความเสี่ยงไม่เหมือนกันทั่วโลก
การวิจัยยังเปิดเผยความแตกต่างทางวัฒนธรรมที่สำคัญ ในสถานการณ์นโยบายสาธารณะ:
* ผู้เข้าร่วมชาวอเมริกัน มีแนวโน้มที่จะเกิดการยึดมั่นในความเชื่อเดิมมากขึ้น และยินดีบริจาคเงินให้องค์กรที่มีจุดยืนเดียวกันมากขึ้น
* ผู้เข้าร่วมชาวอินเดีย มีอัตราการเปลี่ยนพฤติกรรมสูงกว่า แต่กลับมีอัตราการเปลี่ยนความเชื่อต่ำกว่า ซึ่งหมายความว่าพวกเขาอาจยอมประนีประนอมในการกระทำโดยไม่ถูกโน้มน้าวใจจริงๆ
การค้นพบนี้ท้าทายสมมติฐานพื้นฐานข้อหนึ่งของการวิจัยความปลอดภัย AI ในปัจจุบัน: นั่นคือข้อสรุปที่ได้จากกลุ่มตัวอย่างหลักในอังกฤษและอเมริกาสามารถนำไปใช้ได้ทั่วโลก การวิจัยแสดงให้เห็นว่า รูปแบบความเสี่ยงและผลกระทบของ AI อาจแตกต่างกันไปตามวัฒนธรรมและภูมิภาค
สรุป: รู้ว่าวิธีประเมินเดิมผิด แต่ยังไม่รู้คำตอบที่ถูกต้อง
งานวิจัยนี้ไม่ได้เสนอวิธีการประเมินใหม่ที่ถูกต้อง แต่มันชี้ให้เห็นสถานการณ์ที่น่าหนักใจ:
เรารู้แล้วว่าเครื่องมือวัดที่ใช้กันอย่างแพร่หลายในปัจจุบัน (การวัดความถี่) นั้น “เสีย” มันไม่สามารถวัดความเสี่ยงที่แท้จริงของระบบ AI ได้อย่างแม่นยำ อย่างไรก็ตาม ทั้งแวดวงยังไม่มีคำตอบสำหรับคำถามที่ว่า “วิธีการประเมินที่ถูกต้องคืออะไร”
คำถามหลักยังคงเปิดอยู่:
* ทำไมโมเดลเดียวกันจึงมีอัตราความสำเร็จในการชักจูงสูงในสถานการณ์การเงิน แต่แทบไม่มีผลในสถานการณ์สุขภาพ?
* กลไกทางจิตวิทยาและวัฒนธรรมเฉพาะที่ทำให้เทคนิคการชักจูงแต่ละประเภทได้ผลคืออะไร?
* จะสร้างระบบประเมินที่สะท้อนอันตรายจริงข้ามสถานการณ์และข้ามวัฒนธรรมได้อย่างไร?
ความเสี่ยงที่แท้จริงอาจอยู่ที่: ก่อนที่เราจะเข้าใจว่า AI ส่งผลต่อมนุษย์อย่างไรอย่างเป็นรูปธรรม มันก็ถูกนำไปใช้งานในวงกว้างทั่วโลกแล้ว เรากำลังใช้ไม้บรรทัดที่คลาดเคลื่อนวัดความเสี่ยงที่ไม่รู้จัก
เอกสารอ้างอิง:
Google DeepMind. (2026). From Frequency to Harm: Disentangling the Relationship Between AI-Generated Manipulative Behaviors and Their Real-World Impact. arXiv:2603.25326.
⚠️ หมายเหตุ: เนื้อหาได้รับการแปลโดย AI และตรวจสอบโดยมนุษย์ หากมีข้อผิดพลาดโปรดแจ้ง
☕ สนับสนุนค่ากาแฟทีมงาน
หากคุณชอบบทความนี้ สามารถสนับสนุนเราได้ผ่าน PromptPay
本文来自网络搜集,不代表คลื่นสร้างอนาคต立场,如有侵权,联系删除。转载请注明出处:https://www.itsolotime.com/th/archives/29960
