ความปลอดภัยของโมเดลขนาดใหญ่
-
แนวหน้า AI Security: การโจมตี Jailbreak LLM ขับเคลื่อนด้วยการอนุมานเชิงเหตุผลและตัวเข้ารหัสแบบเบาบาง
ฉบับนี้มุ่งเน้นไปที่งานวิจัยล้ำสมัยด้านความปลอดภัยของ AI ที่เผยแพร่บน arXiv เมื่อวันที่ 9 กุมภาพันธ์ 2026 เนื้อหาหลักมีดังนี้: 🤖 กรอบ CFA2 ใช้การอนุมานเชิงสาเหตุและตัวเข้ารหัสอัตโน…