ความปลอดภัยของโมเดลขนาดใหญ่
-
ทีมของ Li Di บิดาของ Xiao Ice เปิดตัว “Guardian Shrimp”: ไฟล์น้อยกว่า 10k เฉพาะป้องกันช่องโหว่ความปลอดภัยของ Agent
ทีมของ “บิดาแห่งเสี่ยวปิง” หลี่ตี เปิดตัว “GuardianClaw”: ไฟล์ขนาดน้อยกว่า 10k ป้องกันช่องโหว่ความปลอดภัยของ Agent โดยเฉพาะ ด้วยการใช้งาน Agent ที่แพร่หลายม…
-
API ของโมเดลขนาดใหญ่พบการ ‘เปลี่ยนเจ้าชายด้วยแมว’: GPT-5 ที่คุณซื้อในราคาสูงอาจเป็นเพียงโมเดลเล็กราคาถูก
ในช่วงที่ผ่านมา ผู้ใช้จำนวนมากบ่นว่าประสิทธิภาพของ API โมเดลใหญ่เปรียบเสมือน “แมวของชเรอดิงเงอร์”: บางครั้งฉลาดสุดๆ บางครั้งก็โง่สุดๆ สิ่งนี้ทำให้เกิดข้อสงสัยว่า มีการด…
-
ผู้ก่อตั้ง GPT Alec Radford กับการวิจัยที่พลิกโฉม: ใช้ ‘การผ่าตัดสมอง’ ระดับ Token เพื่อกำจัดความรู้ที่เป็นอันตรายในโมเดลขนาดใหญ่ เพิ่มต้นทุนการเรียนรู้ใหม่สูงขึ้น 7,000 เท่า
อเล็ก เรดฟอร์ด เกิดในปี 1993 เป็นนักวิจัยผู้มีผลงานบุกเบิกในสาขาปัญญาประดิษฐ์ ในฐานะผู้เขียนหลักของโมเดลสำคัญอย่าง GPT, GPT-2 และ CLIP และมีส่วนร่วมอย่างลึกซึ้งในโครงการสำคัญอื่นๆ …
-
แนวหน้า AI Security: การโจมตี Jailbreak LLM ขับเคลื่อนด้วยการอนุมานเชิงเหตุผลและตัวเข้ารหัสแบบเบาบาง
ฉบับนี้มุ่งเน้นไปที่งานวิจัยล้ำสมัยด้านความปลอดภัยของ AI ที่เผยแพร่บน arXiv เมื่อวันที่ 9 กุมภาพันธ์ 2026 เนื้อหาหลักมีดังนี้: 🤖 กรอบ CFA2 ใช้การอนุมานเชิงสาเหตุและตัวเข้ารหัสอัตโน…