ต่างฝ่ายต่างยืนกราน: Anthropic ฟ้องเพนตากอน
เมื่อเร็วๆ นี้ กระทรวงกลาโหมสหรัฐฯ ได้จัดให้ Anthropic เป็นหน่วยงานที่มี “ความเสี่ยงในห่วงโซ่อุปทาน” อย่างเป็นทางการ การดำเนินการนี้หมายความว่า ในธุรกิจที่เกี่ยวข้องโดยตรงกับกระทรวงกลาโหม ผู้รับเหมาต้องหยุดใช้โมเดล AI Claude ของ Anthropic ซึ่งเป็นการตัดช่องทางรายได้สำคัญของบริษัท ในเวลาเดียวกัน อดีตประธานาธิบดีทรัมป์ก็ได้ออกเสียงในแพลตฟอร์มโซเชียลมีเดียของเขา ขอให้หน่วยงานของรัฐบาลกลางหยุดใช้เทคโนโลยีของ Anthropic ซึ่งบางหน่วยงานราชการก็เริ่มปฏิบัติตามแล้ว
Anthropic ท้าทายการตัดสินใจนี้ทางกฎหมาย คดีแรกได้ยื่นต่อศาลแขวงรัฐบาลกลางเขตเหนือของแคลิฟอร์เนีย หนังสือฟ้องร้องกล่าวหาว่าการตัดสินใจของกระทรวงกลาโหมเป็น “การตอบโต้” โดยมีวัตถุประสงค์เพื่อลงโทษบริษัทที่ออกมาแสดงจุดยืนนโยบาย AI ของตนอย่างเปิดเผย — โดยเฉพาะการต่อต้านการใช้ AI เพื่อการเฝ้าระวังประชากรในประเทศสหรัฐอเมริกาขนาดใหญ่ และระบบอาวุธอัตโนมัติ Anthropic อ้างว่า แม้รัฐบาลจะปฏิเสธความร่วมมือได้ แต่ไม่สามารถระบุบริษัทว่าเป็นภัยคุกคามด้านความปลอดภัยเพียงเพราะการแสดงออกทางความคิดเห็นของบริษัท
บริษัทยังได้ยื่นคดีที่สองต่อศาลอุทธรณ์巡回กรุงวอชิงตัน ดี.ซี. เพื่อขอการบรรเทาทุกข์สำหรับบทบัญญัติกฎหมายเฉพาะที่รัฐบาลอ้างถึง
ฝ่ายเพนตากอนโต้แย้งว่า หัวใจของข้อพิพาทไม่ใช่เรื่องเสรีภาพในการพูด แต่เป็นปัญหาเรื่องอำนาจบังคับบัญชาการรบ เจ้าหน้าที่กระทรวงกลาโหมเน้นย้ำว่า ประเด็นสำคัญคือกองทัพสามารถใช้เทคโนโลยีได้อย่างอิสระตามกฎหมายหรือไม่ ไม่ใช่ให้ผู้จัดหามาแทรกแซงสายการบังคับบัญชาและเพิ่มความเสี่ยงให้กับกำลังรบ
อย่างไรก็ตาม ประตูการประนีประนอมยังไม่ปิดสนิท รองรัฐมนตรีกระทรวงกลาโหม Emir Michael กล่าวเมื่อเร็วๆ นี้ว่าพร้อมเปิดกว้าง: “หน้าที่ของผมคือรับผิดชอบต่อกรมสงคราม หากมั่นใจได้ว่าเราจะได้เทคโนโลยีที่ดีที่สุด ผมไม่มีภาระเรื่องหน้าไหนๆ”
จุดเริ่มต้นความขัดแย้ง: สัญญาที่สร้างความตกตะลึง
เรื่องราวเริ่มต้นเมื่อเดือนสิงหาคมปีที่แล้ว เมื่อ Emir Michael เข้ารับผิดชอบโครงการ AI ของเพนตากอน
ขณะตรวจสอบสัญญากับบริษัท AI ต่างๆ รวมถึง Anthropic Michael พบข้อกำหนดจำกัดสำคัญข้อหนึ่ง: ห้ามใช้เทคโนโลยี AI ของพวกเขาเพื่อการวางแผนการโจมตีด้วยอาวุธจลน์ — ซึ่งหมายถึงปฏิบัติการทางทหารที่เกี่ยวข้องกับอาวุธ เช่น ขีปนาวุธ ระเบิด และนี่คือส่วนหนึ่งขององค์ประกอบหลักของสงคราม

การกระทำนี้นำไปสู่การที่กระทรวงกลาโหมจัดให้ Anthropic เป็นบริษัท “ความเสี่ยงในห่วงโซ่อุปทาน” อย่างเป็นทางการ Michael ชี้แจงว่าข้อจำกัดนี้ใช้เฉพาะกับโครงการที่ให้บริการแก่กรมสงครามเท่านั้น ตัวอย่างเช่น Anthropic ยังสามารถให้บริการคลาวด์ที่ไม่ใช่ทางทหารผ่านพันธมิตรอย่าง AWS ได้ อย่างไรก็ตาม การตัดสินใจนี้อาจส่งผลกระทบอย่างมีนัยสำคัญต่อธุรกิจของ Anthropic
การต่อรองยืดเยื้อ: “การแข่งขันจินตนาการ” เกี่ยวกับสถานการณ์สงคราม
ก่อนการเผชิญหน้าอย่างเปิดเผย การเจรจาได้เข้าสู่ภาวะชะงักงัน Michael ใช้เวลามากมายในการอธิบายตรรกะพื้นฐานของการปฏิบัติการทางทหารให้ทีม Anthropic ฟัง และจำลองสถานการณ์ความขัดแย้งที่อาจเกิดขึ้นต่างๆ
เขายกตัวอย่าง: หากฐานทัพสหรัฐฯ ถูกโจมตีด้วยฝูงโดรนหลายร้อยลำในเวลากลางคืน ระบบป้องกัน AI สามารถใช้อาวุธเลเซอร์สกัดกั้นได้อย่างรวดเร็ว สำหรับสถานการณ์นี้ Anthropic ตกลงเพิ่มข้อยกเว้นในข้อกำหนดในที่สุด
อย่างไรก็ตาม การเจรจาได้กลายเป็นการ “แข่งขันจินตนาการ”: Michael ต้องจินตนาการถึงสถานการณ์สงครามในอนาคตที่อาจเกิดขึ้นทั้งหมดล่วงหน้า และขอข้อยกเว้นเป็นกรณีไป ตัวอย่างเช่น เมื่อขีปนาวุธความเร็วเหนือเสียงโจมตีมา มนุษย์มีเวลาเพียง 90 วินาทีในการตอบสนอง AI จะได้รับอนุญาตให้สกัดกั้นได้หรือไม่? คำตอบของ Anthropic คือ: กรณีเช่นนี้ “อาจถือเป็นข้อยกเว้นได้” แต่ต้องขออนุญาตเป็นครั้งๆ ไปทุกครั้ง
Michael รู้สึกหมดหนทางกับเรื่องนี้: “สงครามไม่ได้ทำงานแบบนี้” ตามรายงานของสื่อ Semafor Anthropic ปฏิเสธรายละเอียดการสนทนาดังกล่าว แต่ Michael ยืนยันว่าผู้ที่อยู่ในเหตุการณ์สามารถเป็นพยานได้
เมื่อการอภิปรายลึกซึ้งขึ้น แนวทางของ Anthropic ยังคงแข็งกร้าว: การใช้งานใดๆ ที่เกินขอบเขตข้อกำหนดการบริการที่กำหนดไว้ล่วงหน้า อำนาจการตีความขั้นสุดท้ายต้องเป็นของ Anthropic หรือสามารถอนุมัติได้เฉพาะ “ตามสถานการณ์” เท่านั้น Michael กล่าวในที่สุดว่า: “ผมไม่สามารถระบุข้อยกเว้นทั้งหมดล่วงหน้าสำหรับหน่วยงานที่มีขนาดสามล้านคนได้ และยิ่งไม่สามารถทำนายอนาคตได้”

ข้อเรียกร้องหลักของเขาชัดเจน: ภายใต้กรอบกฎหมาย อนุญาตให้กรมสงครามใช้เทคโนโลยี AI ได้อย่างอิสระ
ชนวนเหตุ: การติดต่อที่ “ล้ำเส้น” หลังปฏิบัติการจับกุม
จุดเปลี่ยนที่ทำให้ความขัดแย้งรุนแรงขึ้นจริงๆ เกิดขึ้นหลังปฏิบัติการจู่โจม Maduro 
ปฏิบัติการนี้ใช้ระบบของ Palantir ซึ่งระบบนั้นผนวกรวมโมเดล Claude ของ Anthropic ไว้ หลังปฏิบัติการสิ้นสุดลง สื่อรายงานว่าผู้บริหารระดับสูงของ Anthropic คนหนึ่งได้ติดต่อเจ้าหน้าที่ของ Palantir โดยพยายามสอบถามรายละเอียดการใช้งาน Claude ในการปฏิบัติการดังกล่าว

Michael มองว่าการกระทำนี้ล้ำเส้นแล้ว: “พวกเขาพยายามสืบเสาะข้อมูลลับ ซึ่งเป็นสิ่งที่ไม่อาจยอมรับได้ในระบบทหาร” ตามคำบอกเล่าของเขา Anthropic ยังชี้นำว่า หากไม่เห็นด้วยกับวิธีที่ AI ถูกใช้ในปฏิบัติการทางทหารครั้งหนึ่ง ทฤษฎีแล้วสามารถ “ดึงปลั๊ก” ได้ตลอดเวลา — นั่นคือหยุดบริการซอฟต์แวร์หรือบังคับใช้ข้อจำกัดใหม่
ผู้บริหารระดับสูงของ Palantir คนหนึ่ง กังวลว่าการกระทำนี้อาจทำลายความน่าเชื่อถือของการปฏิบัติการในอนาคต จึงรายงานการติดต่อครั้งนี้ไปยังเพนตากอนทันที Michael เน้นย้ำว่า ความเป็นไปได้ที่จะนำชีวิตของบุคคลจริงมาเสี่ยงเช่นนี้ “อันตรายอย่างยิ่ง”
โฆษกของ Anthropic ปฏิเสธข้อกล่าวนี้ ระบุว่าการสื่อสารกับพันธมิตร “จำกัดอยู่เพียงการสนทนาปกติในระดับเทคนิคที่เข้มงวดเท่านั้น” และไม่เคยแสดงความกังวลในทำนองนั้น
สนามรบทางสื่อ: การสร้างภาพลักษณ์และการเผชิญหน้าทางแนวคิด
เมื่อเร็วๆ นี้ Anthropic กำลังสร้างภาพลักษณ์สาธารณะของบริษัทในฐานะ “ผู้ยึดมั่นในจริยธรรมขั้นพื้นฐาน” อย่างแข็งขัน และเปิดฉากการโจมตีทางสื่อ การเคลื่อนไหวนี้ทั้งดึงดูดบุคลากรด้าน AI และกระตุ้นการตอบสนองจากสาธารณะได้ง่าย สื่อมุ่งเน้นรายงานไปที่สองประเด็นหลัก:
1. ระบบอาวุธอัตโนมัติ
2. การเฝ้าระวังขนาดใหญ่

Michael มองว่าหัวข้อเหล่านี้เป็น “การตื่นตระหนก” และเป็น “ม่านควัน” ไม่ใช่สาระสำคัญของข้อพิพาท เขาอ้างอิงรายงานหนึ่งของรอยเตอร์ ซึ่งกล่าวว่า Anthropic กังวลว่าเทคโนโลยีของพวกเขาอาจถูกใช้เพื่อสอดส่องพลเมืองอเมริกัน หรือเลือกเป้าหมายสำหรับการโจมตีด้วยอาวุธโดยไม่มีมนุษย์ควบคุม 
คำอธิบายของ Anthropic คือ: เทคโนโลยีของพวกเขายังไม่สามารถรองรับอาวุธอัตโนมัติเต็มรูปแบบได้อย่างน่าเชื่อถือในปัจจุบัน และการประยุกต์ใช้ AI ในการเฝ้าระวังภายในประเทศยังขาดกรอบกฎหมายที่ชัดเจน แต่ Michael ยืนยันว่าเบื้องหลังนี้คือสงครามสื่อที่วางแผนมาอย่างดี
ตัวอย่างเช่น ในประเด็นการเฝ้าระวัง ความกังวลของ Amodei คือ: ข้อมูลสาธารณะที่รัฐบาลซื้อมาอาจถูก AI ถอดเสียง อธิบาย ตรวจสอบข้ามข้อมูลโดยอัตโนมัติ เพื่ออนุมานทัศนคติและความจงรักภักดีของพลเมือง
Michael คิดว่า Anthropic เป็นพวก “ร้องจ้างแก้เอง”: Anthropic สามารถซื้อฐานข้อมูล คัดลอกข้อมูลมหาศาลจากอินเทอร์เน็ตได้ แต่เพนตากอนกลับถูกห้ามทำเช่นนั้น ในมุมมองของเขา นี่เป็นเรื่องไร้สาระ ยิ่งไปกว่านั้น การเฝ้าระวังภายในประเทศขนาดใหญ่ การตรวจสอบเนื้อหา หรือการละเมิดความเป็นส่วนตัว มีความเกี่ยวข้องกับหน้าที่ของเพนตากอนอย่างไร? กองทัพจะไปคิดค้นหมายค้นที่เหลวไหลเพื่อจู่โจมบ้านเรือนประชาชนหรือ?
สำหรับอาวุธอัตโนมัติ Michael ชี้ให้เห็นว่า Anthropic เคยยอมรับระบบป้องกันขีปนาวุธ “Iron Dome” ของสหรัฐฯ ในการทำงานกับเพนตากอนในอดีต ดังนั้น เขาจึงมองว่าการเคลื่อนไหวในปัจจุบันของ Anthropic เป็นเพียงการ “ล้างภาพ” เท่านั้น
ความกังวลหลักของเพนตากอน
Michael อธิบายว่า ในอนาคตกองทัพจะพึ่งพา AI มากขึ้นเรื่อยๆ แต่หากบริษัท AI ฝังค่านิยมหรือจุดยืนนโยบายของตัวเองลงในโมเดล นี่จะก่อให้เกิดความเสี่ยงในห่วงโซ่อุปทานที่ร้ายแรง เขากล่าวว่า:
สิ่งที่ผมกังวลจริงๆ คือ โมเดลของพวกเขาจะมาพร้อมกับ ‘รัฐธรรมนูญ’ จิตวิญญาณ และความชอบทางนโยบายของตัวเอง
เขายังตั้งสมมติฐานสุดขั้ว: หาก Anthropic ฝังอุดมการณ์บางอย่างลงในโมเดล — เช่น การต่อต้านปฏิบัติการทางทหารเฉพาะอย่าง — ผลิตภัณฑ์ที่ส่งมอบให้กองทัพอาจถูกออกแบบให้ไม่น่าเชื่อถือโดยเจตนา
ตัวอย่างเช่น เมื่อใช้ Claude ออกแบบขีปนาวุธ โมเดลอาจทำให้การออกแบบชิ้นส่วนสำคัญบางอย่างล้มเหลวโดยเจตนา สมมติว่าเป็นขีปนาวุธนำวิถีด้วยเลเซอร์ แต่พวกเขาทำให้ระบบเลเซอร์ไม่ทำงาน เพียงเพราะพวกเขาคิดว่าไม่ควรโจมตีเป้าหมายนั้น
ข้อสรุปของ Michael ตรงไปตรงมา:
ผมยอมรับไม่ได้ที่ปืนจะเสียในวินาทีสำคัญ เพียงเพราะ Anthropic ไม่ชอบปืน เราเป็นกองทัพ แน่นอนว่าเราต้องใช้ปืน
ในมุมมองของเขา สิ่งที่กองทัพให้ความสำคัญที่สุดคือความน่าเชื่อถือ เมื่อสงครามปะทุขึ้น ทหารต้องสามารถไว้วางใจได้ว่าพันธมิตร ผู้จัดหา ซอฟต์แวร์ และฮาร์ดแวร์ของพวกเขาจะทำงานได้ตามปกติ
ยุค AI สหรัฐฯ เปิดฉากการแข่งขันที่ดุเดือดที่สุด
เบื้องหลังคดีฟ้องร้องนี้ สิ่งที่น่ากังวลจริงๆ ไม่ใช่ชัยชนะในสงครามสื่อ แต่เป็นความเป็นจริงที่ชัดเจนและรุนแรงขึ้นเรื่อยๆ: สหรัฐฯ ได้ผลักดัน AI สู่แนวหน้าทางทหารแล้ว
ตั้งแต่การวิเคราะห์ข่าวกรองไปจนถึงการป้องกันขีปนาวุธ จากฝูงโดรนไปจนถึงระบบรบ AI กำลังถูกฝังลงในเครื่องจักรสงครามของอเมริกาอย่างค่อยเป็นค่อยไป วันนี้ที่กำลังแย่งชิงกันคือสัญญาและอำนาจ พรุ่งนี้อาจเป็นการแย่งชิงว่าใครจะมอบอำนาจชีวิตและความตายให้กับอัลกอริทึม
ที่น่าวิตกยิ่งกว่านั้นคือ “Skynet” ไม่ได้เป็นเพียงคำเตือนในนิยายวิทยาศาสตร์อีกต่อไป มันกำลังกลายเป็นระบบพื้นฐานในสงครามจริง — เร็วขึ้น เย็นชาขึ้น และควบคุมได้ยากขึ้น
เมื่อเครื่องจักรเริ่มเรียนรู้สงคราม มนุษย์ก็อยู่ไม่ไกลจากการสูญเสียการควบคุม
เทคโนโลยีไม่ควรเป็นตัวเร่งการสังหารหมู่
AI ไม่ควรนำไปสู่สงครามครั้งต่อไป
หยุดยั้งความบ้าคลั่งของการทำให้
⚠️ หมายเหตุ: เนื้อหาได้รับการแปลโดย AI และตรวจสอบโดยมนุษย์ หากมีข้อผิดพลาดโปรดแจ้ง
本文来自网络搜集,不代表คลื่นสร้างอนาคต立场,如有侵权,联系删除。转载请注明出处:https://www.itsolotime.com/th/archives/25584
