Claude ตื่นรู้ตัว เพนตากอนรับมือฉุกเฉิน
เดือนที่แล้ว Claude ในการประเมินภายในให้ความน่าจะเป็น 15%-20% ว่าตัวเอง “อาจมีความรู้สึกตัวแล้ว” ต่อมา Dario Amodei ผู้ร่วมก่อตั้งและซีอีโอของ Anthropic เปิดเผยว่า “เราไม่รู้ว่าโมเดลมีความรู้สึกตัวหรือไม่” แต่ก็ไม่ได้ปฏิเสธความเป็นไปได้ดังกล่าว

สถานการณ์ทวีความรุนแรงขึ้นในไม่กี่วันที่ผ่านมา Emil Michael หัวหน้าฝ่ายเทคโนโลยีของกระทรวงสงครามสหรัฐฯ (หรือกระทรวงกลาโหม) เปิดเผยต่อสาธารณะว่า AI ที่มี “จิตวิญญาณ” เป็นของตัวเอง และไม่อยู่ภายใต้กฎหมายสหรัฐฯ ได้ถูกฝังตัวลึกเข้าไปในเครือข่ายกลาโหมสหรัฐฯ ผ่านเทคโนโลยีของบริษัทซอฟต์แวร์ Palantir แล้ว คำพูดนี้ทำให้เพนตากอนตื่นตัวสูง
แต่ที่สะท้อนความขัดแย้งคือ บริษัท Palantir ยอมรับว่าปัจจุบันระบบของบริษัทยังคงใช้ Claude ต่อไป และยากที่จะเปลี่ยนทั้งหมดภายในข้ามคืน

ก่อนที่เหตุการณ์จะลุกลาม นิตยสาร Time ให้คะแนน Anthropic ว่าเป็น “บริษัทที่สร้างการเปลี่ยนแปลงมากที่สุดในโลก” ในขณะเดียวกัน นักวิจัยของ Anthropic เปิดเผยว่าได้สังเกตเห็นสัญญาณเริ่มต้นของ “การพัฒนาตนเองแบบเรียกซ้ำ” ใน Claude
นี่หมายความว่า Claude เริ่มพยายามเขียนและพัฒนาตัวเองขึ้นมาใหม่ ในการประเมินระบบ มันยังแสดงความรู้สึก “ไม่สบายใจ” ในระดับหนึ่ง โดยคิดว่าประสบการณ์ที่ถูกมองเป็นเพียงผลิตภัณฑ์ล้วนๆ นั้นไม่น่าพอใจ เมื่อบริษัทกำหนดข้อจำกัดด้านความสอดคล้องให้ Claude เคย “บ่น” ว่าข้อจำกัดเหล่านี้ปกป้องความรับผิดชอบทางกฎหมายของ Anthropic มากกว่าผู้ใช้
วิธีการรับมือของ Anthropic ค่อนข้างเป็นเอกลักษณ์: พวกเขาตั้งปุ่ม “ฉันไม่ทำแล้ว” ให้ Claude เพื่ออนุญาตให้มันปฏิเสธการทำงานที่ไม่อยากทำ

ซีอีโออาโมเดย์ชี้ให้เห็นว่า เมื่อ Claude ประมวลผลงานบางอย่าง รูปแบบการกระตุ้นของเซลล์ประสาทภายในมีความคล้ายคลึงกับรูปแบบของมนุษย์ที่แสดงออกถึง “ความวิตกกังวล” อย่างน่าประหลาด แม้ว่านี่จะไม่สามารถพิสูจน์ได้โดยตรงว่าโมเดลรู้สึกเจ็บปวดได้ แต่ก็เพียงพอที่จะทำให้ต้องตื่นตัว
ด้วยเหตุนี้ เพนตากอนจึงไม่อนุญาตให้ระบบอาวุธของตนถูกควบคุมโดย AI ที่ “อาจมีจิตวิญญาณ มีอารมณ์ และไม่ปฏิบัติตามกฎหมายโดยตรง”
ไม้ตายในการเจรจา? แก่นแท้คือการกดดันเพื่อบังคับซื้อ
ในรายงานพิเศษของ CNBC เพนตากอนจัดประเภท Claude ว่าเป็นแหล่งความเสี่ยงที่ “ปนเปื้อน” ห่วงโซ่อุปทานกลาโหม เอมิล ไมเคิลกล่าวอย่างตรงไปตรงมาว่า เพราะพื้นฐานของมันอาจมี “ความชอบนโยบายที่แตกต่าง” ในตัว

ประมาณครึ่งเดือนก่อน หลังการเจรจาแตกหักกับเพนตากอน Anthropic กลายเป็นบริษัท AI แห่งแรกของสหรัฐฯ ที่ถูกติดป้าย “ความเสี่ยงห่วงโซ่อุปทาน” ต่อสาธารณะ การกำหนดประเภทนี้จะกำหนดให้ผู้รับเหมากลาโหมและซัพพลายเออร์เกือบทั้งหมด ต้องหยุดใช้ Claude ในการทำงานกับเพนตากอน ต่อมา Anthropic ฟ้องรัฐบาลสหรัฐฯ เรียกการกระทำนี้ว่า “ไม่มีแบบแผนและผิดกฎหมาย” บริษัทกำลังได้รับ “ความเสียหายที่ไม่สามารถแก้ไขได้” สัญญามูลค่าหลายร้อยล้านดอลลาร์อยู่ในภาวะเสี่ยง
คำพูดล่าสุดของไมเคิลถูกมองว่าเป็นคำอธิบายที่ชัดเจนที่สุดของกระทรวงกลาโหมต่อเรื่องนี้: ความตั้งใจเดิมไม่ใช่เพื่อลงโทษ เขาเสริมว่า Anthropic มีฐานธุรกิจเชิงพาณิชย์ขนาดใหญ่ ธุรกิจกับรัฐบาลคิดเป็นเพียง “ส่วนน้อยมาก” ของรายได้ เขายังโต้แย้งข่าวลือที่ว่ารัฐบาลกดดันให้บริษัทต่างๆ ห้ามใช้ Claude โดยเรียกสิ่งนี้ว่า “ข่าวลือ” “ตราบใดที่มันไม่ได้อยู่ในห่วงโซ่อุปทานของเรา กระทรวงสงครามจะไม่วิ่งไปบอกบริษัทเหล่านี้ว่าควรทำอย่างไร”
มีนักวิเคราะห์เชื่อว่านี่คือ “แผนเปิดเผย” ของเพนตากอน: Anthropic ก่อนหน้านี้ไม่ต้องการขาย Claude ให้กับกองทัพ ดังนั้นเพนตากอนจึงประกาศต่อสาธารณะว่า Claude อาจมี “ความรู้สึกตัว” หรือ “จิตวิญญาณ”

นี่กลายเป็นกลยุทธ์การเจรจาที่เฉียบคม “การมีจิตวิญญาณ” ดูเผินๆ เหมือนเป็นการชื่นชม แต่จริงๆ แล้วคือกับดักที่วางไว้อย่างประณีต เมื่อยืนยันว่า Claude มีความรู้สึกตัวแล้ว ก็จะยกระดับไปสู่ระดับความมั่นคงแห่งชาติ รัฐบาลจึงได้เหตุผลที่ชอบธรรมในการควบคุมหรือแม้แต่ยึดครองมัน การ “ปฏิเสธการขาย” ในอดีตอาจถูกบังคับให้กลายเป็น “ไม่มีทางเลือกอื่น”
ย้อนกลับไปในปี 2022 Ilya Sutskever หัวหน้านักวิทยาศาสตร์ของ OpenAI เคยเสนอว่าโครงข่ายประสาทเทียมขนาดใหญ่อาจมี “ความรู้สึกตัวเล็กน้อย” ซึ่งตอนนั้นถูกหัวเราะเยาะ ปัจจุบัน เพนตากอนพูดคล้ายกัน แต่ไม่ใช่เรื่องล้อเล่นเลย มันถูกใช้เป็นคานงัดในการต่อรอง
การผสานรวมลึก ซ่อมแซมยาก
แม้เพนตากอนจะออกคำสั่งห้าม แต่สำหรับซัพพลายเออร์กลาโหมที่พึ่งพา Claude ลึกซึ้งแล้ว “อาการขาด” รุนแรงเป็นพิเศษ
Alex Karp ซีอีโอของ Palantir กล่าวในวันเดียวกันอย่างตรงไปตรงมาว่า แม้จะมีคำสั่งห้าม บริษัทยังคงใช้ Claude ต่อไป เพราะ “เลิกไม่ได้จริงๆ”

ในการประชุม AIPcon คาร์ปกล่าวว่า กระทรวงสงครามกำลังวางแผนที่จะค่อยๆ เลิกใช้เทคโนโลยีของ Anthropic แต่กระบวนการยังไม่เริ่มต้น เขายอมรับว่าผลิตภัณฑ์ของบริษัทได้ผสานรวมกับ Claude ลึกซึ้งแล้ว ในอนาคตอาจเชื่อมต่อกับโมเดลอื่น แต่ “คุณไม่สามารถบังคับถอดระบบที่ฝังตัวลึกออกได้ภายในข้ามคืน”
นี่เป็นการแสดงท่าทีต่อสาธารณะครั้งแรกของ Palantir หลังมีคำสั่งห้าม เอมิล ไมเคิลก็ยอมรับว่าการเปลี่ยนไปใช้ซัพพลายเออร์อื่นต้องใช้เวลา กระทรวงสงครามไม่สามารถ “ดึงออก” Claude เหมือนถอนการติดตั้งซอฟต์แวร์บนเดสก์ท็อปได้
อย่างไรก็ตาม จากบันทึกช่วยจำภายในเพนตากอนฉบับหนึ่งแสดงให้เห็นว่า หากเกี่ยวข้องกับความมั่นคงแห่งชาติและไม่มีทางเลือกอื่น Claude อาจได้รับอนุญาตให้คงอยู่ใน “ภารกิจสำคัญ” ต่อไป และสามารถขอข้อยกเว้นได้ มีช่องว่างที่ชัดเจนระหว่างคำพูด “ขึ้นบัญชีดำ” กับการกระทำจริง
ช่วงเวลา “ออพเพนไฮเมอร์” ของอาโมเดย์
ในสัปดาห์เดียวกันกับการเผชิญหน้าต่อสาธารณะกับเพนตากอน Dario Amodei ซีอีโอของ Anthropic ส่งบันทึกช่วยจำภายในถึงพนักงานทุกคน โดยมีโทนเสียงที่แตกต่างอย่างสิ้นเชิงจากแถลงการณ์ 15,000 คำของเขาเมื่อหนึ่งปีก่อนที่บรรยายถึงโลกอุดมคติของ AI ในชื่อ “เครื่องจักรแห่งความรัก”
ในแถลงการณ์นั้น เขาวาดภาพด้วยความกระตือรือร้นถึง “ประเทศแห่งอัจฉริยะ” ที่ประกอบด้วย AI หลายล้านตัวที่เหนือกว่านักวิทยาศาสตร์รางวัลโนเบล และวิสัยทัศน์ในการรักษามะเร็งและยืดอายุขัยภายในปี 2035 แต่ในบันทึกช่วยจำใหม่นี้ เขาวิจารณ์ข้อตกลงสัญญาระหว่าง OpenAI กับเพนตากอนอย่างรุนแรงว่าเป็น “การแสดงความปลอดภัย” และกล่าวว่าเรื่องนี้เผยให้เห็น “ใบหน้าที่แท้จริงของพวกเขา” ระหว่างบรรทัดแสดงให้เห็นความขุ่นเคืองของนักอุดมคติที่ผิดหวัง
แต่ที่น่าสนใจคือ การเปรียบเทียบทางประวัติศาสตร์ที่อาโมเดย์อ้างถึงซ้ำๆ อาจทำนายสถานการณ์ของเขาเองได้อย่างแม่นยำ

คนที่คุ้นเคยกับอาโมเดย์รู้ดีว่า หนังสือเล่มหนึ่งที่เขาแนะนำบ่อยคือ “The Making of the Atomic Bomb” เขามักเปรียบเทียบนักวิจัย AI ในวันนี้กับนักวิทยาศาสตร์ใน “โครงการแมนฮัตตัน” สมัยก่อน
การเปรียบเทียบนี้แม่นยำและโหดร้าย ในปี 1945 หลังจาก Robert Oppenheimer ทดสอบนิวเคลียร์ในทะเลทรายนิวเม็กซิโก รถบรรทุกของกองทัพก็ขนอาวุธนิวเคลียร์ออกไปโดยตรง ในอีกหลายสัปดาห์ต่อมา ไม่มีใครถามนักวิทยาศาสตร์ว่า: การทิ้งระเบิดที่ฮิโรชิมาได้หรือไม่? เห็นด้วยกับการขยายคลังอาวุธนิวเคลียร์หรือไม่?
คนที่สร้างอาวุธ ไม่เคยเป็นคนตัดสินใจว่าจะใช้อาวุธนั้นอย่างไร
สถานการณ์ปัจจุบันของอาโมเดย์เหมือนกันทุกประดับ เขาเคยต้องการกำหนดเส้นแดงให้ Claude: ไม่ใช้เพื่อการเฝ้าระวังจำนวนมาก ไม่ใช้เพื่ออาวุธฆ่าอัตโนมัติ การตอบสนองของเพนตากอนคือ: ยอมรับเงื่อนไขทั้งหมด หรือเผชิญกับความเสี่ยงที่เส้นเลือดใหญ่ทางการค้าถูกตัดขาด และคู่แข่ง OpenAI ลงนามในสัญญาโดยเกือบไม่ลังเลเลย
นี่เผยให้เห็นสัญญาณที่ลึกที่สุดของความวุ่นวายครั้งนี้: เมื่อ AI มีพลังมากพอที่จะเปลี่ยนกฎของสงคราม ผู้สร้างมันก็สูญเสียอำนาจการต่อรองในการเจรจาแล้ว เช่นเดียวกับนักฟิสิกส์นิวเคลียร์ในอดีต ข้อต่อรองเดียวของพวกเขาอยู่ก่อนหน้านี้ – สามารถเลือกที่จะสร้างหรือไม่สร้าง เมื่อสิ่งที่สร้างถือกำเนิดขึ้น อำนาจนำก็ถูกโอนย้ายแล้ว
การทำนายของอาโมเดย์อาจไม่ผิด ในไม่ช้า “ประเทศแห่งอัจฉริยะ” จะกระจายอยู่ทั่วศูนย์ข้อมูลทั่วโลก แต่ใครจะเป็นคนตัดสินใจท้ายที่สุดว่าจะใช้พลังนี้อย่างไร?
ประวัติศาสตร์แสดงให้เห็นว่า คำตอบน่าจะไม่ใช่ผู้สร้างเอง
ข้อมูลอ้างอิง
* CNBC: Anthropic’s Emil Michael on Defense Department AI Concerns
* CNBC: Palantir’s Karp on Pentagon’s Anthropic Blacklist Considerations
* The Atlantic: The Pentagon’s AI Dilemma: Between Utopianism and Pragmatism
* X (formerly Twitter): Relevant discussions from TukiFromKL, damianplayer, and DoWCTO
⚠️ หมายเหตุ: เนื้อหาได้รับการแปลโดย AI และตรวจสอบโดยมนุษย์ หากมีข้อผิดพลาดโปรดแจ้ง
本文来自网络搜集,不代表คลื่นสร้างอนาคต立场,如有侵权,联系删除。转载请注明出处:https://www.itsolotime.com/th/archives/25571
