หลังจากที่รัฐบาลสหรัฐฯ ประกาศห้ามใช้ Claude อย่างเป็นทางการ Dario Amodei ได้เขียนบันทึกข้อความภายในที่ถูกขนานนามจากภายนอกว่าเป็นบันทึกที่ “บ้าที่สุดในซิลิคอนวัลเลย์” ในบันทึกดังกล่าว เขาชี้ตรงไปที่ OpenAI โดยระบุว่าการทำข้อตกลงกับเพนตากอนเป็นเพียง “ละครความปลอดภัย” เท่านั้น
“พวกเขาแค่แสดงละครเพื่อหลอกลวงคนทั้งโลก”
| 
—|—
Amodei ยังกล่าวอีกว่ารัฐบาลสหรัฐฯ ไม่ชอบ Anthropic สาเหตุหลักมาจากบริษัทไม่ยอม迎合รัฐบาล เขายังชี้นิ้วไปที่ Greg Brockman ประธาน OpenAI และภรรยา ว่าบริจาคเงิน 25 ล้านดอลลาร์ให้กับซูเปอร์พีเอซีที่สนับสนุนทรัมป์
บันทึกความยาว 1,600 คำนี้ สะท้อนถึงความวิตกกังวลของ Amodei ในปัจจุบันได้เป็นอย่างดี

(ส่วนหนึ่งของบันทึกข้อความ สามารถเลื่อนดูได้)
ในปัจจุบัน บริษัทเทคโนโลยีกลาโหมมากกว่าสิบแห่งได้ออกคำสั่งให้พนักงานหยุดใช้ Claude ทันที เพื่อให้แน่ใจว่าสัญญากับรัฐบาลจะไม่ได้รับผลกระทบ
ไม่เพียงเท่านั้น สัญญาความร่วมมือมูลค่าหลายหมื่นล้านดอลลาร์ระหว่าง Anthropic กับ Google, Amazon และ Microsoft ก็กำลังเผชิญกับการตรวจสอบอย่างเข้มงวดเช่นกัน
ในทางกลับกัน OpenAI ที่ “ขึ้นมาแทนที่” ก็เริ่มได้ลิ้มรสความสำเร็จแล้ว มีรายงานว่า StateChat หุ่นยนต์แชทที่รัฐบาลสหรัฐฯ พัฒนาขึ้นเอง ได้เปลี่ยนโมเดลพื้นฐานจาก Claude ไปเป็น GPT-4.1 อย่างเร่งด่วนแล้ว

(หมายเหตุ: ต้นฉบับระบุเวอร์ชันเป็น GPT-4.1 ไม่ใช่ GPT-5.1)
กล่าวได้ว่าความสัมพันธ์ระหว่าง Anthropic กับ OpenAI ตอนนี้ตึงเครียดถึงขีดสุด
ประณาม Altman เรื่อง “ละครความปลอดภัย” ซีอีโอ Anthropic โกรธจัด
ในจดหมายยาวที่ส่งถึงพนักงานประมาณ 2,000 คนของบริษัท Dario Amodei เปิดฉากโจมตี “คู่แข่งตัวฉกาจ” อย่าง OpenAI และ Sam Altman ซีอีโอของบริษัท อย่างเต็มที่
Amodei กล่าวตรงๆ ว่าสถานการณ์ตึงเครียดในปัจจุบันไม่ได้เกิดจากความแตกต่างทางเทคโนโลยี แต่เป็นเพราะ Anthropic ปฏิเสธที่จะ “ประจบสอพลอ” รัฐบาลชุดปัจจุบัน เขายังแสดงความสงสัยอย่างมากต่อมาตรการรักษาความปลอดภัยที่ OpenAI โฆษณาอย่างเอิกเกริก

Altman เคยออกมาประกาศหลายครั้งว่า OpenAI ได้กำหนด “เส้นแดง” และเพิ่มข้อกำหนดหลายประการสำหรับความร่วมมือกับกระทรวงกลาโหม แต่บทความยาวของ CNBC ได้เปิดเผยรายละเอียดในสัญญา – ซึ่งระบุชัดเจนว่าเพนตากอนสามารถใช้ AI สำหรับ “วัตถุประสงค์ที่ถูกกฎหมายทั้งหมด” Altman ยังกล่าวในการประชุมภายในว่า สำหรับวิธีที่กระทรวงกลาโหมจะใช้โมเดล GPT นั้น OpenAI ไม่มีสิทธิ์ตัดสินใจ

Amodei เชื่อว่าในขณะที่ Anthropic กำลังตกอยู่ในสถานการณ์ยากลำบาก Altman ฉวยโอกาสนี้พยายามทำให้รัฐบาลมี底气มากขึ้นที่จะดำเนินการที่รุนแรงกับ Anthropic โดยการบั่นทอนการสนับสนุนจากสาธารณชน
เขาชี้ให้เห็นว่าสาเหตุที่รัฐบาลทรัมป์ไม่ชอบ Anthropic จริงๆ แล้วคือ:
– Anthropic ไม่ได้บริจาคเงินให้ทรัมป์ (ในขณะที่ Greg ของ OpenAI บริจาคเงินก้อนใหญ่)
– ไม่ได้สรรเสริญเยินยอทรัมป์ (แต่ Altman ทำ)
– สนับสนุนการกำกับดูแล AI ที่ไม่เอื้อต่อวาระของรัฐบาล
– พูดความจริงในประเด็นนโยบาย AI (เช่น ปัญหาการว่างงาน)
– ยึดมั่นในเส้นแดง ไม่มีส่วนร่วมใน “ละครความปลอดภัย” เพื่อหลอกพนักงาน

มีประสิทธิผลเพียง 20% ที่เหลือเป็นละครทั้งหมด
บันทึกข้อความเปิดเผยว่า Palantir บริษัทข้อมูล เคยเสนอวิธีแก้ปัญหาเพื่อให้ความร่วมมือระหว่างเพนตากอนกับ Anthropic สำเร็จ: นั่นคือการติดตั้ง “ตัวแยกประเภท” หรือระบบแมชชีนเลิร์นนิง เพื่อตัดสินว่าการใช้งานข้ามเส้นแดงที่ Anthropic กำหนดหรือไม่
แต่ Amodei ชี้ให้เห็นว่าโมเดล AI ถูก “แหกคุก” ได้ง่ายมาก Anthropic เคยพิจารณาให้พนักงานตรวจสอบการติดตั้งใช้งาน แต่กลไกนี้สามารถครอบคลุมสถานการณ์การใช้งานได้ “จำกัดมาก” เท่านั้น
เขากล่าวอย่างตรงไปตรงมาว่าวิธีเหล่านี้ไม่สามารถบอกได้ว่าไม่มีประโยชน์เลย แต่ในบริบทของการใช้งานทางทหาร อาจมีประสิทธิผลจริงเพียง 20% ส่วนอีก 80% เป็น “ละครความปลอดภัย” ล้วนๆ ประโยคนี้ถูกมองจากภายนอกว่าเป็นการตบหน้า Altman โดยตรง และตั้งคำถามว่า “เส้นแดง” ที่เขากำหนดนั้นเป็นการหลอกตัวเอง

Amodei ยังเปิดเผยข้อมูลภายในเพิ่มเติม โดยระบุว่า “ชั้นความปลอดภัย” ที่ Palantir ขายให้กับ Anthropic (รวมถึง OpenAI) นั้นเป็นแค่การแสดงละครเท่านั้น เมื่อการเจรจาใกล้ถึงจุดสิ้นสุดในสัปดาห์ที่แล้ว เพนตากอนเสนอว่าหากบริษัทลบข้อกำหนดเฉพาะในสัญญาที่เกี่ยวกับ “ห้ามวิเคราะห์ข้อมูลที่ได้มาเป็นชุด” ออก ก็จะยอมรับเงื่อนไขของบริษัทได้ แต่ Anthropic ปฏิเสธที่จะประนีประนอม
“กลุ่มคนที่ถูกหลอกได้ง่าย”
Amodei ยังกล่าวในบันทึกข้อความอีกว่า แนวทางแบบนี้ในการชี้นำกระแสและบิดเบือนความจริง ไม่ค่อยได้ผลกับประชาชนทั่วไปหรือสื่อมากนัก แต่เขาเสริมว่า: มันค่อนข้างได้ผลกับ “เมนเทอร์” บางคนบนโซเชียลมีเดีย X
สิ่งที่เขากังวลที่สุดคือ จะมั่นใจได้อย่างไรว่าแนวทางแบบนี้จะไม่หลอกพนักงานของ OpenAI ด้วย เขาคิดว่า เนื่องจากเอฟเฟกต์การคัดเลือก พวกเขาเป็น “กลุ่มคนที่ถูกหลอกได้ง่าย” อยู่แล้ว ดังนั้น การตอบโต้ “ข้อมูลล้างสมอง” ที่ Altman ขายให้พนักงานของเขาจึงเป็นสิ่งสำคัญอย่างยิ่ง

Claude ถูกบังคับให้ออก GPT-4.1 รีบเข้ามาแทนที่
แผนที่อำนาจในวงการ AI ของซิลิคอนวัลเลย์ดูเหมือนจะสั่นคลอนอย่างรุนแรงภายในข้ามคืน
ในปัจจุบัน หน่วยงานระดับคณะรัฐมนตรีสามแห่งของสหรัฐฯ ได้แก่ กระทรวงการต่างประเทศ กระทรวงการคลัง และกระทรวงสาธารณสุขและบริการมนุษย์ (HHS) ได้ประกาศร่วมกันว่า: หยุดใช้ผลิตภัณฑ์ AI ทั้งหมดของ Anthropic

นี่เป็นสัญญาณว่าหลังจากกองทัพสหรัฐฯ แล้ว หน่วยงานหลักของรัฐบาลอีกกลุ่มหนึ่งก็หันไปสนับสนุน OpenAI หรือ Google อย่างเป็นทางการ
การ “กวาดล้าง” ครั้งนี้มีต้นตอมาจากคำสั่ง “ห้ามใช้อย่างเป็นทางการทั้งหมด” ในสัปดาห์ที่แล้ว เนื่องจาก Anthropic และเพนตากอนไม่สามารถบรรลุข้อตกลงในประเด็นความปลอดภัยของ AI ทางทหาร ทรัมป์จึงออกคำสั่งโดยตรง: หน่วยงานรัฐบาลกลางทั้งหมดในสหรัฐฯ ต้องยกเลิกสัญญากับ Anthropic ภายใน 6 เดือน
ตามมาด้วย กระทรวงการคลัง สำนักงานการเงินที่อยู่อาศัยแห่งชาติ (FHFA) รวมถึง Fannie Mae และ Freddie Mac ได้ “กวาดล้าง” Claude ออกไปทั้งหมด
| 
—|—
การเคลื่อนไหวเหล่านี้เป็นผลกระทบที่รุนแรงต่อ Anthropic อย่างไม่ต้องสงสัย ในฐานะบริษัทชั้นนำด้าน AI เพื่อความมั่นคงแห่งชาติของสหรัฐฯ ในอดีต ตอนนี้กลับถูกรัฐบาลสหรัฐฯ “รังเกียจอย่างเปิดเผย”
รอยเตอร์สได้รับข่าวพิเศษว่า กระทรวงสาธารณสุขสหรัฐฯ (HHS) ได้แจ้งพนักงานอย่างเป็นทางการแล้วว่าคำสั่งห้ามมีผลบังคับใช้ และให้เปลี่ยนไปใช้ ChatGPT หรือ Gemini แทน ยิ่งไปกว่านั้น StateChat หุ่นยนต์แชทที่กระทรวงการต่างประเทศสหรัฐฯ พัฒนาขึ้นเอง ก็ได้เปลี่ยนโมเดลพื้นฐานจาก Claude ไปเป็น GPT-4.1 อย่างเร่งด่วนแล้ว

(ก่อนหน้านี้มีข่าวลือว่า Claude ที่กองทัพสหรัฐฯ ใช้อาจมีระดับเทียบเท่า Opus 5.5 เมื่อเทียบกันแล้ว GPT-4.1 มีช่องว่างด้านประสิทธิภาพ)
Tommy Pigott โฆษกกระทรวงการต่างประเทศ กล่าวในอีเมลว่า: “เพื่อดำเนินการตามคำสั่งของประธานาธิบดีเกี่ยวกับการยกเลิกสัญญากับ Anthropic เรากำลังดำเนินการทันทีเพื่อให้แน่ใจว่าทุกโครงการเป็นไปตามข้อกำหนดอย่างสมบูรณ์”

(GPT-4.1 เปิดตัวในเดือนเมษายน 2025)
วงการเทคโนโลยีกลาโหมเอาตัวรอด ตัดขาด Claude ภายในข้ามคืน
ราวกับภายในข้ามคืน Anthropic กลายเป็นสิ่งที่วงการเทคโนโลยีกลาโหมรีบ “ตัดทิ้ง”
บริษัทเทคโนโลยีกลาโหมจำนวนมากได้ออกคำสั่งให้พนักงานหยุดใช้ Claude อย่างเต็มที่ และเปลี่ยนไปใช้โมเดลภาษาขนาดใหญ่อื่นๆ เพื่อให้แน่ใจว่าสัญญากับรัฐบาลในมือจะไม่ได้รับผลกระทบ

Alexander Harstrick หุ้นส่วนกรรมการของบริษัทลงทุนเสี่ยงภัย J2 Ventures เปิดเผยว่า บริษัทในพอร์ตการลงทุนของเขามี 10 แห่งที่เปลี่ยน Claude อย่างเร่งด่วน แม้แต่ยักษ์ใหญ่ด้านอาวุธอย่าง Lockheed Martin ก็ถูกเปิดเผยว่ากำลังดำเนินการตัด Anthropic ออกจากห่วงโซ่อุปทาน
Harstrick ยอมรับอย่างตรงไปตรงมาว่า: “บริษัทต่างๆ เปลี่ยน Claude ไม่ใช่เพราะผลิตภัณฑ์นี้ใช้งานไม่ได้ แต่เป็นเพียงเพื่อหลีกเลี่ยงความเสี่ยงเท่านั้น”
นี่เป็นข่าวร้ายสำหรับ Anthropic อย่างแน่นอน ในเดือนมกราคมปีนี้ Dario Amodei เคยกล่าวว่า รายได้ 80% ของบริษัทขึ้นอยู่กับลูกค้าองค์กร ปลายปี 2024 Anthropic ประสบความสำเร็จในการเข้าสู่ระบบนิเวศของกระทรวงกลาโหมผ่านความร่วมมือกับ Palantir ผู้ให้บริการซอฟต์แวร์ Claude เคยเป็นโมเดลภาษา AI ขนาดใหญ่ตัวแรกที่เข้าสู่เครือข่ายลับของรัฐบาล และเคยได้สัญญามูลค่า 200 ล้านดอลลาร์ ตอนนี้สถานการณ์เปลี่ยนไปอย่างรวดเร็ว

คำสั่งห้ามของเพนตากอน ตัดขาดความร่วมมือ AI ทางทหารที่ลับที่สุดแห่งหนึ่งของซิลิคอนวัลเลย์ นั่นคือการผสานรวมอย่างลึกซึ้งระหว่าง Palantir กับ Claude
ในฐานะบริษัทซอฟต์แวร์ยักษ์ใหญ่ จากรายได้รวมเกือบ 450,000 ล้านดอลลาร์ในปีงบประมาณที่แล้วของ Palantir สูงถึง 42% มาจากสัญญากับรัฐบาลสหรัฐฯ โดยตรง ในช่วงเวลากว่าหนึ่งปีที่ผ่านมา Palantir ไม่เพียงแต่เชื่อมต่อ Claude เข้ากับระบบของตนเท่านั้น แต่ยังปรับแต่งอย่างลึกซึ้งสำหรับแพลตฟอร์มการวิเคราะห์และฐานข้อมูลหลักของตนอีกด้วย การผสมผสานของทั้งสองได้ก้าวข้ามการเรียกใช้อินเทอร์เฟซแบบง่ายๆ และบรรลุการผสานรวมในระดับพื้นฐาน
ตอนนี้ เมื่อต้องเลือกระหว่างการลบ Claude ออกไปอย่างสมบูรณ์ หรือสูญเสียสัญญากับรัฐบาลมูลค่ามหาศาล Palantir เลือกทางแรกอย่างไม่ลังเล

นักลงทุนเสี่ยงภัยในแวดวงเทคโนโลยีกลาโหมคนหนึ่งชี้ให้เห็นว่า บริษัทใดๆ ที่มีธุรกิจ正经กับรัฐบาลกลาง มักจะไม่เดิมพันทั้งหมดกับซัพพลายเออร์รายเดียว ดังนั้น การหยุดใช้ผลิตภัณฑ์ของ Anthropic คาดว่าจะไม่สร้างปัญหาที่กระทบกระเทือนถึงรากฐาน
จนถึงตอนนี้ Anthropic ยังคงยึดมั่นใน “ขีดจำกัดด้านความปลอดภัย” ของตน ปฏิเสธไม่ให้กองทัพสหรัฐฯ ใช้ Claude สำหรับการ
⚠️ หมายเหตุ: เนื้อหาได้รับการแปลโดย AI และตรวจสอบโดยมนุษย์ หากมีข้อผิดพลาดโปรดแจ้ง
本文来自网络搜集,不代表คลื่นสร้างอนาคต立场,如有侵权,联系删除。转载请注明出处:http://www.itsolotime.com/th/archives/24285
