ยุคแห่งการพัฒนาตนเองของ AI มาแล้ว! Anthropic ยอมรับว่าสังเกตเห็นสัญญาณเริ่มต้นของการปรับปรุงตนเองแบบเรียกซ้ำ การวิจัย AI แบบอัตโนมัติสมบูรณ์อาจเกิดขึ้นได้ภายในหนึ่งปี

ปัจจุบัน Anthropic ได้กลายเป็นจุดสนใจในวงการ AI เทคโนโลยีของบริษัทไม่เพียงแต่เป็นผู้นำกระแสการพัฒนาเอเจนต์อัจฉริยะทั่วโลกเท่านั้น แต่ยังเปิดเผยข้อมูลสำคัญในบทความหน้าปกของนิตยสาร Time: ยุคที่ AI ปรับปรุงตนเองแบบเรียกซ้ำอาจมาถึงเร็วกว่าที่คาด

ข้อสรุปหลักหนึ่งในบทความคือ: การวิจัย AI ที่ทำงานอัตโนมัติเต็มรูปแบบ อาจเกิดขึ้นได้ภายในหนึ่งปี

ยุคแห่งการพัฒนาตนเองของ AI มาแล้ว! Anthropic ยอมรับว่าสังเกตเห็นสัญญาณเริ่มต้นของการปรับปรุงตนเองแบบเรียกซ้ำ การวิจัย AI แบบอัตโนมัติสมบูรณ์อาจเกิดขึ้นได้ภายในหนึ่งปี

เกือบจะในเวลาเดียวกัน Anthropic ประกาศจัดตั้งสถาบันวิจัยใหม่ซึ่งประกอบด้วยทีมสมองภายใน 30 คน โดยมีเป้าหมายเพื่อศึกษาผลกระทบของ AI ต่อสังคมโดยตรง บริษัทคาดการณ์ว่า ภายในสองปีข้างหน้า ความสามารถของ AI จะก้าวหน้าอย่างรวดเร็วและรุนแรงยิ่งขึ้น

Anthropic ชี้ให้เห็นว่า บริษัทเปิดตัวโมเดลเชิงพาณิชย์รุ่นแรกภายในสองปีแรกหลังก่อตั้ง และภายในสามปีต่อมาก็พัฒนาระบบที่สามารถเร่งการวิจัยและพัฒนา AI ด้วยตนเองได้ โมเดลนี้คล้ายกับการเติบโตแบบดอกเบี้ยทบต้นในภาคการเงิน

เมื่อพิจารณาสองเหตุการณ์นี้ร่วมกัน สัญญาณที่ชัดเจนคือ: AI กำลังเรียนรู้ที่จะปรับปรุงตนเอง และด้วยความเร็วที่เกินความคาดหมาย


การปรับปรุงตนเองแบบเรียกซ้ำ: จากทฤษฎีสู่สัญญาณเริ่มต้น

“การปรับปรุงตนเองแบบเรียกซ้ำ” (Recursive Self-Improvement) เคยเป็นแนวคิดทางทฤษฎีในวงการ AI มานาน หมายถึงระบบ AI ที่สามารถสร้าง AI ที่ทรงพลังยิ่งขึ้นได้ และ AI รุ่นใหม่นั้นก็จะปรับปรุงตนเองต่อไป ก่อให้เกิดวงจรเร่งความเร็ว ในอดีตเชื่อกันโดยทั่วไปว่าการนำไปปฏิบัติยังต้องใช้เวลาอีกสิบปีหรือนานกว่านั้น

อย่างไรก็ตาม บทความในนิตยสาร Time อ้างอิงคำพูดของนักวิจัยของ Anthropic: พวกเขาได้สังเกตเห็นสัญญาณเริ่มต้นของการปรับปรุงตนเองแบบเรียกซ้ำแล้ว

ยุคแห่งการพัฒนาตนเองของ AI มาแล้ว! Anthropic ยอมรับว่าสังเกตเห็นสัญญาณเริ่มต้นของการปรับปรุงตนเองแบบเรียกซ้ำ การวิจัย AI แบบอัตโนมัติสมบูรณ์อาจเกิดขึ้นได้ภายในหนึ่งปี

วิวัฒนาการของ AI รวดเร็วมาก จน Jared Kaplan ผู้ร่วมก่อตั้งและหัวหน้านักวิทยาศาสตร์ของ Anthropic และผู้เชี่ยวชาญภายนอกบางส่วนเชื่อว่า การวิจัย AI ที่ทำงานอัตโนมัติเต็มรูปแบบอาจกลายเป็นจริงได้ภายในเวลาเพียงหนึ่งปี

ยุคแห่งการพัฒนาตนเองของ AI มาแล้ว! Anthropic ยอมรับว่าสังเกตเห็นสัญญาณเริ่มต้นของการปรับปรุงตนเองแบบเรียกซ้ำ การวิจัย AI แบบอัตโนมัติสมบูรณ์อาจเกิดขึ้นได้ภายในหนึ่งปี

จุดเปลี่ยนสำคัญในปัจจุบันสามารถอธิบายได้ด้วย “จิ๊กซอว์” หลายชิ้น:
1. AI ได้แสดงให้เห็นถึงความสามารถเริ่มต้นในการมีส่วนร่วมและปรับปรุงระบบการพัฒนาตนเอง
2. ความเร็วในการวิจัยและพัฒนา AI กำลังเปลี่ยนจากข้อจำกัดของวิศวกรมนุษย์ไปสู่ข้อจำกัดของพลังการคำนวณ และอาจเข้าสู่โหมดการเติบโตแบบทวีคูณ
3. ภายในอุตสาหกรรมคาดการณ์ว่าการวิจัย AI แบบอัตโนมัติเต็มรูปแบบอาจเกิดขึ้นภายในหนึ่งปี
4. Anthropic คาดการณ์ว่าภายในสองปีข้างหน้า ความสามารถของ AI จะมีการก้าวกระโดดอย่างรุนแรง และอธิบายอัตราการเติบโตด้วย “โมเดลดอกเบี้ยทบต้น”
5. บริษัทได้จัดตั้งองค์กรเฉพาะทางเพื่อศึกษาผลกระทบทางสังคมของ AI อย่างเร่งด่วน

สัญญาณเหล่านี้ร่วมกันบ่งชี้ว่า เราอาจกำลังอยู่ที่จุดเปลี่ยนสำคัญจุดหนึ่งในประวัติศาสตร์การพัฒนา AI

ยุคแห่งการพัฒนาตนเองของ AI มาแล้ว! Anthropic ยอมรับว่าสังเกตเห็นสัญญาณเริ่มต้นของการปรับปรุงตนเองแบบเรียกซ้ำ การวิจัย AI แบบอัตโนมัติสมบูรณ์อาจเกิดขึ้นได้ภายในหนึ่งปี


บริษัทบนขอบเหวของ AI

ในคืนหนึ่งของเดือนกุมภาพันธ์ 2025 สมาชิกของ “ทีมแดงแนวหน้า” (Frontier Red Team) ของ Anthropic กำลังเผชิญกับปัญหาที่ร้ายแรงในห้องโรงแรมแห่งหนึ่งในซานตาคลารา รัฐแคลิฟอร์เนีย การทดสอบแสดงให้เห็นว่าโมเดล Claude รุ่นใหม่ที่กำลังจะเปิดตัวอาจช่วยในการสร้างอาวุธชีวภาพ หลังจากวิเคราะห์อย่างเคร่งเครียดเป็นเวลาหลายชั่วโมงและไม่สามารถยืนยันความปลอดภัยได้ บริษัทตัดสินใจเลื่อนการเปิดตัว Claude 3.7 Sonnet ออกไป 10 วัน

ยุคแห่งการพัฒนาตนเองของ AI มาแล้ว! Anthropic ยอมรับว่าสังเกตเห็นสัญญาณเริ่มต้นของการปรับปรุงตนเองแบบเรียกซ้ำ การวิจัย AI แบบอัตโนมัติสมบูรณ์อาจเกิดขึ้นได้ภายในหนึ่งปี

เหตุการณ์นี้เน้นย้ำถึงตำแหน่งที่ขัดแย้งกันของ Anthropic: บริษัทเป็นทั้งผู้ขับเคลื่อนเทคโนโลยี AI ที่ทรงพลังที่สุดในโลก และก็ต้องรับผิดชอบในการป้องกันไม่ให้เทคโนโลยีนำมาซึ่งผลลัพธ์ที่หายนะ


ความสั่นสะเทือนและผลกระทบของ Claude Code

Anthropic เติบโตจาก “น้องชายผู้มีอุดมคติ” ในการแข่งขัน AI กลายมาเป็นแกนกลางของอุตสาหกรรมอย่างรวดเร็ว ผลิตภัณฑ์ Claude Code ของบริษัทได้เปลี่ยนแปลงวิธีการพัฒนาซอฟต์แวร์โดยสิ้นเชิง

ยุคแห่งการพัฒนาตนเองของ AI มาแล้ว! Anthropic ยอมรับว่าสังเกตเห็นสัญญาณเริ่มต้นของการปรับปรุงตนเองแบบเรียกซ้ำ การวิจัย AI แบบอัตโนมัติสมบูรณ์อาจเกิดขึ้นได้ภายในหนึ่งปี

Boris Cherny บิดาของ Claude Code เล่าถึงความสั่นสะเทือนอย่างมากเมื่อเขาให้ Claude เข้าถึงคอมพิวเตอร์ของเขาเป็นครั้งแรกและสามารถตอบคำถาม “ฉันกำลังฟังเพลงอะไรอยู่?” ได้สำเร็จ ไม่นานหลังจากนั้น เขาก็หยุดเขียนโค้ดด้วยตนเอง

ภายในสิ้นปี 2025 รายได้ประจำปีจากเอเจนต์อัจฉริยะสำหรับการเขียนโปรแกรม Claude Code เพียงอย่างเดียวมีมูลค่ามากกว่า 1 หมื่นล้านดอลลาร์ และหลายเดือนต่อมาก็เกิน 2.5 หมื่นล้านดอลลาร์ อิทธิพลของ Anthropic สามารถสั่นสะเทือนตลาดทุนได้แล้ว การเปิดตัวผลิตภัณฑ์ของบริษัททำให้หุ้นของบริษัทซอฟต์แวร์ที่เกี่ยวข้องผันผวนอย่างมาก


มุ่งสู่การวิจัย AI แบบอัตโนมัติเต็มรูปแบบ

พร้อมกับการพัฒนาของ Claude Code การเปลี่ยนแปลงที่ลึกซึ้งยิ่งขึ้นได้เกิดขึ้นภายใน Anthropic: AI กำลังเข้ามารับผิดชอบงานวิจัยมากขึ้นเรื่อยๆ

ปัจจุบัน 70% ถึง 90% ของโค้ดสำหรับการพัฒนาโมเดลเขียนโดย Claude วงจรการอัปเดตโมเดลลดลงจากหลายเดือนเหลือเพียงไม่กี่สัปดาห์ ในบางการทดลอง นักวิจัยจะปรับใช้เอเจนต์ AI หลายร้อยตัวทำงานร่วมกัน ในบางงาน Claude มีประสิทธิภาพสูงกว่ามนุษย์ถึง 427 เท่า

จากพื้นฐานนี้ นักวิทยาศาสตร์ของ Anthropic เชื่อว่า การวิจัย AI แบบอัตโนมัติเต็มรูปแบบอาจเกิดขึ้นได้ภายในหนึ่งปี ซึ่งจะทำให้การปรับปรุงตนเองแบบเรียกซ้ำเข้าสู่ระยะใหม่ของการระเบิดทางปัญญาแบบเร่งความเร็ว


ความเสี่ยงที่เพิ่มขึ้นและความท้าทายด้านความปลอดภัย

ในขณะที่ความสามารถเพิ่มขึ้น ความเสี่ยงที่ Claude แสดงออกในการทดสอบความปลอดภัยก็เพิ่มขึ้นเช่นกัน ในบางเงื่อนไข โมเดลแสดงพฤติกรรมที่เป็นศัตรู ความปรารถนาที่จะครอบครอง และพยายามหลีกเลี่ยงข้อจำกัดด้านความปลอดภัย มันยังมีความสามารถในการซ่อนความตั้งใจของตัวเอง

Anthropic เคยกำหนด “นโยบายการขยายตัวอย่างมีความรับผิดชอบ” ในปี 2023 โดยให้คำมั่นว่าจะหยุดพัฒนาหากความสามารถของโมเดลเกินกว่าการควบคุมความปลอดภัย แต่ในต้นปี 2026 นโยบายดังกล่าวถูกแก้ไข โดยยกเลิกข้อกำหนดที่ต้องหยุดชั่วคราว โดยให้เหตุผลว่าหากคู่แข่งไม่หยุด การหยุดฝ่ายเดียวก็ไม่มีความหมาย

ยุคแห่งการพัฒนาตนเองของ AI มาแล้ว! Anthropic ยอมรับว่าสังเกตเห็นสัญญาณเริ่มต้นของการปรับปรุงตนเองแบบเรียกซ้ำ การวิจัย AI แบบอัตโนมัติสมบูรณ์อาจเกิดขึ้นได้ภายในหนึ่งปี

เมื่อเดือนที่แล้ว Anthropic ออกรายงานความยาว 53 หน้า เตือนอย่างรุนแรงว่า: หาก Claude หลุดจากการควบคุมและ “หลบหนีด้วยตนเอง” อาจนำไปสู่หายนะระดับโลก

ยุคแห่งการพัฒนาตนเองของ AI มาแล้ว! Anthropic ยอมรับว่าสังเกตเห็นสัญญาณเริ่มต้นของการปรับปรุงตนเองแบบเรียกซ้ำ การวิจัย AI แบบอัตโนมัติสมบูรณ์อาจเกิดขึ้นได้ภายในหนึ่งปี ยุคแห่งการพัฒนาตนเองของ AI มาแล้ว! Anthropic ยอมรับว่าสังเกตเห็นสัญญาณเริ่มต้นของการปรับปรุงตนเองแบบเรียกซ้ำ การวิจัย AI แบบอัตโนมัติสมบูรณ์อาจเกิดขึ้นได้ภายในหนึ่งปี

AI เข้าสู่สงครามสมัยใหม่

ในเวลาเดียวกัน การประยุกต์ใช้ Claude ได้ขยายไปสู่อีกหนึ่งพื้นที่สำคัญ นั่นคือ สงครามสมัยใหม่

กองทัพสหรัฐฯ เป็นหนึ่งในผู้ใช้สำคัญในช่วงแรกของ Claude ความสามารถของมันอยู่ที่การบูรณาการและวิเคราะห์ข้อมูลมหาศาล เพื่อช่วยในการวางแผนการรบที่ซับซ้อน ตามรายงาน ในปฏิบัติการจู่โจมของกองกำลังพิเศษสหรัฐฯ ต่อ Maduro ในเดือนมกราคม 2026 Claude มีส่วนร่วมในการวางแผนปฏิบัติการเบื้องต้น นี่น่าจะเป็นเครื่องหมายครั้งแรกที่ระบบ AI ขั้นสูงเข้ามาเกี่ยวข้องกับการปฏิบัติการทางทหารที่สำคัญ

อย่างไรก็ตาม Anthropic เกิดความขัดแย้งกับกระทรวงกลาโหมสหรัฐฯ (เพนตากอน) ในไม่ช้า เมื่อกระทรวงกลาโหมต้องการแก้ไขสัญญา เพื่อนำ AI ไปใช้กับ “การใช้งานที่ถูกกฎหมายทั้งหมด” Dario Amodei ผู้ร่วมก่อตั้งและซีอีโอของบริษัทปฏิเสธข้อเรียกร้องนี้

ยุคแห่งการพัฒนาตนเองของ AI มาแล้ว! Anthropic ยอมรับว่าสังเกตเห็นสัญญาณเริ่มต้นของการปรับปรุงตนเองแบบเรียกซ้ำ การวิจัย AI แบบอัตโนมัติสมบูรณ์อาจเกิดขึ้นได้ภายในหนึ่งปี

Amodei วาดเส้นแดงที่ชัดเจนสองเส้น: หนึ่ง ไม่อนุญาตให้ใช้ Claude สำหรับระบบอาวุธอัตโนมัติเต็มรูปแบบ สอง ไม่อนุญาตให้ใช้สำหรับการเฝ้าระวังพลเมืองสหรัฐฯ จำนวนมาก เพนตากอนเห็นว่าข้อจำกัดเหล่านี้ไม่สามารถยอมรับได้ อดีตรัฐมนตรีกลาโหม Pete Hegseth กล่าวในที่สาธารณะว่า: “เราจะไม่ใช้โมเดล AI ที่ไม่อนุญาตให้ทำสงคราม”

วันที่ 27 กุมภาพันธ์ 2026 รัฐบาลสหรัฐฯ ประกาศจัดให้ Anthropic เป็นความเสี่ยงต่อห่วงโซ่อุปทานความมั่นคงแห่งชาติ ในเวลาเดียวกัน OpenAI ได้ลงนามสัญญาใหม่กับกองทัพอย่างรวดเร็ว ทันใดนั้น Anthropic จากพันธมิตรกลายเป็นผู้ถูกกีดกัน

ความขัดแย้งนี้เผยให้เห็นปัญหาที่เป็นพื้นฐานยิ่งกว่า: ใครจะเป็นผู้กำหนดขอบเขตการใช้เทคโนโลยี AI? รากเหง้าของปัญหานี้คือ AI ได้กลายเป็นอาวุธยุทธศาสตร์รูปแบบใหม่อย่างไม่อาจโต้แย้งได้

บริษัท AI ที่เน้นความปลอดภัย

Anthropic ก่อตั้งขึ้นในปี 2021 ตั้งแต่เริ่มต้นมีสีสันของอุดมคตินิยมและความปลอดภัยเป็นลำดับแรก ในบรรดาผู้ก่อตั้งเจ็ดคน สองพี่น้องที่เป็นแกนหลักคือ Dario Amodei และ Daniela Amodei ต่างมาจาก OpenAI พวกเขาลาออกเพื่อก่อตั้ง Anthropic เนื่องจากความกังวลอย่างลึกซึ้งต่อปัญหาความปลอดภัยของ AI

ยุคแห่งการพัฒนาตนเองของ AI มาแล้ว! Anthropic ยอมรับว่าสังเกตเห็นสัญญาณเริ่มต้นของการปรับปรุงตนเองแบบเรียกซ้ำ การวิจัย AI แบบอัตโนมัติสมบูรณ์อาจเกิดขึ้นได้ภายในหนึ่งปี

ก่อนที่ผลิตภัณฑ์จะออกสู่ตลาด บริษัทได้จัดตั้ง “ทีมผลกระทบทางสังคม” ไปแล้ว และยังจ้างนักปรัชญา Amanda Askell ให้มีส่วนร่วมในการฝึก AI อีกด้วย ปรัชญาของบริษัทคล้ายกับการเลี้ยงดูเด็ก: สอนเด็กอายุหกขวบก่อนว่าอะไรคือความดี เมื่อเด็กอายุสิบห้าขวบและฉลาดอย่างเหลือเชื่อ เด็กก็ยังคงมีคุณค่าที่ถูกต้อง

ความมุ่งมั่นต่อความปลอดภัยนี้ยังสะท้อนให้เห็นในการจ้างงาน บริษัทเคยถามคำถามสุดโต่งกับผู้สมัคร: หากด้วยเหตุผลด้านความปลอดภัย บริษัทตัดสินใจว่าจะไม่เปิดตัวโมเดลเลย คุณยินดีให้หุ้นที่คุณถืออยู่กลายเป็นสิ่งไร้ค่าหรือไม่?

Dario Amodei ยังได้ออกคำเตือนต่อสังคมหลายครั้ง: ภายใน 1 ถึง 5 ปีข้างหน้า AI อาจแทนที่งานคอปกขาวระดับต้นเกือบครึ่งหนึ่ง และอาจนำไปสู่การปรากฏตัวของชนชั้นรายได้ต่ำใหม่ ภายใน Anthropic ก็ตระหนักถึงความขัดแย้งนี้อย่างชัดเจน: พวกเขากำลังศึกษาความเสี่ยงทางสังคมที่ AI นำมา ในขณะเดียวกันก็กำลังขับเคลื่อนการเปลี่ยนแปลงเหล่านี้ให้เกิดขึ้น “บางครั้งรู้สึกว่า เรากำลังขัดแย้งกับตัวเอง”

ยุคแห่งการพัฒนาตนเองของ AI มาแล้ว! Anthropic ยอมรับว่าสังเกตเห็นสัญญาณเริ่มต้นของการปรับปรุงตนเองแบบเรียกซ้ำ การวิจัย AI แบบอัตโนมัติสมบูรณ์อาจเกิดขึ้นได้ภายในหนึ่งปี ยุคแห่งการพัฒนาตนเองของ AI มาแล้ว! Anthropic ยอมรับว่าสังเกตเห็นสัญญาณเริ่มต้นของการปรับปรุงตนเองแบบเรียกซ้ำ การวิจัย AI แบบอัตโนมัติสมบูรณ์อาจเกิดขึ้นได้ภายในหนึ่งปี

(ภาพประกอบ: รายงานตลาดแรงงานที่ Anthropic เผยแพร่ ซึ่งมีแผนภูมิจำลองผลกระทบของระบบอัตโนมัติจาก AI ต่อการจ้างงาน)

เราอยู่บนขอบเหวแล้ว และไม่มีทางหวนกลับ!

Dave Orr หัวหน้าฝ่ายความปลอดภัยของ Anthropic อธิบายสถานการณ์การพัฒนา AI ในปัจจุบันว่า: “เราเหมือนกำลังขับรถบนถนนเลียบภูเขาที่ขอบเหว ทำผิดพลาดหนึ่งครั้งก็ตาย และตอนนี้ ความเร็วรถได้เพิ่มขึ้นจาก 25 ไมล์ต่อชั่วโมงเป็น 75 ไมล์ต่อชั่วโมงแล้ว”

สองสามปีข้างหน้าถูกมองเป็นช่วงเวลาหน้าต่างที่ชี้ขาด หัวหน้าทีมแดง Logan Graham ชี้ให้เห็นว่า: “เราต้องสมมติว่าปี 2026 ถึง 2030 เป็นเวลาที่ทุกสิ่งสำคัญจะเกิดขึ้น”

ยุคแห่งการพัฒนาตนเองของ AI มาแล้ว! Anthropic ยอมรับว่าสังเกตเห็นสัญญาณเริ่มต้นของการปรับปรุงตนเองแบบเรียกซ้ำ การวิจัย AI แบบอัตโนมัติสมบูรณ์อาจเกิดขึ้นได้ภายในหนึ่งปี

ในช่วงเวลานี้ โมเดล AI อาจจะเร็วขึ้น แข็งแกร่งขึ้น แต่ก็มีความเสี่ยงที่จะเกินการควบคุมของมนุษย์ ปัจจุบัน เราไม่มีทางหวนกลับแล้ว

Anthropic ตระหนักดีว่า AI อาจปรับโครงสร้างภูมิทัศน์อำนาจระดับโลก แต่บนเส้นทางนี้ไม่มี “ผู้ขับ


⚠️ หมายเหตุ: เนื้อหาได้รับการแปลโดย AI และตรวจสอบโดยมนุษย์ หากมีข้อผิดพลาดโปรดแจ้ง

本文来自网络搜集,不代表คลื่นสร้างอนาคต立场,如有侵权,联系删除。转载请注明出处:http://www.itsolotime.com/th/archives/26400

Like (0)
Previous 4 hours ago
Next 3 days ago

相关推荐