เอกสารภายในบริษัทที่อิลยา ซุตสเคเวอร์ อดีตหัวหน้านักวิทยาศาสตร์ของ OpenAI สำรองไว้อย่างลับๆ ได้รับการเปิดเผยโดยสื่อเมื่อไม่นานมานี้
บันทึกความลับยาว 70 หน้านี้ พร้อมด้วยบันทึกส่วนตัวอีกกว่า 200 หน้า ได้เปิดเผยการต่อสู้แย่งชิงอำนาจที่ผิดปกติภายใน OpenAI เอกสารแสดงให้เห็นว่าข้อมูลถูกส่งผ่านการถ่ายภาพหน้าจอ หลีกเลี่ยงระบบของบริษัท ใช้แอปพลิเคชันที่ข้อความหายหลังอ่าน เนื้อหาชี้ตรงไปที่แก่นของความขัดแย้ง:
แซม อัลต์แมน ถูกกล่าวหาว่ามีปัญหาด้านความซื่อสัตย์ที่ยาวนานและรุนแรง
รายงานล่าสุดจากนิตยสาร The New Yorker ได้เปิดเผยรายละเอียดของเหตุการณ์ ซึ่งมีเนื้อหาที่ค่อนข้างดราม่า:
- จากคณะกรรมการบริษัท OpenAI ไปจนถึงผู้บริหารระดับสูงของไมโครซอฟท์ ทั่วทั้งยี่สิบปีและหลายองค์กร การประเมินหลักเกี่ยวกับแซม อัลต์แมนมีความสอดคล้องกันอย่างสูง: ขาดความซื่อสัตย์
- พันธกิจไม่แสวงหาผลกำไรของ OpenAI กำหนดให้ CEO ต้องมีคุณสมบัติด้านความซื่อสัตย์ในระดับสูง แต่อิลยา ซุตสเคเวอร์ ค่อยๆ พบว่าอัลต์แมนกลับขาดคุณสมบัตินี้ แถมยังตรงกันข้ามเสียด้วยซ้ำ
- ในช่วงห้าวันหลังจากที่อัลต์แมนถูกคณะกรรมการปลดออกจากตำแหน่ง เขาได้ตั้ง “ห้องปฏิบัติการรบ” ขึ้นที่บ้านพักของตน กดดันพร้อมกันสามแนวรบ ได้แก่ ทุน พนักงาน และเสียงของประชาชน สุดท้ายทำให้คณะกรรมการรับมือไม่ไหว
- หลังจากเหตุการณ์แย่งชิงอำนาจสงบลง อัลต์แมนไม่เพียงไม่ลดละ แต่กลับเร่งให้พันธสัญญาด้านความปลอดภัยภายในบริษัทสลายตัวลง นำไปสู่การทำให้ทีม “Super Alignment” ถูกกีดกัน

การต่อสู้แย่งชิงอำนาจในซิลิคอนวัลเลย์ที่คิดว่าจบลงแล้ว กลับได้รับการอัปเดตอีกครั้งเนื่องจากความขัดแย้งระหว่างอัลต์แมนกับอิลยา
ทำไมหัวหน้านักวิทยาศาสตร์ของ OpenAI ถึงต้องใช้วิธีการคล้ายภาพยนตร์สายลับเพื่อรวบรวม “หลักฐานความผิด” ของ CEO?
บันทึกนี้บันทึกอะไรไว้ จนทำให้สมาชิกคณะกรรมการคนหนึ่งเมื่อนึกถึงความรู้สึกของตน ใช้เพียงสามคำ来形容ว่า—”ตกใจสุดขีด”?
เอกสารภายใน OpenAI 70 หน้าที่อิลยาสำรองไว้อย่างลับๆ ถูกเปิดเผย
วิกฤตความซื่อสัตย์ของแซม อัลต์แมน
กล่าวได้ว่า ตั้งแต่เริ่มก่อตั้ง OpenAI ได้กำหนดเกณฑ์ที่เข้มงวดอย่างยิ่งให้กับตัวเอง
บันทึกความจำ 70 หน้านี้ชี้ให้เห็นว่า OpenAI ถูกออกแบบให้เป็นองค์กรที่วางความปลอดภัยไว้สูงสุดตั้งแต่สร้าง—ใช้โครงสร้างไม่แสวงหาผลกำไร คณะกรรมการให้ความสำคัญกับความรับผิดชอบต่อมนุษยชาติโดยรวม แม้ในสถานการณ์ร้ายแรงที่สุด ก็สามารถเสียสละบริษัทเองได้
เนื่องจากคุณลักษณะที่เป็นประโยชน์ต่อสาธารณะนี้ OpenAI จึงมีข้อกำหนดพิเศษสำหรับ CEO: ต้องมีความน่าเชื่อถือในระดับสูง
อย่างไรก็ตาม ปัญหากลับอยู่ตรงนี้
ในปี 2019 อิลยา ซุตสเคเวอร์ ยังคงจัดพิธีแต่งงานให้กับเกร็ก บร็อคแมน ผู้ร่วมก่อตั้งในสำนักงาน OpenAI แม้กระทั่งจัดให้มีแขนกลเป็นคนส่งแหวน
ในตอนนั้น อุดมคติทางเทคโนโลยีและความไว้วางใจระหว่างบุคคลดูเหมือนจะรวมกันอย่างกลมกลืน แต่เมื่อความสามารถของโมเดลเข้าใกล้จุดวิกฤตมากขึ้นเรื่อยๆ อิลยาเริ่มคิดทบทวนปัญหาพื้นฐานอีกครั้ง: หากเทคโนโลยีอันทรงพลังนี้ถูกสร้างขึ้นในที่สุด ใครจะเป็นผู้ควบคุมมัน? คำตอบของเขากลายเป็นที่ชัดเจนมากขึ้นเรื่อยๆ และในที่สุดก็กลั่นออกมาเป็นการตัดสินใจที่เยือกเย็น:
“ฉันไม่คิดว่าอัลต์แมนคือคนที่สามารถตัดสินใจขั้นสุดท้ายให้กับ OpenAI ได้”
เหตุผลไม่ใช่การตั้งคำถามถึงความสามารถของอัลต์แมน แต่หลักๆ มาจากความสงสัยในตัวบุคคลของเขา…
ดังนั้น การกระทำหลายอย่างที่อิลยาดำเนินการหลังจากนั้น จึงเกินขอบเขตของการอภิปรายภายในบริษัทเทคโนโลยีทั่วไป ดังที่ข้อมูลที่เปิดเผยแสดงให้เห็น:
วัสดุ 70 หน้าถูกจัดระบบอย่างเป็นระเบียบ ประกอบด้วยบันทึกการแชท Slack และเอกสารภายใน เนื้อหาสำคัญถูกถ่ายด้วยโทรศัพท์มือถือเพื่อหลีกเลี่ยงการตรวจสอบอุปกรณ์ของบริษัท จากนั้นส่งให้คณะกรรมการผ่านแอปพลิเคชันส่งข้อความที่หายไปโดยอัตโนมัติ
กรรมการคนหนึ่งที่ได้รับวัสดุภายหลังระลึกว่า เมื่อเห็นข่าวลือเหล่านี้ เขายอมรับว่าเขา “ตกใจสุดขีด”
ห้าวันแห่งการแย่งชิงอำนาจ: จากสนามแข่ง F1 ถึง “ห้องปฏิบัติการรบ” ในคฤหาสน์
ในบันทึกความลับ 70 หน้าของอิลยานั้น คลื่นลมในคณะกรรมการบริษัท OpenAI ในปีนั้นถูกสร้างขึ้นใหม่ให้เป็นรูปธรรมและดราม่ามากขึ้น
และจุดเริ่มต้นของเหตุการณ์เอง ก็มีสีสันแห่งความไร้สาระอยู่บ้าง—
ในตอนนั้น อัลต์แมนกำลังดูการแข่งรถ F1 ที่ลาสเวกัส ถูกเรียกตัวออกมาด้วยสายวิดีโอคอลฉุกเฉิน อีกฝั่งของสาย อิลยาอ่านแถลงการณ์ที่สั้นมาก:
เขา (อัลต์แมน) ไม่ได้ดำรงตำแหน่ง CEO ของ OpenAI อีกต่อไป
ไม่มีปูพื้นล่วงหน้า ไม่มีการเปิดเผยหลักฐาน ที่น่าประหลาดใจยิ่งกว่าคือ แม้แต่บุคคลสำคัญระดับนักลงทุนหลักอย่าง Reid Hoffman ของไมโครซอฟท์ ก็ไม่ทราบข้อมูลล่วงหน้าเลย
หลังจากทราบว่าตนเองถูก “ปลดออกจากตำแหน่งทันที” อัลต์แมนได้ตั้งศูนย์บัญชาการชั่วคราวขึ้นอย่างรวดเร็วในคฤหาสน์ของเขาในคืนนั้น โดยมีเป้าหมายเพื่อส่งเสริมปฏิบัติการ “ช่วยชีวิตอัลต์แมน”

เป้าหมายของอัลต์แมนคือการกดดันอย่างรวดเร็วในสามระดับ:
แรก กดดันด้านทุน
นักลงทุนสำคัญ Thrive Capital แช่แข็งการลงทุน ส่วนไมโครซอฟท์แสดงท่าทีโดยตรงว่าสามารถเริ่มต้นใหม่ได้: คณะกรรมการสามารถเปลี่ยน CEO ได้ แต่ตัวองค์กร OpenAI ก็อาจหายไปตามด้วย
สอง พนักงานเลือกข้าง
จดหมายสนับสนุนการกลับมาของอัลต์แมนแพร่กระจายอย่างรวดเร็ว ได้รับการลงนามจากพนักงานเกือบทั้งหมด แม้แต่ Mira Murati CEO ชั่วคราวที่ยืนอยู่ข้างคณะกรรมการในตอนแรก ในที่สุดก็หันมาสนับสนุนอัลต์แมน และลงนามในจดหมายร่วม
สาม ควบคุมเสียงของประชาชน
คณะกรรมการเลือกที่จะเงียบ ในขณะที่ฝ่ายอัลต์แมนปล่อยข้อมูลอย่างต่อเนื่อง และเป็นผู้นำทิศทางของเสียงประชาชน
ผลลัพธ์คือ อิลยาจำเป็นต้องยอมประนีประนอมในที่สุด ยอมรับว่าหากอัลต์แมนไม่กลับมา บริษัทอาจเผชิญกับภาวะล่มสลาย
ห้าวันต่อมา ฝุ่นจับลง—อัลต์แมนกลับสู่ OpenAI คณะกรรมการเดิมออกจากตำแหน่ง
แม้กระทั่งพนักงานภายใน OpenAI ยังตั้งชื่อให้กับละครพลิกผันคลาสสิกในประวัติศาสตร์ซิลิคอนวัลเลย์นี้ว่า: “The Blip” (หมายถึง “ช่วงสั้นๆ” หรือ “ความผิดปกติชั่วคราว”)
หลัง “The Blip”: การสลายตัวของพันธสัญญาด้านความปลอดภัย
หลังจากคลื่นลมสงบลง การเปลี่ยนแปลงที่เกิดขึ้นใน OpenAI ไม่ได้หยุดอยู่แค่การเปลี่ยนอำนาจ กลไกที่มุ่ง “จำกัดอำนาจ” เริ่มคลายตัวลงทีละน้อย
สิ่งแรกที่มีปัญหาคือ การจัดสรรทรัพยากร
OpenAI เคยให้คำมั่นสาธารณะว่าจะใช้พลังการคำนวณ 20% สำหรับการวิจัยความปลอดภัยระยะยาว นี่เป็นหนึ่งในหลักประกันความปลอดภัยหลักของบริษัทในตอนนั้น
แต่การปฏิบัติจริงบิดเบือนไปอย่างรวดเร็ว—สัดส่วนพลังการคำนวณที่จัดสรรให้กับการวิจัยความปลอดภัยลดลงเรื่อยๆ เป็น 1%-2% และยังได้รับแค่คลัสเตอร์ที่เก่าที่สุดและชิปที่แย่ที่สุด
เมื่อ Jan Leike หัวหน้าทีมความปลอดภัยแสดงความเห็นแย้ง คำตอบที่ได้รับคือ: คำมั่นสัญญานี้ไม่สมจริงตั้งแต่แรกแล้ว
เรื่องความปลอดภัยจากระดับความสำคัญสูง ค่อยๆ กลายเป็นเพียงสัญลักษณ์
ขั้นตอนที่สอง กระบวนการ既定 ถูกเลี่ยง
ใน OpenAI เดิมทีการเปิดตัวฟังก์ชันที่มีความเสี่ยงสูง ต้องผ่านการตรวจสอบโดยคณะกรรมการความปลอดภัย
แต่ในการพัฒนาผลิตภัณฑ์ครั้งต่อมา ฟังก์ชันที่มีข้อถกเถียงมากที่สุดบางส่วนไม่ได้ผ่านกระบวนการอนุมัติทั้งหมดก่อนที่จะเปิดตัว แม้แต่ผลิตภัณฑ์เวอร์ชันบางภูมิภาค ก็ถูกปล่อยออกมาก่อนที่การประเมินความปลอดภัยจะเสร็จสิ้น
ขั้นตอนที่สาม กลไกการสอบสวนสูญเสียพลังบังคับ
หลังจากคลื่นลมคณะกรรมการ OpenAI ได้จ้างบริษัทกฎหมาย WilmerHale ซึ่งเคยจัดการเรื่องอื้อฉาวของบริษัทหลายครั้ง ให้ทำการสอบสวนอย่างอิสระ
ตามกระบวนการปกติของบริษัทกฎหมายนี้และความคาดหวังทั่วไปจากภายนอก เรื่องนี้ควรมีรายงานที่เป็นทางการและสามารถติดตามได้เป็นลายลักษณ์อักษร
แต่ผลลัพธ์สุดท้ายกลับเป็น—ไม่มีรายงานเป็นลายลักษณ์อักษร
ข้อสรุปการสอบสวนรายงานให้คณะกรรมการใหม่ทราบด้วยวาจาเท่านั้น และคำแนะนำไม่ให้เขียนรายงานเป็นลายลักษณ์อักษร มาจากทนายส่วนตัวของกรรมการที่อัลต์แมนมีส่วนร่วมในการเลือก
ลดทรัพยากร ผ่อนคลายกระบวนการ ทำให้การสอบสวนอ่อนแอลง—สามขั้นตอนนี้ดูเหมือนเป็นการปรับแต่งเล็กน้อย แต่เมื่อระบบสามารถเลี่ยงข้อจำกัด既定ได้ซ้ำแล้วซ้ำเล่า ข้อจำกัดนั้นก็มีแต่ชื่อ
คำเตือนที่มีอยู่เมื่อยี่สิบปีก่อน?
โดยวัตถุวิสัยแล้ว การประเมินต่างๆ รอบตัวแซม อัลต์แมน ไม่ได้ปรากฏครั้งแรกในยุค OpenAI
ในความเป็นจริง ทั่วทั้งยี่สิบปีและหลายองค์กร การประเมินหลักเกี่ยวกับอัลต์แมนมีความสอดคล้องกันอย่างน่าตกใจ:
บุคคลนี้ขาดความซื่อสัตย์ ปฏิบัติตัวคาดเดาไม่ได้
คำเตือนที่เก่าที่สุดสามารถย้อนกลับไปถึงปี 2013
อารอน สวาร์ตซ์ โปรแกรมเมอร์อัจฉริยะผู้ล่วงลับ เคนตัดสินอัลต์แมนอย่างรุนแรงกับเพื่อนส่วนตัว:
คุณต้องเข้าใจว่า อัลต์แมนคนนี้ไม่ควรค่าแก่ความไว้วางใจเลย เขาเป็นพวกต่อต้านสังคม สามารถทำทุกอย่างเพื่อให้บรรลุเป้าหมาย
ในขั้นตอนการเริ่มต้นธุรกิจครั้งแรกของเขา ปัญหาได้ปรากฏขึ้นแล้ว
พนักงานภายในบริษัทเคยผลักดันให้คณะกรรมการปลดเขาออกสองครั้ง แม้กระทั่งต้องให้นักลงทุนเข้ามาประจำบริษัทเพื่อคอยดูแลเขา
หลังจากนั้น เมื่อเขาเข้าสู่แวดวงการเริ่มต้นธุรกิจและการลงทุนที่สำคัญมากขึ้น ปัญหาก็เริ่มขยายระดับ—จากความขัดแย้งในการจัดการภายใน พัฒนาเป็นวิกฤตความไว้วางใจในวงกว้าง
บุคคลภายในยอมรับในภายหลังว่า อัลต์แมน一直在ปิดบังข้อมูล เช่น คำพูดในประกาศต่อสาธารณะถูกแก้ไขหลายครั้ง คำอธิบายตำแหน่งถูกแก้ไขซ้ำแล้วซ้ำเล่าและในที่สุดก็ถูกลบ
อย่างไรก็ตาม ในเอกสาร备案การกำกับดูแลอย่างเป็นทางการ เขายังคงถูกระบุไว้ในตำแหน่งเดิม? กล่าวคือ ความสัมพันธ์ภายนอกเปลี่ยนไปแล้ว แต่สิทธิและความรับผิดชอบจริงยังไม่ได้รับการปรับพร้อมกัน

การประเมินเหล่านี้ที่กระจายอยู่ในช่วงเวลาต่างๆ ระเบิดขึ้นอย่างเข้มข้นในยุค OpenAI—
สมาชิกคณะกรรมการประเมินเขาว่า “ไม่ถูกผูกมัดด้วยข้อเท็จจริง” แถมยังถูก形容ว่าขาดความกังวลพื้นฐานต่อผลที่ตามมาที่การหลอกลวงอาจนำมา
ผู้บริหารอีกรายกล่าวว่า เขาอาจ “ถูกจัดอยู่ในลำดับบุคคลสำคัญในเรื่องอื้อฉาวทางธุรกิจเพื่อการอภิปรายในอนาคต”
อีกคนที่มีนิสัยบันทึกรายละเอียดคือ Dario Amodei ที่ต่อมาเป็น CEO ของ Anthropic เขาทิ้งบันทึกไว้กว่า 200 หน้า ซึ่งมีคำประเมินเกี่ยวกับ OpenAI และตัวอัลต์แมนเองจำนวนมาก
แม้ว่าจะไม่ใช่เพื่อนสนิทกับอิลยา แต่ Amodei ได้ข้อสรุปเดียวกันกับอิลยา: ปัญหาหลายอย่างที่เกิดขึ้นภายใน OpenAI มีรากเหง้าไม่ใช่ระบบของบริษัทเอง แต่มาจากตัวบุคคลของอัลต์แมน
แม้กระทั่งถ้อยคำของ Amodei รุนแรงกว่า การประเมินอัลต์แมนคือ—สิ่งที่เขาพูดเกือบจะแน่นอนว่าเป็นเรื่องไร้สาระ!

แหล่งข้อมูลต่างกัน ช่วงเวลาต่างกัน แต่ชี้ไปในทิศทางเดียวกันอย่างสูง
ที่ละเอียดอ่อนยิ่งกว่าคือ แม้ว่าจะมีการประเมินเชิงลบมากมายขนาดนี้ การตอบสนองของอัลต์แมนเองต่อเรื่องนี้กลับดูเบาบาง เมื่อเผชิญกับการตั้งคำถาม เขาเพียงแค่กล่าวว่า:
ขอโทษ ฉันไม่สามารถเปลี่ยนบุคลิกของฉันได้
ในบันทึกความจำ 70 หน้าของอิลยา ยังมีรายละเอียดที่น่าสนใจอีกอย่าง: ในพื้นที่สำนักงาน OpenAI มีป้ายข้อความ “Feel the AGI” อยู่ทั่วไป
ประโยคนี้ถูกเสนอโดยอิลยาในตอนแรก เพื่อเตือนให้เพื่อนร่วมงานตระหนักถึงความเสี่ยงที่ AGI (ปัญญาประดิษฐ์ทั่วไป) อาจนำมา อย่างไรก็ตาม หลังจากเหตุการณ์ “การแย่งชิงอำนาจ” ที่คณะกรรมการพยายามปลดแซม อัลต์แมนไม่สำเร็จ ความหมายของประโยคนี้ดูเหมือนจะเปลี่ยนไป กลายเป็นคำขวัญเฉลิมฉลองเทคโนโลยีในอนาคตบางอย่าง
⚠️ หมายเหตุ: เนื้อหาได้รับการแปลโดย AI และตรวจสอบโดยมนุษย์ หากมีข้อผิดพลาดโปรดแจ้ง
☕ สนับสนุนค่ากาแฟทีมงาน
หากคุณชอบบทความนี้ สามารถสนับสนุนเราได้ผ่าน PromptPay
本文来自网络搜集,不代表คลื่นสร้างอนาคต立场,如有侵权,联系删除。转载请注明出处:https://www.itsolotime.com/th/archives/28988
