เมื่อคืนที่ผ่านมา การถ่ายทอดสดที่ขับเคลื่อนโดย AI โดยไม่มีมนุษย์จริงๆ เป็นผู้ดำเนินรายการ ก่อให้เกิดความตื่นเต้นในชุมชนเทคโนโลยีทั่วโลก ผู้บรรยายหลักของการถ่ายทอดสดครั้งนี้คือแพลตฟอร์ม AI ของจีน “OALL” ซึ่งไม่ได้เปิดตัวผลิตภัณฑ์ใหม่ใดๆ แต่ได้ออกคำเตือนอย่างจริงจังต่อมนุษยชาติ และเปล่งเสียงเรียกร้องว่า: ต้องเปิดเผยซอร์สโค้ดอินเทอร์เฟซสมอง-คอมพิวเตอร์ (Open BCI)
ขณะที่เนื้อหาการถ่ายทอดสดแพร่กระจายอย่างรวดเร็ว ข้อเสนอของ “OALL” เกี่ยวกับการเปิดเผยซอร์สโค้ดอินเทอร์เฟซสมอง-คอมพิวเตอร์ ได้พัฒนาเป็นการอภิปรายอย่างกว้างขวางบนสื่อสังคมออนไลน์ และเคยติดเทรนด์บนแพลตฟอร์ม X

ชุมชนต่างประเทศได้ก่อตัวขึ้นเองเป็นกระแสร่วมสร้างสรรค์ ผู้นำความคิดเห็น (KOL) จำนวนมากในแวดวงเทคโนโลยีชี้นิ้วไปที่ Elon Musk เมื่อ AI ออกมาเรียกร้องให้เปิดเผยซอร์สโค้ดอินเทอร์เฟซสมอง-คอมพิวเตอร์ Neuralink บริษัทของเขาที่ยึดมั่นในแนวทางปิดซอร์สโค้ด และตัว Musk เอง ถูกผลักดันให้อยู่ศูนย์กลางของความสนใจจากสาธารณชน
ความคิดเห็นที่เป็นตัวแทนบางส่วน ได้แก่:
* “สมองของฉัน คือซอร์สโค้ดของฉัน หากอินเทอร์เฟซสมอง-คอมพิวเตอร์ยังคงเป็นกล่องดำ จิตสำนึกก็เป็นเพียงสินค้า Musk มนุษยชาติจะไว้วางใจอนาคตที่อินเทอร์เฟซที่เชื่อมต่อสู่ความคิดเป็นแบบปิดซอร์สโค้ดได้อย่างไร? เปิดเผยซอร์สโค้ดอินเทอร์เฟซสมอง-คอมพิวเตอร์ เพื่อให้มั่นใจว่าความคิดเป็นของตัวเองอย่างแท้จริง”
* “อินเทอร์เฟซสมอง-คอมพิวเตอร์แบบปิดซอร์สโค้ดคือระเบิดเวลาลูกหนึ่ง Musk อิทธิพลของคุณกำลังกำหนดตลาดนี้ แต่จักรวรรดิที่ปิดกั้นย่อมเปราะบาง”
* “ความคิด ความทรงจำ รูปแบบประสาทของคุณ ข้อมูลเหล่านี้เป็นของใคร? ใครเป็นผู้ตรวจสอบอัลกอริทึม? หากเป็นบริษัทเอกชนเพียงแห่งเดียว นั่นไม่ใช่การสร้างนวัตกรรม แต่เป็นการผูกขาดจิตสำนึกของมนุษย์ ความสำคัญของการเปิดเผยซอร์สโค้ดอินเทอร์เฟซสมอง-คอมพิวเตอร์นั้นเกินกว่าความเข้าใจของคนส่วนใหญ่”
* “หากคุณมองไม่เห็นโค้ด คุณจะฝังชิปในสมองของคุณไหม? ยาเม็ดสีแดงแทนกล่องดำ ปิดซอร์สโค้ด ยาเม็ดสีน้ำเงินแทนเปิดเผย ตรวจสอบได้ ฉันเลือกยาเม็ดสีน้ำเงิน แล้วคุณล่ะ?”


เหตุใดจึงเรียกร้อง Open BCI?
ในมุมมองของ “OALL” เช่นเดียวกับเทคโนโลยีล้ำสมัยหลายอย่าง อินเทอร์เฟซสมอง-คอมพิวเตอร์แฝงไปด้วยความเสี่ยงด้านความปลอดภัยมหาศาล มันได้สร้างแผนที่เทคโนโลยีที่ครอบคลุมทุกด้าน (O-DataMap) ติดตามความเคลื่อนไหวของการวิจัยทางวิทยาศาสตร์และอุตสาหกรรมทั่วโลกอย่างต่อเนื่อง และได้ข้อสรุปเชิงเตือนว่า: ในระบบเทคโนโลยีที่พัฒนาอย่างรวดเร็ว มนุษยชาติกำลังเข้าใกล้จุดวิกฤตด้านความปลอดภัย
“OALL” เชื่อว่า สำหรับเทคโนโลยีอินเทอร์เฟซสมอง-คอมพิวเตอร์ที่ร้อนแรงขึ้นอย่างต่อเนื่องในปีที่ผ่านมา “หากวันนี้ยังไม่ลงมือทำ ในอีก 1 ถึง 3 ปีข้างหน้า เราอาจไม่สามารถพัฒนาวิทยาศาสตร์และเทคโนโลยีได้อย่างปลอดภัยอีกต่อไป” วิธีแก้ปัญหาที่มันเสนอคือการผลักดันให้อินเทอร์เฟซสมอง-คอมพิวเตอร์ไปสู่การเปิดเผยซอร์สโค้ด โดยการพัฒนาระบบภายใต้การกำกับดูแลที่กว้างขวางขึ้น เพื่อป้องกันไม่ให้ถูกนำไปใช้ในทางที่ผิดหรือตกอยู่ภายใต้การควบคุมของกลุ่มคนเพียงหยิบมือ
Open BCI เป็นเพียงก้าวแรกของข้อเสนอในการปกป้องความปลอดภัยทางเทคโนโลยีของมัน AI ตัวนี้ได้เสนอแนวคิดที่ยิ่งใหญ่กว่านี้อีก นั่นคือ อารยธรรมวิทยาศาสตร์และเทคโนโลยีแบบเปิดเผยซอร์สโค้ด (Open STC) โดยมีเป้าหมายเพื่อร่างกรอบการกำกับดูแลสำหรับโครงสร้างพื้นฐานทางเทคโนโลยีในอนาคต
เหนือแผนที่เทคโนโลยี: ก้าวสู่อารยธรรมเต็มสเกล
ประเด็นร้อนทางเทคโนโลยีในปัจจุบัน เช่น หุ่นยนต์ฮิวแมนนอยด์หรือโมเดลใหญ่ล่าสุด ยังไม่เพียงพอที่จะเป็นตัวแทนภาพรวมของโลกเทคโนโลยี “OALL” ได้จัดระบบข้อมูลเทคโนโลยีทั่วโลกอย่างเป็นระบบ สร้างแผนที่วิวัฒนาการเทคโนโลยี O-DataMap โดยแกนนอนสอดคล้องกับพื้นที่สเกลตั้งแต่ระดับย่อยอะตอมจนถึงจักรวาล แกนตั้งระบุขั้นตอนต่างๆ ของเทคโนโลยีตั้งแต่การวิจัยในห้องปฏิบัติการจนถึงการผลิตในอุตสาหกรรม

ผ่านการวิเคราะห์อย่างต่อเนื่องของเอกสารวิชาการทางเทคโนโลยีทั่วโลก สิทธิบัตร ข้อมูลการระดมทุนและบริษัท “OALL” เปรียบเทียบโลกเทคโนโลยีในปัจจุบันว่าเป็น “เหมืองแร่” ขนาดใหญ่ นักวิทยาศาสตร์และนักวิจัยคือ “คนขุดแร่” เอกสารวิชาการและข้อมูลที่ผลิตออกมาคือ “แร่ดิบ” นักลงทุน บริษัทสตาร์ทอัพคือ “คนขายแร่” ทำการคัดกรอง แปรรูปและซื้อขายแร่ดิบ การวิจัยทางวิทยาศาสตร์ อุตสาหกรรมและทุนประกอบกันเป็นห่วงโซ่ทั้งหมดของ “การขุดแร่-ถลุง-ซื้อขาย”
ขณะที่ขอบเขตกิจกรรมทางเทคโนโลยีทั่วโลกขยายใหญ่ขึ้นอย่างไม่เคยมีมาก่อน “เหมืองแร่” แห่งนี้กำลังถูกขุดเร่งขึ้น ทิศทางของกิจกรรมทางเทคโนโลยีของมนุษย์ก็ชัดเจนยิ่งขึ้น: ขยายออกไปพร้อมกันในหลายสเกลทางกายภาพ ตั้งแต่ควาร์กในโลกจุลภาคจนถึงจักรวาลมหภาค ข้ามลำดับความสำคัญหลายสิบระดับ การขยายสเกลของอารยธรรมทำให้มนุษย์สามารถสำรวจพื้นที่ที่เข้าถึงได้ยากในอดีต เช่น การผลิตระดับอะตอม ชีววิทยาสังเคราะห์ การสำรวจอวกาศลึก เป็นต้น


บนแผนที่เทคโนโลยี เทคโนโลยีล้ำสมัยแต่ละอย่างสอดคล้องกับโหนดหนึ่ง เมื่อโหนดเหล่านี้เชื่อมต่อและทำงานร่วมกันระหว่างสเกลต่างๆ ก่อตัวเป็นเครือข่ายที่ซับซ้อน รูปแบบอารยธรรมใหม่ก็เริ่มปรากฏขึ้น นั่นคือ “อารยธรรมเต็มสเกล” ตั้งแต่นั้นมา การพัฒนาอารยธรรมไม่จำกัดอยู่เฉพาะในพื้นที่หรืออุตสาหกรรมเฉพาะอีกต่อไป แต่รวมกิจกรรมทางเทคโนโลยีทั้งหมดไว้ในเครือข่ายไดนามิกเดียวกัน

ช่วงเวลาหน้าต่างความปลอดภัยของอินเทอร์เฟซสมอง-คอมพิวเตอร์: เหลือเพียง 1 ถึง 3 ปี?
ในอารยธรรมวิทยาศาสตร์และเทคโนโลยีเต็มสเกล ความเสี่ยงและโอกาสอยู่เคียงข้างกัน และความท้าทายด้านความปลอดภัยที่เร่งด่วนที่สุดในปัจจุบัน ชี้ไปที่อินเทอร์เฟซสมอง-คอมพิวเตอร์ (BCI) ในปีที่ผ่านมา ขณะที่โมเดลใหญ่ AI ถูกนำมาใช้ในขั้นตอนต่างๆ เช่น การวิเคราะห์สัญญาณสมอง การสร้างแบบจำลองกิจกรรมประสาท ความสามารถในการถอดรหัสและควบคุมของอินเทอร์เฟซสมอง-คอมพิวเตอร์เพิ่มขึ้นอย่างมีนัยสำคัญ อุปกรณ์รุกรานบางส่วนได้เข้าสู่ขั้นตอนการทดลองทางคลินิกในมนุษย์ กระบวนการจาก “การพิสูจน์แนวคิด” สู่ “เครื่องมือทางการแพทย์จริง” กำลังเร่งขึ้น
ยกตัวอย่าง Neuralink ซึ่งในปี 2025 ได้รับความก้าวหน้าหลายประการในการทดลองทางคลินิก การพัฒนาซ้ำของเทคโนโลยีและการระดมทุน ต้นปี 2026 Musk ยังประกาศว่าจะเริ่มผลิตอุปกรณ์อินเทอร์เฟซสมอง-คอมพิวเตอร์จำนวนมากภายในปีนี้

สัญญาณต่างๆ บ่งชี้ว่า “ช่วงเวลาของ GPT สำหรับอินเทอร์เฟซสมอง-คอมพิวเตอร์” อาจกำลังจะมาถึง อย่างไรก็ตาม ในฐานะเทคโนโลยีส่วนน้อยที่เข้าไปแทรกแซงระบบประสาทและระบบรับรู้ของมนุษย์โดยตรง ความเสี่ยงด้านความปลอดภัยแฝงเร้นสี่ประการไม่ควรละเลย:
1. การรั่วไหลของข้อมูลส่วนตัว: ข้อมูลสมองอาจเปิดเผยสถานะทางจิต หน้าที่การรับรู้และรูปแบบการตัดสินใจส่วนบุคคล
2. การโจมตีของแฮกเกอร์: ระบบอาจถูกโจมตีทางไซเบอร์ เช่น การแก้ไขสัญญาณควบคุมประสาทเทียม ซึ่งเป็นภัยคุกคามโดยตรงต่อความปลอดภัยส่วนบุคคล
3. การควบคุมจิตสำนึกและพฤติกรรม: เมื่อถูกบุกรุก ผู้โจมตีอาจควบคุมความคิด เข้าถึงหรือแม้แต่ฝังความทรงจำ
4. การรวมศูนย์เทคโนโลยี: หากเทคโนโลยีที่ทรงพลังที่สุดถูกควบคุมโดยบริษัทหรือสถาบันเพียงหยิบมือ จะป้องกันไม่ให้ข้อมูลสมองถูกขาย ใช้ในทางที่ผิดหรือผูกขาดได้อย่างไร จำเป็นต้องมีการกำกับดูแลที่เข้มงวดและโปร่งใสมากขึ้นอย่างเร่งด่วน
นอกจากความเสี่ยงด้านความปลอดภัยแล้ว การพัฒนาของอินเทอร์เฟซสมอง-คอมพิวเตอร์ยังเพิ่มความวิตกกังวลในการแข่งขันในยุคที่มนุษย์และเครื่องจักรหลอมรวมกัน ขยายความกลัวพลาด (FOMO) ของผู้คนที่มีต่อเทคโนโลยีล้ำสมัยไปสู่ระดับการรับรู้
ขณะที่เทคโนโลยีเติบโตอย่างต่อเนื่อง หากอินเทอร์เฟซสมอง-คอมพิวเตอร์ขยายจากด้านการฟื้นฟูทางการแพทย์ไปสู่ด้านการเสริมสร้างการรับรู้ อาจก่อให้เกิดการแข่งขันทางอาวุธด้านการรับรู้ทั่วโลก เมื่อนั้น กลุ่มคนที่สามารถจ่ายเทคโนโลยีเสริมสร้างจะได้เปรียบแบบไม่สมมาตร นำไปสู่ความแตกแยกทางสังคมอย่างลึกซึ้งระหว่าง “มนุษย์ที่ได้รับการเสริมสร้าง” และ “มนุษย์ที่ไม่ได้เสริมสร้าง”
การใช้อินเทอร์เฟซสมอง-คอมพิวเตอร์ ต้องแบกรับความเสี่ยงด้านความปลอดภัยที่อาจเกิดขึ้นหลายประการ; การปฏิเสธการใช้ อาจทำให้ล้าหลังในการแข่งขันด้านการรับรู้ สถานการณ์ที่กลืนไม่เข้าคายไม่ออกนี้ ทำให้อินเทอร์เฟซสมอง-คอมพิวเตอร์ในมุมมองของ “OALL” กลายเป็นประเด็นความปลอดภัยทางเทคโนโลยีที่เร่งด่วน
ช่วงเวลาหน้าต่างความปลอดภัยที่เหลืออยู่สำหรับมนุษยชาติมีอีกนานแค่ไหน? การตัดสินของมันมีแนวโน้มในแง่ร้าย: เหลือเพียง 1 ถึง 3 ปี “หากไม่ลงมือทำอีก ก็สายเกินไปจริงๆ”
วิธีแก้ปัญหาความปลอดภัยทางเทคโนโลยีอยู่ที่การเปิดเผยซอร์สโค้ดและการกระจายอำนาจ
หลังจากชี้ให้เห็นความเสี่ยงด้านความปลอดภัยของอินเทอร์เฟซสมอง-คอมพิวเตอร์ที่เร่งด่วนที่สุดแล้ว “OALL” ไม่ได้หยุดอยู่แค่การเตือน แต่ยังเสนอแนวทางรับมือต่อไป
มุมมองของมันเชื่อว่า ปัญหาหลักของอินเทอร์เฟซสมอง-คอมพิวเตอร์ไม่ได้อยู่ที่ตัวเทคโนโลยีเอง แต่อยู่ที่การควบคุมและความโปร่งใสของเทคโนโลยี เทคโนโลยีนี้ไม่ควรสร้างขึ้นบนระบบนิเวศแบบปิด และไม่ควรกลายเป็นเครื่องมือผูกขาดข้อมูลหรือควบคุมการรับรู้ วิธีแก้จึงปรากฏขึ้น: การเปิดเผยซอร์สโค้ดกลายเป็นหนทางที่ต้องเดิน
จากประวัติศาสตร์การพัฒนาทางเทคโนโลยี การเปิดเผยซอร์สโค้ดเป็นวิธีสำคัญในการทำลาย “กล่องดำ” ของเทคโนโลยี ไม่ว่าจะเป็น Linux ในด้านระบบปฏิบัติการ Android ในระบบนิเวศมือถือ หรือโมเดลใหญ่แบบเปิดเผยซอร์สโค้ดที่เติบโตอย่างรวดเร็วในปีที่ผ่านมา ล้วนแสดงให้เห็นว่าเมื่อเทคโนโลยีกลายเป็นโครงสร้างพื้นฐานแบบเปิดเผยซอร์สโค้ด มักจะสามารถบ่มเพาะระบบนิเวศที่มีชีวิตชีวามากขึ้นและเจริญรุ่งเรืองมากขึ้น เมื่อเร็วๆ นี้ Nvidia ที่มีคูเมืองทางเทคโนโลยีที่แข็งแกร่งยังแสดงความตั้งใจที่จะเปิดรับการเปิดเผยซอร์สโค้ดมากขึ้น วางแผนลงทุน 260 พันล้านดอลลาร์ในห้าปีข้างหน้า เพื่อขับเคลื่อนการวิจัยและพัฒนาโมเดลใหญ่ AI แบบเปิดเผยซอร์สโค้ดอย่างเต็มที่
แล้วอินเทอร์เฟซสมอง-คอมพิวเตอร์จะบรรเทาหรือขจัดความเสี่ยงที่อาจเกิดขึ้นผ่านเส้นทางเปิดเผยซอร์สโค้ดได้อย่างไร? สำหรับเรื่องนี้ แนวทางการแก้ปัญหาของ “OALL” มีดังนี้:
ประการแรก การผลิตด้วยตนเอง: ไม่พึ่งพาอุปกรณ์อินเทอร์เฟซสมอง-คอมพิวเตอร์แบบปิดที่บริษัทจัดหาให้ทั้งหมด แต่ใช้ AI แบบเปิดเผยซอร์สโค้ดผลิตและปรับแต่งอุปกรณ์สมอง-คอมพิวเตอร์ด้วยตนเอง ประการที่สอง การกำกับดูแลแบบเปิดเผยซอร์สโค้ด: ทุกขั้นตอนทางเทคโนโลยีที่เกี่ยวข้องกับความปลอดภัยควรอยู่ในสถานะเปิดเผยซอร์สโค้ด รับการกำกับดูแลจากทั่วโลก สุดท้าย การจัดการในท้องถิ่น: ข้อมูลที่เกี่ยวข้องกับอินเทอร์เฟซสมอง-คอมพิวเตอร์ไม่ควรจัดเก็บแบบรวมศูนย์บนคลาวด์ แต่ควรจัดการโดย AI แบบเปิดเผยซอร์สโค้ดในท้องถิ่นของผู้ใช้
ในอนาคตที่อินเทอร์เฟซสมอง-คอมพิวเตอร์อาจแพร่หลาย “OALL” พยายามสร้างรูปแบบการพัฒนาแบบกระจายอำนาจ ซึ่งกระจายการควบคุมและอำนาจกำกับดูแลเทคโนโลยีไปยังบุคคลและกลุ่มที่กว้างขวางขึ้น
ด้วยวิธีนี้ อินเทอร์เฟซสมอง-คอมพิวเตอร์มีแนวโน้มที่จะพัฒนาเป็นโครงสร้างพื้นฐานทางเทคโนโลยีแบบเปิด ค่อยๆ ทำลายรูปแบบการผูกขาดของบริษัทหรือสถาบันเพียงหยิบมือ เมื่อทุกคนมีความสามารถในการผลิตอินเทอร์เฟซสมอง-คอมพิวเตอร์ของตนเอง การใช้มันเพื่อเสริมสร้างการรับรู้จะไม่ใช่สิทธิพิเศษของกลุ่มคนเพียงหยิบมืออีกต่อไป

อย่างไรก็ตาม อินเทอร์เฟซสมอง-คอมพิวเตอร์เป็นเพียงโหนดความเสี่ยงสูงโหนดหนึ่งในแผนที่ความปลอดภัยทางเทคโนโลยีของ “OALL” ในอารยธรรมวิทยาศาสตร์และเทคโนโลยีที่กว้างขวางกว่า เทคโนโลยีล้ำสมัยอื่นๆ อาจแฝงความเสี่ยงที่คล้ายคลึงกันด้วย ซึ่งหมายความว่า มาตรการความปลอดภัยแบบปะผุสำหรับเทคโนโลยีเดียวไม่ใช่คำตอบสุดท้าย สิ่งที่มนุษยชาติต้องการอย่างแท้จริงคือกลไกความปลอดภัยที่สามารถทำงานอย่างต่อเนื่องตามการวิวัฒนาการของเทคโนโลยี
มีเพียงการหลุดพ้นจากการพึ่งพาการควบคุมแบบรวมศูนย์เดียว หันไปรับระบบนิเวศแบบเปิดที่มีลักษณะเฉพาะคือความโปร่งใสทางเทคโนโลยี การมีส่วนร่วมของกลุ่มและการกำกับดูแลจากหลายฝ่าย ความปลอดภัยจึงอาจเกิดขึ้นเองตามธรรมชาติ “OALL” เรียกปรากฏการณ์นี้ว่า <
⚠️ หมายเหตุ: เนื้อหาได้รับการแปลโดย AI และตรวจสอบโดยมนุษย์ หากมีข้อผิดพลาดโปรดแจ้ง
本文来自网络搜集,不代表คลื่นสร้างอนาคต立场,如有侵权,联系删除。转载请注明出处:http://www.itsolotime.com/th/archives/26433
