“AI ฆ่าผู้มีส่วนร่วมรายบุคคล นักพัฒนาซอฟต์แวร์กำลังกลายเป็นผู้จัดการ!” Philip Su ผู้ก่อตั้ง Superphonic อดีตหัวหน้าเว็บไซต์และวิศวกรของ OpenAI อดีตผู้นำระดับสูงของ Microsoft และ Meta ได้เผยแพร่บทความล่าสุดชื่อ “AI กำลังฆ่าผู้มีส่วนร่วมรายบุคคล” ซึ่งอธิบายถึงการเปลี่ยนแปลงพื้นฐานที่ AI นำมาสู่ประสบการณ์การเขียนโปรแกรม

ในบทความ Philip Su ชี้ให้เห็นว่า เนื่องจากการปรากฏตัวของ AI ตำแหน่งงานพื้นฐานของการพัฒนาซอฟต์แวร์อย่าง “ผู้มีส่วนร่วมรายบุคคล” กำลังหายไปอย่างถาวร ไม่ว่าความสามารถในการเขียนโปรแกรมของแต่ละคนจะเป็นอย่างไร — แม้กระทั่งเมื่อความสามารถของคุณดีกว่า AI — ก็ไม่สามารถเปลี่ยนแปลงแนวโน้มนี้ได้ ในทางตรงกันข้าม บทบาทของนักพัฒนาซอฟต์แวร์จะยิ่งโน้มเอียงไปทาง “ผู้จัดการ” มากขึ้น: การจัดลำดับความสำคัญระหว่างเอเจนต์ AI ต่างๆ การตัดสินใจความดีความเลวของแผนการออกแบบพื้นฐาน การวางแผนงานในอนาคต โดยพื้นฐานแล้วคือการ “มอบหมาย” งานปฏิบัติเกือบทั้งหมด
ในพอดแคสต์สัมภาษณ์ล่าสุด Philip Su ได้อธิบายเพิ่มเติมเกี่ยวกับมุมมองนี้ เขาแบ่งปันประสบการณ์ของเขาที่ Meta: เขาเคยได้รับการเลื่อนตำแหน่งไปถึงระดับ E9 จากนั้นก็ลดระดับลงเองเป็น E7 เพียงเพื่อกลับไปเป็นผู้มีส่วนร่วมรายบุคคล (IC) และเขียนโค้ดด้วยตัวเองอีกครั้ง อย่างไรก็ตาม ด้วยความสามารถในการเขียนโปรแกรมของ AI ที่เพิ่มขึ้นอย่างรวดเร็ว เขาคิดว่าบทบาทของ IC ในความหมายดั้งเดิมอาจสิ้นสุดลงแล้ว — รูปแบบการทำงานที่มุ่งมั่นแก้ไขปัญหาทางเทคนิคเพียงลำพังในออฟฟิศ อภิปรายการแลกเปลี่ยนทางเทคนิคกับเพื่อนร่วมงานไม่กี่คน

นอกจากนี้ Philip Su ยังได้เสนอความคิดเห็นใหม่ๆ อีกด้วย ตัวอย่างเช่น ในอนาคต “การมีมนุษย์เข้ามาเกี่ยวข้อง” อาจกลายเป็นสัญญาณของการลดลงของคุณภาพโค้ด บริษัทอาจพยายามซ่อนความจริงที่ว่า “โค้ดถูกแก้ไขโดยมนุษย์” เพราะอาจถูกมองว่าเป็นความเสี่ยงด้านคุณภาพ เขาคิดว่าปัจจัยสำคัญที่กำหนดว่า AI จะสามารถแทนที่งานประจำวันของมนุษย์ได้เมื่อใด อยู่ที่ปัญหาความรับผิดชอบ หากผู้ช่วย AI ของคุณ (เช่น Claude Bot) ทำผิดพลาด ความรับผิดชอบสุดท้ายจะตกอยู่กับคุณ นี่คือความรับผิดชอบและระบบกำกับดูแลที่ทำให้งานบางส่วนยังคงปลอดภัยในปัจจุบัน
เกี่ยวกับความสัมพันธ์ระหว่าง AI กับงานของมนุษย์ มุมมองหลักในปัจจุบันแบ่งออกเป็นสองฝ่าย: ฝ่ายเสริมกำลังเชื่อว่า AI จะช่วยเหลือมากกว่าแทนที่คนทำงานรุ่นปัจจุบันทั้งหมด ฝ่ายแทนที่เชื่อว่าตำแหน่งงานจะหายไป และจำเป็นต้องวางแผนล่วงหน้าสำหรับผลกระทบระดับสองและสามที่จะตามมา แต่ไม่ว่าจะเป็นฝ่ายไหน การตัดสินที่ผิดพลาดแน่นอนเพียงอย่างเดียวคือการคิดว่า “AI จะไม่เปลี่ยนงานของฉัน”
บทบาทดั้งเดิมของผู้มีส่วนร่วมรายบุคคลสิ้นสุดลงแล้ว
พิธีกร: Philip ขอบคุณที่มาร่วมรายการอีกครั้ง ในบทความ “AI ฆ่า IC” ของคุณ คุณเสนอความคิดเห็นว่า ตำแหน่งงานดั้งเดิมกำลังจะหายไป ทุกคนจะกลายเป็นผู้จัดการ คุณเขียนว่า เราได้ข้าม “ขอบฟ้าเหตุการณ์” ไปแล้ว กล่องแพนโดร่าเปิดออกแล้ว ทุกอย่างไม่สามารถกลับไปเหมือนเดิมได้ คุณเองเคยมีประสบการณ์ “ช่วงเวลาผู้ช่วยเขียนโปรแกรม AI” แบบนั้นไหม?
Philip Su: มี ประมาณสองปีก่อน ฉันเริ่มใช้เครื่องมือเขียนโปรแกรม AI เริ่มจาก GitHub Copilot ในช่วงแรกมันเหมือนเครื่องมือเติมโค้ดมากกว่า เช่น เติมประเภท enum โครงสร้างไวยากรณ์ เป็นต้น ตอนนั้นฉันรู้สึกว่ามันช่วยประหยัดเวลาได้บ้าง แต่ยากที่จะโน้มน้าวให้เพื่อนร่วมงานเก่าเชื่อว่า AI จะมีบทบาทสำคัญในงานเขียนโค้ดของพวกเขา อย่างไรก็ตาม สองเดือนที่ผ่านมาสถานการณ์เปลี่ยนไปอย่างพื้นฐาน คนจำนวนมากที่เดิมเคยสงสัยเริ่มยอมรับความเป็นไปได้ว่า นี่ไม่ใช่แค่เรื่องชั่วคราว AI สามารถทำงานซอฟต์แวร์ในระดับที่ค่อนข้างใหญ่ได้จริงๆ ไม่ใช่แค่เติมประโยคสองสามประโยค
พิธีกร: เพื่อหลีกเลี่ยงไม่ให้เนื้อหาดู “ล้าสมัย” ฉันขอแจ้งว่า วันนี้คือวันที่ 29 มกราคม 2026 การทำตอนหนึ่งของรายการใช้เวลาหลายสัปดาห์ หากเมื่อถึงเวลาที่เราพูดคุยกัน เนื้อหาบางส่วนล้าหลังความเป็นจริงไปแล้ว นั่นเป็นเพราะเรากำลังอยู่ในจุดที่เปลี่ยนแปลงอย่างรวดเร็วนี้
Philip Su: การบันทึกเสียงครั้งนี้อาจถูกมองว่าเกิดขึ้นก่อน “ภาวะเอกฐาน” สามเดือน
พิธีกร: แน่นอน ตอนนี้อาจ “หมดอายุอย่างรวดเร็ว” หวังว่าทุกคนจะจำคำพูดนี้ไว้: นักพัฒนาซอฟต์แวร์กำลังกลายเป็นผู้จัดการ ฉันอยากฟังความคิดเห็นของคุณเป็นพิเศษ เพราะคุณเคยทำถึงระดับ E9 ที่ Meta แล้วกลับลดระดับลงเองเป็น E7 เพียงเพื่อกลับไปเป็น IC และเขียนโค้ดอีกครั้ง เส้นทางชีวิตของคุณเดินสวนทางกัน แล้วตอนนี้ แนวคิด “การเป็น IC” นี้ล้าสมัยแล้วหรือยัง?
Philip Su: ในอาชีพการงานของฉัน ฉันสลับระหว่างตำแหน่งผู้จัดการและ IC ประมาณหกครั้ง ฉันคิดว่าบทบาทของ IC ในความหมายดั้งเดิมอาจสิ้นสุดลงแล้วจริงๆ — รูปแบบการทำงานที่มุ่งมั่นแก้ไขปัญหาทางเทคนิคเพียงลำพังในออฟฟิศ อภิปรายการแลกเปลี่ยนทางเทคนิคกับเพื่อนร่วมงานสองสามคน เพราะหากคุณพิจารณากระบวนการทำงานร่วมกับ AI ในปัจจุบัน สิ่งที่คุณทำหลายอย่าง โดยพื้นฐานแล้วคืองานของผู้จัดการดั้งเดิม: การจัดลำดับความสำคัญระหว่างเอเจนต์ AI ต่างๆ การตัดสินใจว่าการออกแบบพื้นฐานสองแบบแบบไหนสมเหตุสมผลมากกว่า การวางแผนงานในสัปดาห์หน้า คุณกำลัง “มอบหมาย” งานปฏิบัติเกือบทั้งหมด ดังนั้นงานในตอนนี้กลายเป็น “เมตาวอร์ก” และนี่คือแก่นแท้ของตำแหน่งผู้จัดการส่วนใหญ่
พิธีกร: นั่นหมายความว่า IC ทุกคนจะกลายเป็นผู้จัดการ และผู้จัดการก็ไม่จำเป็นอีกต่อไป? หรือหมายความว่าผู้จัดการไม่ต้องการ IC อีกแล้ว?
Philip Su: ฉันคิดว่าทั้งสองกรณีจะเกิดขึ้น เราทุกคนเคยมีประสบการณ์แบบนี้: เข้าไปในอุตสาหกรรมดั้งเดิม “ที่ไม่ใช่ซอฟต์แวร์” เช่น การซ่อมท่อประปา ระบบทำความร้อนและปรับอากาศ หรือคลินิกทันตกรรม นักวิศวกรซอฟต์แวร์มักจะคิดว่า “ถ้าให้ฉันเวลาหนึ่งสัปดาห์ ฉันสามารถอัปเกรดระบบของคุณได้อย่างสมบูรณ์”
พิธีกร: นั่นคือความหยิ่งยโสของเรา เมื่อลงลึกไปจริงๆ จะพบว่ามีหลายสถานการณ์ที่เราไม่ได้คำนึงถึงเลย
Philip Su: ใช่ ปัญหานั้นซับซ้อนจริงๆ แต่ฉันคิดว่าวิศวกรรมซอฟต์แวร์จะขยายเข้าสู่สาขาแบบดั้งเดิมเหล่านี้ ทำให้คนอย่างทันตแพทย์สามารถสร้างเครื่องมือที่ต้องการได้ด้วยตัวเอง ฉันเพิ่งฟังพอดแคสต์ “Hard Fork” ตอนหนึ่ง พวกเขาชวนคนที่ไม่ใช่โปรแกรมเมอร์มาแบ่งปันกรณีศึกษาความสำเร็จจากการใช้ AI ช่างประปาคนหนึ่งบอกว่า เขาพึ่งพา AI อย่างเต็มที่ในการเขียนระบบการจัดตารางนัดหมายลูกค้าให้ตัวเอง กลับมาที่คำถามของคุณเมื่อกี้ — ผู้จัดการยังจำเป็นอยู่ไหม? ฉันคิดว่าเมื่อเราขยายเข้าสู่อุตสาหกรรมดั้งเดิมที่ไม่ใช่ซอฟต์แวร์ จะมีธุรกิจใหม่ๆ เกิดขึ้นมากมาย นี่คือ “การเพิ่มขึ้น” ส่วนโครงสร้างการจัดการ ฉันคิดว่ายังคงมีอยู่ แม้แต่ในองค์กรปัจจุบัน ก็มีผู้จัดการของผู้จัดการอยู่แล้ว มีหลายระดับ นี่คือปัญหาการทำงานร่วมกันของมนุษย์ ซึ่งในระยะสั้นยังคงต้องการมนุษย์ในการแก้ไข

พิธีกร: ตอนนี้เราอยู่ที่ “สถานีพักกลางทาง” หรือจุดหมายปลายทาง? หาก IC ทุกคนกลายเป็นผู้จัดการ แล้วทำไม AI ถึงไม่สามารถเป็นผู้จัดการโดยตรงได้?
Philip Su: คำถามนี้ไม่ใช่คำถามไร้เดียงสา ฉันเองก็พูดคล้ายๆ กันมานานหลายปี และฟังดูยิ่งไม่บ้าขึ้นทุกที ฉันมักพูดกับคนว่า: เมื่อถึงปี ค.ศ. 3000 ระบบนี้ยังทำไม่ได้อีกหรือ? มี “ความสามารถพื้นฐาน” บางอย่างที่ AI ไม่สามารถมีได้ตลอดไปหรือไม่? มีคนที่ฉลาดมากจริงๆ เช่น Yann LeCun ที่คิดว่าโมเดลภาษาขนาดใหญ่ไม่สามารถทำงานบางอย่างได้โดยพื้นฐาน แต่แม้ว่าการตัดสินนี้จะถูกต้อง ฉันคิดว่าข้อโต้แย้งนี้มีปัญหาสองประการ ประการแรก แน่นอนว่ามีมนุษย์ระดับสูงสุดบางคนที่ AI เอาชนะได้ยากในระยะยาว แต่คนส่วนใหญ่ในโลกนี้ไม่ใช่คนระดับสูงสุดนั้น เหมือนสมัยที่ “Deep Blue” ต่อสู้กับ Garry Kasparov คุณอาจพูดได้ว่า AI ยังเอาชนะนักหมากรุกมนุษย์ที่แข็งแกร่งที่สุดไม่ได้ แต่ในความเป็นจริง แม้ในยุค “Deep Blue” มันก็สามารถเอาชนะมนุษย์ส่วนใหญ่ได้แล้ว ปัญหาที่แท้จริงของเราไม่ใช่ “มีมนุษย์คนไหนในอีก 50 ปีข้างหน้าที่ยังเหนือกว่า AI ได้หรือไม่” แต่คือถ้า AI แข็งแกร่งกว่า 90% ของมนุษย์ในบางสาขา จะเกิดอะไรขึ้น? เช่น ผู้จัดการ 90% ถ้าเป็นผู้จัดการแบบในการ์ตูน “Dilbert” AI สามารถแทนที่ได้ไหม? น่าจะได้
ความสามารถของ AI เพิ่มขึ้นเรื่อยๆ แต่ปัญหาความรับผิดชอบยังคงต้องแก้ไข
พิธีกร: หนึ่งเดือนที่ผ่านมา ฉันตระหนักว่าตัวเองอาจคล้ายกับลัดไดต์ (Luddite) อยู่บ้าง ที่ปฏิเสธความสามารถของ AI ในการเขียนโปรแกรมและเอเจนต์ ฉันพบว่าตัวเองกำลัง “ขยับเกณฑ์” อยู่ตลอด: มันทำโจทย์ LeetCode ไม่ได้ แก้โจทย์คณิตศาสตร์โอลิมปิกไม่ได้ ไม่สามารถกลั่นกรองความต้องการได้… แต่ต่อมาฉันก็ตระหนักว่ามีข้อจำกัดสองประเภท: ข้อจำกัดชั่วคราวและข้อจำกัดพื้นฐาน และทุกครั้งที่ฉันจับได้ล้วนเป็นข้อจำกัดชั่วคราว ผู้คนมักพูดว่า AI ในตอนนี้คือช่วงเวลาที่แย่ที่สุดในชีวิตของมัน เพราะมันจะดีขึ้นเรื่อยๆ ความสามารถเพิ่มขึ้นแบบโมโนโทนิก ฉันจึงเริ่มมองหา “ข้อจำกัดพื้นฐาน” จริงๆ แล้วยังมีประเภทที่สาม: แม้ไม่ใช่ข้อจำกัดพื้นฐาน แต่ในชีวิตของฉันมันอาจไปไม่ถึง อย่างที่คุณพูดถึงปี 3000 แต่ฉันมีโอกาสรอดไปถึงปี 2100 ไม่มาก ฉันแค่ต้อง “วิ่งนำ” มันให้ได้ในช่วงอายุงานของฉัน ส่วนลูกและหลานของฉัน นั่นเป็นอีกเรื่องหนึ่ง
ตัวอย่างเช่น ฉันมีเพื่อนสมัยมหาวิทยาลัยที่เป็นแพทย์รังสีวิทยา 20 ปีมาแล้วที่ฉันบอกเขาว่า งานของคุณจะหายไปในที่สุด เพราะเขามีข้อมูลฝึกอบรมที่อุดมสมบูรณ์มาก — ภาพ MRI, CT, X-ray และผลการวินิจฉัยที่สอดคล้องกัน เส้นทางการฝึกเป็นโครงสร้าง ตามหลักแล้ว ทำไมเขาถึงยังรักษางานไว้ได้? นี่คล้ายกับการเขียนโปรแกรมมาก: โค้ดเองเป็นการแสดงออกทางภาษา สามารถดึงข้อมูลจาก GitHub ได้ แต่แพทย์รังสีวิทยาไม่ได้ถูกแทนที่ ฉันจำได้ว่า Andrej Karpathy เคยพูดว่า งานของพวกเขาปลอดภัยในระยะสั้น ต่อมาฉันก็เข้าใจ แก่นกลางคือ “กลไกการตรวจสอบความรับผิดชอบ” เขาต้องลงนามรับผิดชอบทุกการวินิจฉัย หากเขาบอกว่าเป็นมะเร็งแต่จริงๆ ไม่ใช่ หรือในทางกลับกัน ความรับผิดชอบอยู่ที่เขา อาจมีประกัน แต่ตัวหลักรับผิดชอบคือเขา และ AI ไม่สามารถ “รับผลที่ตามมา” ได้ คุณสามารถมอบบัญชีธนาคารให้ AI ให้มันทำธุรกิจหาเงินให้คุณ แต่ถ้ามันล้มเหลว คุณไม่สามารถ “ไล่ออก” มันได้จริงๆ
Philip Su: คุณพูดถึงประเด็นสำคัญ: การกำกับดูแล แพทย์รังสีวิทยายังคงมีอยู่ ส่วนหนึ่งเป็นเพราะระบบกำกับดูแล ในทำนองเดียวกัน ในอุตสาหกรรมอื่นๆ ก็มีสหภาพแรงงาน เช่น รถไฟใต้ดินลอนดอน แม้รถไฟจะสามารถขับเคลื่อนอัตโนมัติจากระยะไกลได้แล้ว สหภาพยังยืนกรานให้มีคนขับอยู่ในรถ และเพื่อให้ตื่นตัว ยังต้องมีเพื่อนร่วมทางไปด้วย ดังนั้นการกำกับดูแลและพฤติกรรมของสหภาพจะชะลอการแทนที่ แต่ฉันก็คิดถึงแนวคิด “นิติบุคคล” มนุษย์ใช้เวลานานมากกว่าจะยอมรับว่าบริษัทสามารถมี “สถานะทางกฎหมาย” ได้ สามารถทำสัญญาและรับผิดชอบได้ เมื่อยอมรับแนวคิดเชิงนามธรรมนี้ นวัตกรรมจำนวนมากก็ถูกปลดปล่อยออกมา ฉันคิดว่า AI ในอนาคตอาจคล้ายกัน — บางที “บุคลิกภาพทางกฎหมาย” บางรูปแบบอาจถูกมอบให้ เพื่อสร้างโครงสร้างการตรวจสอบความรับผิดชอบ
พิธีกร: แล้วการที่โมเดลมี “บุคลิกภาพทางกฎหมาย” หมายความว่าอย่างไร? ในโครงสร้างปัจจุบัน โทเค็น API ของคุณชี้ไปที่โมเดลในศูนย์ข้อมูลแห่งหนึ่ง มันจะรับผิดชอบอย่างไร? เป็นความรับผิดชอบของ OpenAI หรือ? โมเดลเองจะรับผิดชอบอย่างไร?
Philip Su: นี่เป็นคำถามที่ดี ฉันก็ไม่รู้ว่าจะแบ่งแยกอย่างไร เช่น ถ้า Tesla ของคุณสามารถให้เช่าอัตโนมัติเป็นรถแท็กซี่ไร้คนขับได้ แล้วเกิดอุบัติเหตุ ความรับผิดชอบเป็นของคุณหรือ? เป็นของบริษัท Tesla หรือ? ฉันไม่รู้ว่าในอนาคตจะแบ่งความรับผิดชอบอย่างไร แต่ที่แน่ใจคือ เมื่อผู้คนใช้เอเจนต์อัจฉริยะมากขึ้นเรื่อยๆ ปัญหากฎหมายประเภทนี้จะปรากฏขึ้นแน่นอน จะต้องมีคนใช้เอเจนต์ AI บางตัวตัดสินใจที่นำไปสู่หายนะ แล้วคดีก็เข้าสู่ระบบตุลาการ คำตอบยังไม่ชัดเจน แต่มันจะถูกทดสอบด้วยความเป็นจริงอย่างแน่นอน

ในอนาคต การมีมนุษย์เข้ามาเกี่ยวข้องในการเขียนโค้ด กลับจะถูกมองว่าเป็น “ความเสี่ยงด้านคุณภาพ”
พิธีกร: กลับมาที่การพัฒนาซอฟต์แวร์ เมื่อไหร่ที่คุณรู้สึกจริงๆ ว่าสวิตช์ถูกเปลี่ยนแล้ว?
Philip Su: ฉันเป็นคนที่ใช้เครื่องมือ AI ตั้งแต่เนิ่นๆ อาจเป็นเพราะขี้เกียจ ไม่อยากเขียนโค้ดซ้ำๆ หรืออาจเป็นแค่แนวโน้มทางเทคนิคที่สูง ปีที่ผ่านมาเปลี่ยนแปลงมาก หกเดือนที่ผ่านมา ฉันแทบไม่ได้เขียนโค้ดมากนัก สองเดือนที่ผ่านมา ด้วยโมเดลเช่น Opus 4.5, Claude Code รุ่นล่าสุด, Codex 5.2 ฉันไว้วางใจ AI มากขึ้นอย่างมาก แม้ยังไม่ถึงขั้นปล่อยมือเต็มที่ แต่ตอนนี้ทำงานร่วมกับบอทตรวจสอบโค้ดสองตัวบน GitHub ฉันตรวจโค้ดอย่างละเอียดน้อยลงกว่าเดิม เราจะเปิดเอเจนต์อัจฉริยะหลายตัวพร้อมกันเพื่อแก้ไขไฟล์แบบขนาน
พิธีกร: Anish (หุ้นส่วนของ a16z) บอกว่า เรากำลังเข้าสู่ “ช่วงเวลาของ YouTube สำหรับซอฟต์แวร์” เมื่อ YouTube ปรากฏตัว ผู้คนบอกว่าคนธรรมดาจะทำวิดีโอได้อย่างไร? แต่ต่อมาก็พบว่าเราไม่ขาดแคลนเนื้อหา YouTube แทนที่
⚠️ หมายเหตุ: เนื้อหาได้รับการแปลโดย AI และตรวจสอบโดยมนุษย์ หากมีข้อผิดพลาดโปรดแจ้ง
本文来自网络搜集,不代表คลื่นสร้างอนาคต立场,如有侵权,联系删除。转载请注明出处:https://www.itsolotime.com/th/archives/22873
