เครื่องมือ GitHub กำลังเป็นไวรัล: ทำให้ AI “พูดเหมือนมนุษย์ถ้ำ” ประหยัด Token ได้สูงสุด 87%
เครื่องมือโอเพ่นซอร์สที่ออกแบบมาเพื่อประหยัด Token ในการแสดงผลของ AI อย่างมีนัยสำคัญกำลังได้รับความนิยมอย่างรวดเร็วบน GitHub โครงการนี้มีชื่อว่า caveman (มนุษย์ถ้ำ) แนวคิดหลักของมันเรียบง่ายอย่างน่าประหลาด: สำหรับผู้ช่วย AI แล้ว การพูดยาวๆ ไม่ได้ดีกว่าเสมอไป บางครั้งการใช้คำน้อยลงหมายถึงการสื่อสารที่มีประสิทธิภาพมากขึ้น
ภายในเวลาไม่กี่วัน โครงการนี้ได้รับดาวบน GitHub ไปแล้วกว่า 4.1K ดวง โดยมีแนวโน้มการเติบโตที่รวดเร็ว

ที่น่าประหลาดใจคือ นักพัฒนาของโครงการนี้ — Julius Brussee อายุ 19 ปี — ในตอนแรกใช้เวลาเพียง 10 นาทีสร้างมันขึ้นมาเป็น “เรื่องตลก” แต่ไม่คิดว่าจะได้รับการตอบรับอย่างอบอุ่นเช่นนี้

หลักการ: กระชับได้ใจความ รักษาสาระสำคัญ
caveman เป็นปลั๊กอินที่ออกแบบมาสำหรับผู้ช่วย AI ด้านการเขียนโปรแกรม เช่น Claude Code/Codex เป้าหมายของมันเป็นไปตามชื่อ: ทำให้ผู้ช่วย AI “พูดเหมือนมนุษย์ถ้ำ” นั่นคือแสดงผลเนื้อหาที่กระชับสุดๆ และตรงประเด็น
มันทำได้โดยการบีบอัดส่วนที่เป็นภาษาธรรมชาติในการตอบกลับของ AI ในขณะที่รักษาเนื้อหาทางเทคนิคทั้งหมดไว้ครบถ้วน เช่น:
* บล็อกโค้ดและโค้ดในบรรทัด
* URL, เส้นทางไฟล์, คำสั่ง
* หัวข้อ, โครงสร้างตาราง
* วันที่, หมายเลขเวอร์ชัน
ตัวอย่างเปรียบเทียบผลลัพธ์:
- การตอบกลับปกติของ Claude อาจต้องการคำอธิบายโดยละเอียด: “คอมโพเนนต์ React ของคุณทำการเรนเดอร์ใหม่ น่าจะเป็นเพราะคุณสร้างการอ้างอิงอ็อบเจ็กต์ใหม่ในทุกๆ รอบการเรนเดอร์…”
- การตอบกลับในโหมด caveman จะกระชับอย่างยิ่ง: “ทุกการเรนเดอร์สร้างการอ้างอิงอ็อบเจ็กต์ใหม่ ส่งอ็อบเจ็กต์แบบอินไลน์เป็น prop = การอ้างอิงใหม่ = ทริกเกอร์การเรนเดอร์ใหม่ ใช้ useMemo ห่อไว้”
การทดสอบเบื้องต้นแสดงให้เห็นว่าวิธีนี้สามารถลด Token ในการแสดงผลลงได้ประมาณ 75% ในขณะที่ยังคงความถูกต้องทางเทคนิค
ระดับความกระชับที่ปรับได้และผลลัพธ์จากการทดสอบจริง
ผู้ใช้สามารถเลือกระดับการบีบอัดที่แตกต่างกันได้สามระดับตามความต้องการ:
* Lite: ลบคำพูดสุภาพและสำนวนที่ซ้ำซ้อน รักษาไวยากรณ์พื้นฐาน
* Full (โหมดมาตรฐาน): ละคำนำหน้านาม แสดงผลเป็นคำหลักหรือกลุ่มคำ สไตล์คล้ายภาษาของ “มนุษย์ถ้ำ”
* Ultra: โหมดบีบอัดสุดขีด ประหยัดได้เท่าไหร่ก็ประหยัด

นักพัฒนาได้ทดสอบด้วย Claude API จริง ใน 10 งานที่แตกต่างกันครอบคลุมการอธิบายโค้ด การแก้ไขปัญหา การอธิบายแนวคิด:
* ช่วงการประหยัด Token อยู่ระหว่าง 22% ถึง 87%
* ประหยัดโดยเฉลี่ยสูงถึง 65%

การติดตั้งและการใช้งาน
ในสภาพแวดล้อมที่รองรับ skills (เช่น Cursor, Copilot, Windsurf, Claude Code) การติดตั้งทำได้ง่ายมาก:bash
npx skills add JuliusBrussee/caveman
หลังการติดตั้ง เลือกโหมด caveman หรือบอกผู้ช่วย AI โดยตรงว่า “พูดแบบ caveman” เพื่อเปิดใช้งาน เมื่อต้องการหยุด ให้เปลี่ยนกลับเป็นโหมดปกติหรือพูดว่า “stop caveman”
ความคิดเบื้องหลังโครงการ
ความนิยมของ caveman ยังยืนยันการสังเกตทางวิชาการ: โดยการบังคับใช้ข้อจำกัดด้านความกระชับ ความแม่นยำของโมเดลภาษาขนาดใหญ่ในบางงานอาจเพิ่มขึ้นได้ เอกสารงานวิจัยฉบับหนึ่งในเดือนมีนาคม 2024 พบว่าการบังคับให้ตอบสั้นๆ สามารถทำให้ประสิทธิภาพของโมเดลในการให้เหตุผลทางคณิตศาสตร์และมาตรฐานความรู้ทางวิทยาศาสตร์เพิ่มขึ้นอย่างมีนัยสำคัญ

นักพัฒนา Julius Brussee ปัจจุบันเป็นนักศึกษาชั้นปีที่ 1 สาขาวิทยาศาสตร์ข้อมูลและปัญญาประดิษฐ์ที่มหาวิทยาลัย Leiden ประเทศเนเธอร์แลนด์ แม้อายุยังน้อย แต่เขาได้มีส่วนร่วมในโครงการสตาร์ทอัพหลายครั้งแล้ว สำหรับความนิยมอย่างไม่คาดคิดของ caveman เขาให้ความเห็นว่า: “เรื่องตลก” ที่เขียนขึ้นอย่างลวกๆ ได้รับความสนใจอย่างมาก ในขณะที่โครงการอื่นๆ ที่เขาลงแรง打磨 อย่างประณีตเป็นเวลาหลายเดือนกลับไม่ได้รับความสนใจในระดับเดียวกัน สิ่งนี้ทำให้เขาสังเกตเห็นว่า กุญแจสำคัญของการแพร่กระจายมักอยู่ที่การสามารถสร้างการสะท้อนใจในวงกว้างที่สุดได้หรือไม่

ข้อถกเถียงที่มีอยู่
แน่นอน ความนิยมของ caveman มาพร้อมกับข้อโต้แย้งและการอภิปรายบางส่วน หลักๆ เกี่ยวข้องกับสองประเด็น:
(โปรดติดตามตอนต่อไป)
- เครื่องมือนี้ช่วยประหยัด Token ในการแสดงผลเป็นหลัก ในขณะที่ต้นทุนหลักของการให้เหตุผลของโมเดลมักมาจาก Token ข้อมูลบริบทที่ป้อนเข้า
- คำถามที่น่าพิจารณาคือ: การบังคับให้โมเดลขนาดใหญ่แสดงผลที่กระชับขึ้น จะส่งผลต่อความสามารถในการให้เหตุผลของมันหรือไม่?

เกี่ยวกับเรื่องนี้ ผู้เขียนโครงการได้ให้คำอธิบายโดยละเอียดในส่วนความคิดเห็นของ Hacker News:
เจตนาเริ่มต้นของสกิลนี้ไม่ใช่เพื่อลด Token ในการให้เหตุผลหรือการคิดภายในโมเดล เอกสารของ Anthropic เองก็แนะนำว่า งบประมาณการคิดที่มากขึ้นมักจะเพิ่มประสิทธิภาพของโมเดล ซึ่งฉันไม่เห็นแย้งกับเรื่องนี้
เป้าหมายของมันคือการทำให้ผลลัพธ์ที่ “มองเห็นได้” กระชับขึ้น: ลดคำนำที่ยาวเหยียด เนื้อหาที่เติมเต็ม และข้อความที่ประณีตเกินไปแต่ไม่จำเป็น ดังนั้น เนื่องจากการแสดงผลถูกทำให้ “ดิบ” การสร้างโค้ดจึงไม่ได้รับผลกระทบจากสกิลนี้เลย
คำวิจารณ์ที่สมเหตุสมผลประการหนึ่งคือ ข้อมูล “~75%” ใน README มาจากการทดสอบเบื้องต้น ไม่ใช่การทดสอบมาตรฐานที่เข้มงวด เรื่องนี้ควรได้รับการนำเสนออย่างระมัดระวังมากขึ้น ฉันกำลังเตรียมการประเมินที่เป็นทางการมากขึ้น

พูดสั้นๆ คือ การประหยัดต้นทุนเป็นผลพลอยได้ หัวใจหลักคือการลดการแสดงออกที่ซ้ำซ้อน ดังนั้นโดยปกติแล้วจะไม่ทำให้ความสามารถของโมเดลลดลง
ในมุมมองของผู้เขียน โหมด “มนุษย์ถ้ำ” คล้ายกับหลักฐานแนวคิดที่น่าสนใจ ขอบเขตการใช้งานของมันแคบกว่าที่บางคนจินตนาการ และยังต้องการการทดสอบมาตรฐานที่แม่นยำยิ่งขึ้นเพื่อยืนยันในภายหลัง
นี่ก็สอดคล้องกับข้อสรุปของผู้ใช้ในชุมชนบางส่วน:
>ได้รับการยกย่องในด้านความสนุกสนานและความฉลาดในการลด Token ในการแสดงผลแต่มันไม่ใช่ยาวิเศษสำหรับการลดต้นทุนทั้งหมด และอาจทำให้ไอคิวของการแสดงผลของ Claude ลดลงเล็กน้อย

คุณได้ลองใช้เครื่องมือนี้แล้วหรือยัง? ยินดีต้อนรับการแบ่งปันประสบการณ์การใช้งานของคุณ
ที่อยู่โครงการ:
https://github.com/JuliusBrussee/caveman
ลิงก์อ้างอิง:
[1]https://news.ycombinator.com/item?id=47647455
[2]https://www.reddit.com/r/ClaudeAI/comments/1sble09/taught_claude_to_talk_like_a_caveman_to_use_75/

⚠️ หมายเหตุ: เนื้อหาได้รับการแปลโดย AI และตรวจสอบโดยมนุษย์ หากมีข้อผิดพลาดโปรดแจ้ง
☕ สนับสนุนค่ากาแฟทีมงาน
หากคุณชอบบทความนี้ สามารถสนับสนุนเราได้ผ่าน PromptPay
本文来自网络搜集,不代表คลื่นสร้างอนาคต立场,如有侵权,联系删除。转载请注明出处:https://www.itsolotime.com/th/archives/29079
