01
ให้ MacBook ของคุณรัน DeepSeek V4 ในเครื่องได้
ในฐานะผู้สร้าง Redis antirez ถือเป็นตำนานในชุมชนโอเพนซอร์ส
เมื่อเร็วๆ นี้ เขาได้นำเสนอโปรเจกต์ใหม่——ds4 เปิดตัวเพียง 4 วัน ก็ได้รับดาวมากกว่า 7,000 ดวง

ds4 เป็นเอ็นจิ้นการอนุมานในเครื่องที่ออกแบบมาเฉพาะสำหรับ DeepSeek V4 Flash เขียนด้วยภาษา C และปรับแต่งอย่างล้ำลึกสำหรับ Apple Metal
พูดง่ายๆ คือ มันช่วยให้คุณรันโมเดลขนาดใหญ่ที่มีพารามิเตอร์ 284B บน MacBook ได้
จุดนวัตกรรมที่น่าชื่นชมที่สุดของโปรเจกต์นี้คือโซลูชันการคงอยู่ของ KV cache บนดิสก์
มุมมองดั้งเดิมเชื่อว่า KV cache สามารถอยู่ในหน่วยความจำเท่านั้น แต่ antirez กลับทำตรงกันข้าม
เขาถือว่า KV cache เป็น “พลเมืองชั้นหนึ่ง” ที่สำคัญเทียบเท่ากับดิสก์ ใช้ประโยชน์จาก SSD ที่รวดเร็วบน MacBook สมัยใหม่ เขียน KV cache ลงดิสก์ ทำให้เซสชันถัดไปสามารถนำกลับมาใช้ใหม่ได้โดยตรง
เมื่อคุณใช้ Agent การเขียนโปรแกรมอย่าง Claude Code มันจะส่งพรอมต์ยาวซ้ำๆ แต่เดิมต้องคำนวณ Prefill ใหม่ทุกครั้ง ตอนนี้กู้คืนบริบทจากดิสก์โดยตรง ความเร็วเพิ่มขึ้นอย่างเห็นได้ชัด

ในด้านการควอนไทซ์ เขาก็ทุ่มเทอย่างมาก
เขาใช้กลยุทธ์การควอนไทซ์แบบไม่สมมาตร 2-bit ควอนไทซ์เฉพาะเลเยอร์ผู้เชี่ยวชาญเส้นทาง MoE อย่างรุนแรง ในขณะที่เลเยอร์ผู้เชี่ยวชาญร่วมและเลเยอร์โปรเจกชันยังคงเดิม วิธีการ “ใช้เหล้าดีในงานสำคัญ” นี้ทำให้ MacBook ที่มีหน่วยความจำ 128GB ทำงานได้อย่างราบรื่น และในสถานการณ์ Agent การเขียนโค้ด ยังคงเรียกใช้เครื่องมือได้อย่างน่าเชื่อถือ
ในด้านประสิทธิภาพ MacBook Pro M3 Max 128GB เมื่อรัน q2 quantization ความเร็ว Prefill สำหรับพรอมต์ยาวถึง 250 tokens/s ความเร็วในการสร้าง 21 tokens/s
ส่วน Mac Studio M3 Ultra 512GB แรงยิ่งกว่า ความเร็ว Prefill สำหรับพรอมต์ยาวสูงถึง 468 tokens/s

นอกจากนี้ ยังรองรับรูปแบบ API ของ OpenAI และ Anthropic พร้อมกัน Agent การเขียนโปรแกรมอย่าง Claude Code, opencode สามารถเชื่อมต่อโดยตรงได้
- ที่อยู่โอเพนซอร์ส: https://github.com/antirez/ds4
02
จัดการ Notion ด้วยระบบไฟล์
โปรเจกต์โอเพนซอร์ส Mirage มีความคิดสร้างสรรค์
มันสร้างเลเยอร์ระบบไฟล์เสมือนแบบรวมสำหรับ AI Agent

มันเมานต์บริการต่างๆ เช่น Google Drive, Slack, Gmail, Redis, GitHub, Notion, Linear, Trello, Discord, Telegram, MongoDB, SSH ไว้ใต้ไดเรกทอรีเสมือนเดียวกัน
Agent เพียงใช้คำสั่ง Unix พื้นฐานอย่าง ls, cat, grep, cp ก็สามารถทำงานข้ามบริการได้
โปรเจกต์นี้มี Python SDK, TypeScript SDK และเครื่องมือ CLI แยกต่างหาก สามารถฝังลงใน FastAPI, Express หรือแอปพลิเคชันเบราว์เซอร์ได้โดยตรง

มันยังมีเลเยอร์การปรับตัวในตัวสำหรับเฟรมเวิร์กหลัก เช่น OpenAI Agents SDK, Vercel AI SDK, LangChain, Pydantic AI
uv add mirage-ai # Python
npm install @struktoai/mirage-node # TypeScript
เปิดตัวเพียงวันเดียว จำนวนดาวทะลุ 1,000 มันแก้ปัญหาหลักของ Agent ในการเข้าถึงบริการแบ็กเอนด์หลายตัวได้จริง
- ที่อยู่โอเพนซอร์ส: https://github.com/strukto-ai/mirage
03
คลังพรอมต์ภาษาจีน 91 รายการ
โปรเจกต์โอเพนซอร์สนี้รวบรวมพรอมต์ภาษาจีนที่ผ่านการทดสอบจริง 91 รายการ และแบ่งตาม 9 สถานการณ์
ครอบคลุมหมวดหมู่ เช่น วิธี AI, งาน AI, การเรียนรู้ AI, เนื้อหา AI, การศึกษา AI, การตลาด AI, การคิด AI โดยหมวดการสร้างเนื้อหามากที่สุดถึง 49 รายการ

แต่ละพรอมต์มีเมทาดาตามาตรฐาน อธิบายสถานการณ์และวิธีการใช้งานอย่างชัดเจน
ภายในโปรเจกต์ยังมีระบบสร้างเมตาพรอมต์อัจฉริยะ ซึ่งใช้เฟรมเวิร์ก RTF เชื่อมต่อการวิเคราะห์ความต้องการ วิศวกรรมบทบาท สถาปัตยกรรมงาน รูปแบบและประเมินคุณภาพเป็นกระบวนการที่นำกลับมาใช้ซ้ำได้

พูดง่ายๆ กระบวนการนี้ช่วยให้คุณสร้างพรอมต์คุณภาพสูงเป็นชุดได้
- ที่อยู่โอเพนซอร์ส: https://github.com/yaojingang/yao-open-prompts
04
“เครื่องโกง” สำหรับผู้สร้างเนื้อหา
เมื่อติดตั้ง cheat-on-content ลงใน Claude Code มันจะใช้ลูป “ให้คะแนน-ทำนายแบบไม่เห็น-เผยแพร่-ทบทวน-วิวัฒนาการสูตรคะแนน” เปลี่ยนคุณจากการเผยแพร่เนื้อหาตามความรู้สึก เป็นการทดลองทางวิทยาศาสตร์ที่ปรับเทียบได้

จุดที่ละเอียดอ่อนที่สุดคือกลไกป้องกันการหลอกตัวเอง
ก่อนเผยแพร่ คุณต้องเขียนการทำนายที่ไม่สามารถแก้ไขได้ และบังคับใช้โดย Hook หลังจาก T+3 วัน ให้ทบทวน เปรียบเทียบข้อมูลจริงกับการทำนายของคุณ สูตรคะแนนจะวิวัฒนาการในแต่ละลูป แต่การอัปเกรดต้องผ่านการตรวจสอบซ้ำทั้งหมดและการตรวจสอบอิสระข้ามโมเดล
โปรเจกต์นี้มีทั้งหมด 13 Skill ย่อย หลังจากติดตั้ง คุณสามารถเรียกใช้ด้วยภาษาธรรมชาติใน Claude Code เช่น “ให้คะแนนอันนี้” “เริ่มทำนาย” “ทบทวน”

- ที่อยู่โอเพนซอร์ส: https://github.com/XBuilderLAB/cheat-on-content
05
ดาวรุ่งแห่งเอ็นจิ้นการอนุมาน LLM
TokenSpeed เป็นเอ็นจิ้นการอนุมาน LLM ที่ออกแบบจากศูนย์สำหรับเวิร์กโหลด Agent โดยมีเป้าหมายชัดเจน:
บน NVIDIA Blackwell บรรลุประสิทธิภาพระดับ TensorRT-LLM และความง่ายในการใช้งานระดับ vLLM พร้อมกัน

ทีมงานเบื้องหลังค่อนข้างหรูหรา
ผู้ดำเนินการหลักคือ LightSeek Foundation (องค์กรไม่แสวงหาผลกำไร) ผู้ร่วมมือรวมถึง NVIDIA DevTech, AMD Triton, ทีมอนุมาน Tongyi Qianwen, Together AI เป็นต้น มันสร้างหนึ่งในการใช้งาน Multi-head Latent Attention ที่เร็วที่สุดบน NVIDIA Blackwell

ในการทดสอบจริงของ Kimi K2.5 ในสถานการณ์ latency ต่ำสุด มันเร็วกว่า TensorRT-LLM ประมาณ 9% ที่ประมาณ 100 TPS/User ปริมาณงานสูงกว่าประมาณ 11%
ที่น่าสนใจกว่านั้นคือ MLA ของ TokenSpeed ถูกนำไปใช้ในโปรเจกต์ vLLM แล้ว ซึ่งพิสูจน์ถึงความสามารถทางเทคนิค NVIDIA AI Twitter อย่างเป็นทางการก็แชร์โปรเจกต์นี้และเรียกมันว่า “เอ็นจิ้นการอนุมานใหม่ที่ออกแบบมาเฉพาะสำหรับเวิร์กโหลด Agent ระดับแสง”
- ที่อยู่โอเพนซอร์ส: https://github.com/lightseekorg/tokenspeed
06
ไลบรารีเทมเพลตสไลด์ HTML 32 ชุด
โปรเจกต์นี้เป็นไลบรารีเทมเพลตสไลด์ HTML ที่เตรียมไว้สำหรับ Agent การเขียนโปรแกรม AI
มันรวบรวมเทมเพลตที่ออกแบบอย่างพิถีพิถัน 32 ชุด สไตล์ครอบคลุม Soft Editorial, Retro Windows, Sakura Chroma, 8-Bit Orbit ฯลฯ
แต่ละเทมเพลตมีระบบภาพที่สมบูรณ์ รวมถึงฟอนต์ สี องค์ประกอบตกแต่ง และการนำทางพลิกหน้า



มันยังมีคู่มือการใช้งาน Agent ที่สมบูรณ์ในตัว
เมื่อคุณพูดกับ Claude Code หรือ Cursor ว่า “ช่วยทำพรีเซนเทชั่นหน่อย” AI จะถามถึงโอกาสและบรรยากาศของคุณก่อน จากนั้นจับคู่เทมเพลต 3 ตัวเลือกจากไลบรารี สร้างตัวอย่างปกให้คุณเลือก หลังจากคุณเลือกแล้ว มันจะเติมเนื้อหาที่สมบูรณ์
เทมเพลตทั้งหมดเป็นไฟล์ HTML เดียว ใช้ Google Fonts มีตรรกะการพลิกหน้าในตัว เปิดในเบราว์เซอร์โดยตรงก็พรีเซนต์ได้ ไม่ต้องพึ่งพาใดๆ
- ที่อยู่โอเพนซอร์ส: https://github.com/zarazhangrui/beautiful-html-templates
07
แผนที่เส้นทางภาษาจีนสำหรับเรียนรู้ AI Agent จากศูนย์
แผนที่การเรียนรู้โอเพนซอร์สนี้จะพาคุณเรียนรู้ AI Agent จากศูนย์
มันแบ่งเส้นทางการเรียนรู้เป็น 7 ขั้นตอน สามขั้นตอนแรกเป็นพื้นฐาน เรียนรู้ Python, LLM และ Prompt Engineering

หลังจากนั้นแบ่งเป็นสองแทร็ก: Track A คือ CLI Power User สอนวิธีใช้เครื่องมือ Agent สำเร็จรูปเพื่อเพิ่มประสิทธิภาพ
08
แพตช์เสริมสำหรับ Codex App
**

**
ในการใช้ OpenAI Codex App ผู้ใช้มักพบปัญหาสองอย่าง: เมื่อเข้าสู่ระบบด้วย API Key ทางเข้าปลั๊กอินไม่สามารถใช้งานได้ และสามารถเก็บถาวรเซสชันได้ แต่ไม่สามารถลบโดยตรง
Codex++ เกิดขึ้นมาเพื่อแก้ปัญหาสองอย่างนี้

มันใช้ Chromium DevTools Protocol ฉีดสคริปต์ ปลดล็อกฟังก์ชันปลั๊กอินในโหมด API Key และรองรับการบังคับติดตั้งปลั๊กอินพิเศษ
นอกจากนี้ ยังเพิ่มปุ่มลบเซสชัน ฟังก์ชันนี้จะพยายามลบจากเซิร์ฟเวอร์ก่อน หากล้มเหลว จะถอยไปลบในฐานข้อมูล SQLite ในเครื่อง และมีตัวเลือกยืนยันและยกเลิกก่อนลบ
ในด้านสถาปัตยกรรม Codex++ ใช้การออกแบบแบบไม่รบกวน ไม่แก้ไขไดเรกทอรีการติดตั้งของ Codex App แต่เปิดผ่าน launcher ภายนอก


หลังจากติดตั้งบน macOS ระบบจะสร้าง Codex++.app ในไดเรกทอรี Applications ผู้ใช้เปิดโดยตรงก็ได้
โปรเจกต์นี้รองรับทั้งแพลตฟอร์ม Windows และ macOS
- ที่อยู่โอเพนซอร์ส:
https://github.com/BigPizzaV3/CodexPlusPlus
09
คำสั่งเดียวเพื่อสิทธิ์ root
โปรเจกต์นี้พิเศษ ไม่ใช่เครื่องมือ แต่เป็นห่วงโซ่ช่องโหว่การยกระดับสิทธิ์ในเครื่องที่ส่งผลกระทบต่อลีนุกซ์รุ่นหลักเกือบทั้งหมด
Dirty Frag ใช้ประโยชน์จากสองช่องโหว่ในระบบย่อยเครือข่ายของเคอร์เนลลีนุกซ์ รวมกันเพื่อโจมตี Ubuntu, RHEL, CentOS, Fedora, openSUSE และรุ่นหลักอื่นๆ

ที่น่าตกใจที่สุดคือ ช่องโหว่นี้เป็นแบบกำหนดได้ ไม่ต้องใช้เงื่อนไขการแข่งขัน ความน่าจะเป็นสำเร็จสูงมาก
เพียงคำสั่งเดียว ก็สามารถยกระดับผู้ใช้ทั่วไปเป็น root ได้
สองช่องโหว่นี้เสริมกัน: xfrm-ESP variant ให้ primitive การเขียน 4 ไบต์ตามอำเภอใจ ใช้ได้บน RHEL/CentOS/Fedora/openSUSE
ส่วน RxRPC variant ไม่ต้องการสิทธิ์ namespace ใช้ได้บน Ubuntu
เมื่อรวมกัน ก็กลายเป็น exploit ที่โจมตีทุกรุ่นได้

วิธีการใช้ก็ประณีตเช่นกัน
ESP variant แก้ไข page cache ของ /usr/bin/su แทนที่ 192 ไบต์แรกด้วยไฟล์ ELF ขนาดเล็ก 192 ไบต์ เพื่อ bypass PAM และรับ root shell โดยตรง
RxRPC variant ตรงไปตรงมากว่า แก้ไขบรรทัดแรกของไฟล์ /etc/passwd ล้างฟิลด์รหัสผ่าน ใช้การกำหนดค่า nullok ของ PAM เพื่อให้ su โดยไม่ต้องใช้รหัสผ่าน
อายุการใช้งานที่มีประสิทธิภาพของช่องโหว่นี้ประมาณ 9 ปี มีมาตั้งแต่ปี 2017 หากเซิร์ฟเวอร์ของคุณยังใช้เคอร์เนลรุ่นเก่า โปรดอัปเดตแพตช์ทันที
- ที่อยู่โอเพนซอร์ส:
https://github.com/V4bel/dirtyfrag
10
คู่แข่ง Tauri จาก Vercel
Vercel Labs เพิ่งปล่อยโปรเจกต์ใหม่ zero-native ซึ่งใช้ภาษา Zig เขียน Shell ดั้งเดิม และรวมกับ Web UI เพื่อสร้างอินเทอร์เฟซ ผลลัพธ์มีขนาดเล็กมาก ความเร็วในการสร้างสูง

มันรองรับสองเอ็นจิ้นเว็บ: ระบบ WebView และ Chromium
เมื่อใช้ระบบ WebView ขนาดเล็กที่สุด บน macOS ใช้ WKWebView บน Linux ใช้ WebKitGTK
หากต้องการการแสดงผลที่สม่ำเสมอ สามารถเปลี่ยนเป็น CEF (Chromium แบบฝัง) เพียงแก้ไขหนึ่งบรรทัดในไฟล์กำหนดค่า
เลเยอร์ดั้งเดิมเขียนด้วย Zig ความเร็วในการคอมไพล์สูง
ด้านฟรอนต์เอนด์ รองรับเฟรมเวิร์กหลัก เช่น Next.js, React, Svelte, Vue นักพัฒนาสามารถใช้เครื่องมือเว็บที่คุ้นเคยในการพัฒนา
โมเดลความปลอดภัยก็ออกแบบได้ดี
WebView ถือเป็นสภาพแวดล้อมที่ไม่น่าเชื่อถือโดยค่าเริ่มต้น คำสั่งดั้งเดิม สิทธิ์ การนำทาง ลิงก์ภายนอก ฯลฯ ต้องควบคุมผ่านนโยบาย opt-in
สะพาน JS ถึง Zig ผ่านการตรวจสอบหลายชั้น เช่น การจำกัดขนาด การตรวจสอบ origin และการตรวจสอบสิทธิ์
- ที่อยู่โอเพนซอร์ส:
https://github.com/vercel-labs/zero-native
Track B: Agent Builder
Track B คือ Agent Builder ครอบคลุมกระบวนการทั้งหมดตั้งแต่สร้าง Agent จากศูนย์จนถึงการจัดเรียง Multi-Agent ระยะเวลาประมาณ 14 ถึง 19 สัปดาห์

ที่น่าสรรเสริญที่สุดคือเวอร์ชันสามภาษา ประกอบด้วยภาษาจีนตัวเต็ม จีนตัวย่อ และอังกฤษ
แต่ละขั้นตอนมี mini project 1 ถึง 5 รายการ และมีเกณฑ์ความสำเร็จ ไม่ใช่คอร์สที่ดูแต่เอกสารแล้วไม่ลงมือทำ
คอร์สนี้รวบรวมโปรเจกต์และทรัพยากรที่คัดสรร 145 รายการ และมีเส้นทางเพิ่มเติม 5 เส้นทางตามบทบาท สำหรับนักวิจัย นักพัฒนา ครู ผู้ใช้ความรู้ และผู้ใช้ทั่วไป
- ที่อยู่โอเพนซอร์ส:
https://github.com/WenyuChiou/awesome-agentic-ai-zh
11
คลิกการ์ดด้านล่าง ติดตาม逛逛 GitHub
บัญชีสาธารณะนี้เคยเผยแพร่โปรเจกต์โอเพนซอร์สที่น่าสนใจมากมาย หากคุณขี้เกียจเลื่อนหาบทความทีละบทความ สามารถติดตามบัญชีสาธารณะ WeChat: 逛逛 GitHub และสนทนาในพื้นหลังได้:
⚠️ หมายเหตุ: เนื้อหาได้รับการแปลโดย AI และตรวจสอบโดยมนุษย์ หากมีข้อผิดพลาดโปรดแจ้ง
☕ สนับสนุนค่ากาแฟทีมงาน
หากคุณชอบบทความนี้ สามารถสนับสนุนเราได้ผ่าน PromptPay
本文来自网络搜集,不代表คลื่นสร้างอนาคต立场,如有侵权,联系删除。转载请注明出处:https://www.itsolotime.com/th/archives/34403
