Prompt Engineering ตายแล้ว Context Engineering คือวิธีที่ระบบการผลิตทำงานในปัจจุบัน
ระบบ RAG ของคุณส่งคืนเอกสารที่สมบูรณ์แบบ คำสั่งของคุณก็ได้รับการขัดเกลาอย่างดี แต่โมเดลภาษาขนาดใหญ่ (LLM) ยังคง “หลอน” และสร้างคำตอบขึ้นมา
ตัวอย่างเช่น เมื่อคุณสอบถามนโยบายการคืนเงินล่าสุด ระบบอาจยัดเอกสาร 50 ฉบับตั้งแต่ปี 2018 ถึง 2026 เข้าไปในบริบททั้งหมด LLM เห็นนโยบายที่ขัดแย้งกัน สับสน และเริ่มสร้างคำตอบขึ้นมา คุณลองเพิ่มเอกสารมากขึ้น คำตอบกลับแย่ลง นี่ไม่ใช่ปัญหาของคำสั่ง แต่เป็นปัญหาของบริบท
การเปลี่ยนแปลงที่สำคัญคือ: Prompt Engineering กำหนดว่าโมเดล “พูดอย่างไร” ในขณะที่ Context Engineering กำหนดว่าโมเดล “เห็นอะไรขณะพูด”
การปรับปรุงประสิทธิภาพในปี 2026 จะมาจากการเลือกบริบทแบบไดนามิก การบีบอัด และการจัดการความจำ ไม่ใช่จากคำสั่งที่ฉลาด
ต่อไปนี้คือเทคนิค Context Engineering ที่มีประสิทธิภาพ 6 ชนิดที่ทำให้ระบบการผลิตแตกต่างจากต้นแบบสาธิต
Context Engineering คืออะไร?
Context Engineering หมายถึงแนวปฏิบัติทางวิศวกรรมที่ ตัดสินใจว่าโมเดล AI เห็นข้อมูลใด เมื่อใด และจัดระเบียบข้อมูลนั้นอย่างไร ในขณะรันไทม์
- Prompt Engineering เน้นที่คุณ “ถามอย่างไร”
- Context Engineering เน้นที่คุณ “ให้อะไร”
ในระบบจริง ความล้มเหลวของ LLM มักไม่ใช่เพราะ “ไม่เข้าใจคำสั่ง” แต่เป็นเพราะถูกป้อนข้อมูล ที่ไม่เกี่ยวข้องมากเกินไป ข้อมูลที่ขัดแย้งกัน หรือ ขาดข้อเท็จจริงสำคัญ
หัวใจของ Context Engineering คือการมองบริบทเป็น ไปป์ไลน์แบบไดนามิก ไม่ใช่แค่คำสั่งแบบคงที่ ประกอบด้วย:
- เลือกเอกสารที่เหมาะสม แทนที่จะเททั้งหมดลงไป
- บีบอัดเอกสารต้นฉบับยาวให้เป็นบทสรุปที่มุ่งเน้นงาน
- เขียนคำถามของผู้ใช้ใหม่ก่อนการค้นคืน
- ฉีดความจำและสถานะผู้ใช้ข้ามเซสชัน
- ยึดข้อเท็จจริงด้วยเครื่องมือและข้อมูลแบบเรียลไทม์
- จัดระเบียบอินพุตทั้งหมดด้วยโครงสร้างที่สะท้อนลำดับความสำคัญ
พูดง่ายๆ คือ: Context Engineering คือวิธีควบคุมความสนใจของโมเดลในสภาพแวดล้อมการผลิต
เมื่อบริบทถูกออกแบบทางวิศวกรรมอย่างถูกต้อง แม้แต่โมเดลที่เล็กกว่าก็สามารถทำงานได้ดี เมื่อบริบทถูกจัดการอย่างแย่ แม้แต่โมเดลที่ดีที่สุดก็ยังเกิดภาพหลอน
6 เทคนิคหลัก

1. Selective Retrieval: หยุดเททั้งหมดลงไป

วิธีที่ไร้เดียงสา: ค้นหาเอกสาร 50 ฉบับ เททั้งหมดลงในบริบท หวังว่าโมเดลจะหาข้อมูลที่ต้องการได้เอง
ปัญหา: แม้หน้าต่างบริบทจะใหญ่ การกระจายความสนใจของโมเดลก็ไม่สม่ำเสมอ มันจะให้ความสำคัญกับตอนต้นและตอนท้ายมากขึ้น ส่วนตรงกลางมักถูกลืม นี่คือเอฟเฟกต์ “หายไปตรงกลาง”
วิธีที่ดีกว่า: ให้คะแนน จัดลำดับใหม่ ตัดทอน ปล่อยให้เฉพาะส่วนที่เกี่ยวข้องและไม่ซ้ำซ้อนเข้าสู่หน้าต่างบริบท
กระบวนการสามขั้นตอน:
- Relevance Reranking: การค้นหาเริ่มต้นส่งคืนผลลัพธ์ 50 อันดับแรกตามความคล้ายคลึงของเวกเตอร์หรือการจับคู่คำหลัก แต่ “คล้าย” ไม่เท่ากับ “เกี่ยวข้อง” ใช้โมเดล Cross-Encoder เพื่อจับคู่คำถามกับแต่ละเอกสารและจัดลำดับใหม่หลังจาก “อ่านจริง” ช้ากว่าแต่แม่นยำกว่า หลังจัดลำดับใหม่ ให้เก็บไว้เพียง 5 อันดับแรก
- Redundancy Removal: เอกสารของคุณมักอธิบายแนวคิดเดียวกันในหลายที่ เนื้อหาการตลาด ข้อมูลจำเพาะทางเทคนิค คำถามที่พบบ่อย อาจพูดถึงฟีเจอร์เดียวกัน ใช้เวกเตอร์ฝังตัวเพื่อจัดกลุ่มส่วนที่คล้ายกัน หากความคล้ายคลึงโคไซน์ของสองส่วน > 0.9 แสดงว่าซ้ำกันโดยพื้นฐาน ให้ลบอันใดอันหนึ่ง โมเดลไม่จำเป็นต้องเห็นข้อเท็จจริงเดียวกัน 10 ครั้ง
- Task-Aware Filtering: ใช้ประโยชน์จากเมตาดาต้าให้เต็มที่ เอกสารแต่ละฉบับควรมีแท็ก: ประเภทเอกสาร วันที่อัปเดตล่าสุด เวอร์ชันผลิตภัณฑ์ ภูมิภาค แผนก เมื่อได้รับคำถาม ให้กรองตามความต้องการ หากมีคนถามเกี่ยวกับกฎระเบียบของสหภาพยุโรป อย่าให้เอกสารการปฏิบัติตามของสหรัฐอเมริกา
ตัวอย่าง: คำถามคือ “สรุปการเปลี่ยนแปลงนโยบายการคืนเงินล่าสุดสำหรับลูกค้าสหภาพยุโรป”
- ก่อน: การค้นหาเวกเตอร์ของคุณส่งคืนส่วนเกี่ยวกับการคืนเงิน 50 ส่วน บางส่วนมาจากนโยบายเก่าปี 2018 บางส่วนมาจากเอกสารสหรัฐฯ บางส่วนมาจากบันทึกภายในที่ไม่ใช่สำหรับลูกค้า LLM เห็นหน้าต่างการคืนเงิน 14 วันและ 30 วัน ข้อยกเว้นต่างกัน กระบวนการขัดแย้งกัน พยายาม “สังเคราะห์” พวกมัน และสุดท้ายสร้างนโยบายที่ไม่มีอยู่จริงขึ้นมา
- หลัง: กรอง
region='EU'และupdated_at >= 2025-01-01ตัดส่วนที่ไม่เกี่ยวข้อง 40 ส่วนทันที ใช้ Cross-Encoder ที่ฝึกบนข้อมูลถามตอบเพื่อจัดลำดับใหม่ 10 ส่วนที่เหลือ เก็บ 5 อันดับแรก ตรวจสอบส่วนที่ซ้ำกันโดยประมาณ (ความคล้ายคลึงโคไซน์ > 0.9) ในที่สุดเหลือเพียง 3 ส่วนของนโยบายสหภาพยุโรปปัจจุบันที่เกี่ยวข้องสูงและไม่ซ้ำซ้อน
ตอนนี้ LLM เห็น: การแสดงนโยบายที่ชัดเจน ไทม์ไลน์เฉพาะ รายการข้อยกเว้น ทั้งหมดเป็นล่าสุด เกี่ยวข้อง และสอดคล้องกัน ไม่มีภาพหลอน ไม่สับสน
ผลลัพธ์: คำสั่งสั้นลง คำตอบชัดเจนขึ้น ไม่ขัดแย้ง การทดลองแสดงให้เห็นว่าการลบบริบทรบกวนออกสามารถเพิ่มความแม่นยำได้ 15–30% และประหยัดโทเคนได้ 20–40% แต่ผลประโยชน์ที่แท้จริงคือ “ความน่าเชื่อถือ” เมื่อคุณรู้ชัดว่าโมเดลเห็นบริบทใด คุณสามารถดีบักความล้มเหลวได้ เมื่อคุณโยนส่วน 50 ส่วนให้มันในครั้งเดียว คุณได้แต่ “ภาวนา”
คำแนะนำในการนำไปใช้: เริ่มจากสิ่งที่ง่าย เพิ่ม last_updated timestamp ให้กับเอกสารทั้งหมด กรองตามวันที่ก่อน ขั้นตอนนี้สามารถกำจัดเสียงรบกวนส่วนใหญ่ได้ จากนั้นจึงแนะนำการจัดลำดับใหม่ จากนั้นจึงกำจัดส่วนที่ซ้ำซ้อน เมื่อคุณวัดการปรับปรุงได้แล้ว ค่อยเพิ่มความซับซ้อนทีละน้อย
2. Context Compression: ทำให้ทุกโทเคนมีค่า

เอกสารต้นฉบับยาวอาจเกินขีดจำกัดบริบทที่ใช้ได้จริง และยังเจือจางความสนใจของโมเดล การปฏิบัติแสดงให้เห็นว่าในขณะที่รักษาหรือเพิ่มความแม่นยำ สามารถลดการใช้โทเคนได้ 50–75%
ข้อมูลเชิงลึกหลัก: ก่อนที่จะใส่เนื้อหาลงในบริบท ให้บีบอัดเอกสารต้นฉบับยาวให้เป็นบทสรุปที่มีความหนาแน่นสูงและเกี่ยวข้องกับงานอย่างมาก นี่ไม่ใช่บทสรุปทั่วไป แต่เป็นบทสรุป “มุ่งเน้นงาน”
สามกลยุทธ์การบีบอัด:
- LLM Summarization with Constraints: อย่าพูดแค่ “สรุปเอกสารนี้” แต่พูดว่า “เก็บเฉพาะการเปลี่ยนแปลงราคาที่กล่าวถึงหลังเดือนมกราคม 2025” ข้อจำกัดมีความสำคัญ มันบอก LLM ว่าควรเก็บอะไร ทิ้งอะไร สำหรับเอกสารที่ค้นพบแต่ละฉบับ ให้ออกข้อจำกัดเฉพาะตามคำถาม เอาต์พุตกลายเป็นหัวข้อ 5–10 ข้อ แทนที่จะเป็นโทเคน 3000 โทเคน
- Sentence-Level Scoring: คำนวณความเกี่ยวข้องของแต่ละประโยคในเอกสารกับคำถาม ใช้โมเดลขนาดเล็ก (เช่น BERT variant) เพื่อให้คะแนน เรียงลำดับตามคะแนน เก็บไว้เพียง 20% อันดับแรก นี้เรียกว่า “Context-Preserving Compression” เร็ว มีประสิทธิภาพ และเก็บข้อมูลที่เกี่ยวข้องที่สุดโดยอัตโนมัติ
- Hierarchical Summarization: เหมาะสำหรับเอกสารยาวมาก ตัดแบ่งตามบทก่อน สรุปแต่ละบท จากนั้นรวมบทสรุปของแต่ละบทเป็นเมตาสรุป คุณได้โครงสร้างสามชั้น: เอกสารเต็ม → บทสรุปบท → บทสรุปสุดท้าย เลือกระดับที่เหมาะสมตามงบประมาณบริบทของคุณ
ตัวอย่าง: คำถามคือ “เปรียบเทียบขีดจำกัดอัตราของแผน A กับแผน B ในเอกสาร API ของเรา”
เอกสาร API ของคุณมี 30 หน้า ครอบคลุมการรับรองความถูกต้อง ขีดจำกัดอัตรา รหัสข้อผิดพลาด Webhooks การแบ่งหน้า SDK บันทึกการเปลี่ยนแปลง ในนั้นมีเพียง 2 หน้าที่กล่าวถึงขีดจำกัดอัตรา
3. Hierarchical Layout: ส่งผ่านลำดับความสำคัญของข้อมูลอย่างชัดเจนผ่านโครงสร้าง

หลีกเลี่ยงการกองข้อมูลทั้งหมดเป็น “กำแพงข้อความ” LLM ขนาดใหญ่ไม่ได้กระจายความสนใจอย่างสม่ำเสมอในตำแหน่งต่างๆ ของบริบท การ “แบ่งส่วน” โครงสร้างช่วยให้โมเดลแยกแยะขอบเขตระหว่างคำสั่ง ข้อมูล และตัวอย่างได้ชัดเจน
นี่คล้ายกับการอ่านบทความวิชาการ: บทคัดย่อ บทนำ วิธีการ และส่วนการอภิปรายมีหน้าที่ต่างกัน โครงสร้างที่ชัดเจนช่วยเพิ่มประสิทธิภาพการดึงข้อมูลอย่างมาก LLM ขนาดใหญ่ก็ได้รับประโยชน์เช่นเดียวกัน การออกแบบโครงสร้างคงที่สำหรับบริบทและกำหนดขอบเขตของพื้นที่อย่างชัดเจนเป็นกลยุทธ์ที่มีประสิทธิภาพในการปรับปรุงประสิทธิภาพของโมเดล
ต่อไปนี้คือตัวอย่างเลย์เอาต์ที่มีประสิทธิภาพที่ผ่านการทดสอบแล้ว:
[System Rules]
คุณเป็นผู้ช่วยวิจัยทางการเงินที่เข้มงวด
ตอบเฉพาะตามบริบทที่ให้มา
หากข้อมูลขาดหายไป ให้ตอบว่า “ฉันไม่มีข้อมูลดังกล่าว”
อย่าสันนิษฐานข้อมูลตัวเลขใดๆ
[Task]
เป้าหมาย: ใช้บริบทด้านล่างเพื่อตอบคำถามผู้ใช้
รูปแบบเอาต์พุต: ให้คำตอบโดยตรงก่อน ตามด้วยรายละเอียดสนับสนุน
[User Profile / Memory]
– ความสามารถในการรับความเสี่ยง: ต่ำ
– ระยะเวลาการลงทุน: 5-10 ปี
– ภูมิภาค: อินเดีย
– ประวัติการสนทนา: เคยถามเกี่ยวกับ HDFC Bank 3 ครั้ง แสดงความสนใจในภาคการธนาคาร
– ความชอบ: การลงทุนแบบอนุรักษ์นิยม ชอบหุ้นที่จ่ายเงินปันผล
[Retrieved Context]
เอกสาร 1: รายงานผลประกอบการไตรมาส 4 ปี 2024 ของ HDFC Bank
– รายได้: 45,000 ล้านรูปี (เพิ่มขึ้น 15% YoY)
– กำไรสุทธิ: 12,000 ล้านรูปี (เพิ่มขึ้น 18% YoY)
– อัตราสินทรัพย์ที่ไม่ก่อให้เกิดรายได้: 1.2% (ดีขึ้นจาก 1.5%)
เอกสาร 2: การวิเคราะห์คู่แข่งไตรมาส 4 ปี 2024
– การเติบโตของรายได้ ICICI Bank: 12% (YoY)
– การเติบโตของกำไร State Bank of India: 10% (YoY)
– HDFC Bank นำในด้านการยอมรับธนาคารดิจิทัล
[Tool Outputs]
– ราคาเรียลไทม์(“HDFCBANK”): 1,842.50 รูปี (อัปเดตเมื่อ 2 นาทีที่แล้ว)
– ข่าวสรุป(“HDFCBANK”): “ประกาศเงินปันผลต่อหุ้น 19 รูปีสำหรับปีงบประมาณ 2024 วันหมดสิทธิ์คือ 15 มีนาคม 2025”
– การวิเคราะห์อุตสาหกรรม(“ธนาคาร”): “ภาคธนาคารเพิ่มขึ้น 8% ในเดือนนี้ เนื่องจากรายงานผลประกอบการที่ดี”
[Question]
ผู้ใช้: มีอะไรใหม่กับ HDFC Bank?
โครงสร้างนี้ทำงานดังนี้:
- วางกฎระบบไว้ข้างหน้า: โมเดลพบขอบเขตพฤติกรรมและหลักการหลักก่อน
- คำอธิบายงานตามมา: โมเดลเข้าใจเป้าหมายที่ต้องบรรลุอย่างชัดเจน
- โปรไฟล์ผู้ใช้ให้พื้นหลังส่วนบุคคล: การรู้ว่าผู้ใช้ชอบแบบอนุรักษ์นิยมและเคยถามเกี่ยวกับ HDFC หลายครั้ง จะส่งผลต่อจุดเน้นและการใช้ถ้อยคำของคำตอบ
- บริบทที่ค้นพบถูกทำเครื่องหมายว่าเป็น “วัสดุแหล่งที่มา”: โมเดลรู้ว่าควรอ้างอิงข้อมูลนี้เป็นลำดับแรก
- เอาต์พุตเครื่องมือถูกทำเครื่องหมายว่าเป็น “ข้อมูลเรียลไทม์และน่าเชื่อถือ”: โมเดลรู้ว่าสิ่งเหล่านี้เป็นข้อมูลปัจจุบันที่น่าเชื่อถือ ไม่ใช่การคาดเดา
- วางคำถามไว้ท้ายสุด: โมเดลได้รับข้อมูลพื้นฐานทั้งหมดก่อนที่จะอ่านคำถาม
เลย์เอาต์นี้ทำให้โมเดลเข้าใจชัดเจนว่า “อะไรคืออะไร” ลดความขัดแย้งของคำสั่ง และอนุญาตให้คุณอัปเดตหรือแทนที่ส่วนใดส่วนหนึ่งได้อย่างอิสระ โดยไม่กระทบโครงสร้างโดยรวม สิ่งนี้มีความสำคัญอย่างยิ่งสำหรับระบบมัลติเอเจนต์ เนื่องจากแต่ละเอเจนต์อาจต้องการเลย์เอาต์บริบทที่แตกต่างกัน
ทำไมมันดีกว่าบริบทที่ไม่มีโครงสร้าง?
คุณสามารถทดสอบเองได้: ให้ LLM ขนาดใหญ่ข้อความ 5000 โทเคนที่ผสมผสานคำสั่ง ข้อมูล ตัวอย่าง และคำถามเข้าด้วยกัน จากนั้นให้ข้อมูลเดียวกันในเวอร์ชันที่มีการแบ่งส่วนโครงสร้าง ทดสอบความแม่นยำของคำตอบทั้งสอง ในสถานการณ์การใช้งานส่วนใหญ่ เลย์เอาต์ที่มีโครงสร้างสามารถเพิ่มความแม่นยำได้ 10-20%
เหตุผลคือรูปแบบความสนใจ: โมเดลเรียนรู้ว่าส่วนต้นและส่วนท้ายของบริบทมักสำคัญกว่า การวางคำสั่งสำคัญไว้ตอนต้นและวางคำถามไว้ตอนท้าย เท่ากับ “ปรับตามความชอบความสนใจของโมเดล” แทนที่จะต่อต้านมัน
4. Dynamic Query
⚠️ หมายเหตุ: เนื้อหาได้รับการแปลโดย AI และตรวจสอบโดยมนุษย์ หากมีข้อผิดพลาดโปรดแจ้ง
☕ สนับสนุนค่ากาแฟทีมงาน
หากคุณชอบบทความนี้ สามารถสนับสนุนเราได้ผ่าน PromptPay
本文来自网络搜集,不代表คลื่นสร้างอนาคต立场,如有侵权,联系删除。转载请注明出处:http://www.itsolotime.com/th/archives/23255
