ศึก Anthropic Code Mode กับ MCP Vs CLI: เครื่องมือคุม Runtime และลด tokens จาก 150K เหลือ 2K

ChainNewsAbmedia

ตลอดทั้งปี 2025 ชุมชนวิศวกรรม AI ถกเถียงไม่จบในประเด็นว่า “MCP vs CLI” แบบไหนเหมาะกับการเรียกใช้งานเครื่องมือของ Agent มากกว่าจนกระทั่งงานวิจัยของ Anthropic ที่ตีพิมพ์ในเดือนพฤศจิกายน 2025 เรื่อง “Code execution with MCP” ได้กำหนดนิยามปัญหาขึ้นใหม่จากหลักการพื้นฐานที่สุด akshay_pachaar 5/10 สรุปไว้ใน thread ว่า ปัญหาไม่ได้อยู่ที่ “ตัวโปรโตคอล” เอง แต่คือ “นิสัยเก่าๆ ที่ยัดคำอธิบายเครื่องมือทั้งหมดเข้าไปใน context ตั้งแต่เริ่ม session” โดยวิธีของ Anthropic คือให้โมเดลเขียนโค้ดเพื่อเรียกเครื่องมือ ส่วน runtime เป็นผู้จัดการรายละเอียดเครื่องมือแทน รูปแบบใหม่นี้เรียกว่า “Code Mode”

ปัญหาของโหมดเดิม: ใน 150K tokens โมเดลใช้ไม่มากนัก

โครงสร้างที่สูญเปล่าในโหมด MCP แบบเดิม:

Playwright MCP: 13.7K tokens (ยัดให้เต็มครั้งเดียว)

Chrome DevTools MCP: 18K tokens

ตั้งค่า 5 server: ยังไม่ทันเริ่มทำงานก็เผา 55K tokens แล้ว

รัน workflow เดียวแบบครบทุกขั้น: อาจพองไปถึง 150K tokens

โมเดลใช้งานจริง: เกือบทั้งหมดกลับใช้ไม่ได้

ฝ่ายที่วิจารณ์โต้ว่าให้หันไปใช้ CLI แต่ CLI ในแอปแบบหลายผู้เช่า (multi-tenant) มักพลาดได้ง่าย ไม่มี typed contract และ agent ต้องวนแปลผลเป็นข้อความเมื่อไม่คุ้นกับ API ทั้งสองฝ่ายต่างก็มีเหตุผล แต่ต่างฝ่ายก็ชี้เป้าปัญหาผิด

ทางออก: ให้โมเดลเขียนโค้ดเรียกเครื่องมือ แทนที่จะเรียกจาก context โดยตรง

แก่นของ “Code Mode” ที่ Anthropic เสนอ:

พลิกบทบาทของโมเดล: ไม่ใช่โมเดลเรียกเครื่องมือผ่าน context แต่เป็นโมเดลเขียนโค้ด และ runtime เป็นผู้เรียกเครื่องมือ

เครื่องมืออยู่ใน runtime เท่านั้น โมเดลเห็นแค่ส่วนที่ตน import

type วิ่งตาม import: โมเดล import เครื่องมือไหนก็จะได้ typed contract ของเครื่องมือนั้น

เรียกผ่าน Bash ไปยังไบนารีที่ติดตั้งอยู่ (git, curl ฯลฯ)

ใช้ typed module imports เพื่อเรียก API เฉพาะทาง

ตัวอย่างของ Anthropic: สตรีมบันทึกข้อความจาก Google Drive ไหลเข้ามาปรับปรุง Salesforce CRM วิธีเดิมคือโหลด schema ของเครื่องมือทั้งสอง แล้วส่งบันทึกข้อความทั้งช่วงให้โมเดลประมวลผล 2 รอบ; วิธีใหม่ใช้ TypeScript แค่ 10 บรรทัด โดย import เฉพาะที่ต้องใช้ และงานเดียวกันจากเดิม 150K tokens ถูกลดลงเหลือ 2K tokens ลดลง 98.7%

Cloudflare ดันไปสุดทาง: 2,500 endpoint API จาก 1.17M tokens เหลือ 1K

Cloudflare ทำเวอร์ชันที่ก้าวร้าวที่สุด:

ขนาด API ดั้งเดิม: 2,500 endpoint และ schema รวม 1.17M tokens

วิธีใหม่: เปิดเผยแค่ฟังก์ชัน 2 ตัว search และ execute รวม 1K tokens

ให้ agent เขียนโค้ดก่อนใช้ search เพื่อดูไดเรกทอรีเครื่องมือ แล้วค่อยใช้ execute เพื่อเรียกเครื่องมือที่ตรงกัน

อัตราการบีบอัด: มากกว่า 1,000 เท่า

คำกล่าว “MCP ตายแล้ว” ไม่ถูกต้อง—Anthropic เผยยอดดาวน์โหลด MCP SDK อยู่ที่ 300 ล้าน และต้นปีอยู่ที่ 100 ล้าน ซึ่งเป็นหนึ่งในโครงสร้างพื้นฐานสำหรับ Agent ที่โตเร็วที่สุดในเวลานี้ สิ่งที่ “ตาย” คือการเขียนแบบ “โหลดเครื่องมือทั้งหมดครั้งเดียวตอนเริ่ม session” และนั่นแหละคือความคิดที่ไม่ดีอยู่แล้ว สำหรับนักพัฒนา Agent ในปี 2026 กฎเรียบง่าย: คำจำกัดความของเครื่องมือเป็นของ code ไม่ใช่ของ context; โมเดลเขียนกี่บรรทัดโค้ดเพื่อเรียกใช้งานก็ให้ runtime จัดการส่วนที่เหลือ

เหตุการณ์ที่ติดตามต่อได้แบบเจาะจง: ความเร็วที่ยอดดาวน์โหลด MCP SDK จาก 300 ล้านยังเพิ่มขึ้นต่อเนื่อง, Anthropic จะทำให้ Code Mode กลายเป็นโหมดแนะนำอย่างเป็นทางการตามข้อกำหนดของ MCP หรือไม่ และความคืบหน้าการนำ Code Mode ไปใช้ของแพลตฟอร์ม Agent อื่นๆ เช่น OpenAI, Google, Cursor

บทความนี้เกี่ยวกับว่า Anthropic Code Mode ชนะความขัดแย้ง MCP vs CLI อย่างไร: เครื่องมืออยู่ใน runtime และ tokens จาก 150K ถูกบีบเหลือ 2K ซึ่งปรากฏครั้งแรกใน 鏈新聞 ABMedia

news.article.disclaimer
แสดงความคิดเห็น
0/400
ไม่มีความคิดเห็น