การวิเคราะห์ของ Berkeley GEPA: ให้ AI เรียนรู้ภารกิจใหม่ได้โดยไม่ต้องอัปเดตน้ำหนัก พร้อมลดต้นทุนการฝึกลง 35 เท่าเมื่อเทียบกับ RL

ChainNewsAbmedia

ทีมวิจัยจากมหาวิทยาลัยแคลิฟอร์เนีย เบิร์กลีย์ เสนอวิธีฝึก AI แบบใหม่ชื่อ GEPA ซึ่งได้รับการตอบรับจาก ICLR 2026 ให้เป็นบทความ Oral แล้ว โดย GEPA ไม่อัปเดตค่าน้ำหนักโมเดล ไม่ต้องเทรนด้วย GPU ใช้ LLM เพียงตัวเดียวที่ “อ่านบันทึกการฝึก” แล้วค่อย ๆ เขียนใหม่พรอมป์ของระบบ AI ซ้ำไปซ้ำมา ก็สามารถทำให้เฉลี่ยชนะวิธีเสริมการเรียนรู้แบบเสริมแรงกระแสหลัก GRPO ได้ 6% และชนะได้สูงสุด 20% ใน 6 งาน พร้อมลดจำนวนครั้งที่ต้องลองฝึก (rollouts) ลง 35 เท่า งานนี้ถูกสรุปและนำไปอภิปรายในวงการ AI engineering จนเกิดกระแสบนแพลตฟอร์ม X และตอนนี้ได้ถูกรวมเข้าเป็นตัวเพิ่มประสิทธิภาพระดับ “ตัวเลือกแรก” ใน DSPy แล้ว

GEPA ทำอะไรอยู่: ใช้ “บันทึกการฝึก” เป็นบทเรียน ไม่ใช่ดูแค่คะแนน

เวิร์กโฟลว์ของแนวทางการเสริมการเรียนรู้แบบดั้งเดิม (เช่น GRPO) คือ ปล่อยให้ AI รันทำงานหนึ่งครั้ง แล้วให้คะแนนแบบ “+1 หรือ -1” ตามผล จากนั้นใช้คะแนนนี้เพื่อปรับค่าน้ำหนักโมเดลซ้ำ ๆ ปัญหาคือระหว่างที่ AI รันงานหนึ่งครั้ง กระบวนการมักมีขั้นตอนการให้เหตุผล (reasoning) นับพัน token การเรียกใช้เครื่องมือ ข้อความข้อผิดพลาด—รายละเอียดมากมายเหล่านี้ถูกย่อให้เหลือแค่ “คะแนน” เพียงค่าเดียว จึงทำให้ข้อมูลของกระบวนการหายไป ดังนั้น RL จึงต้องรันหลายหมื่นครั้งถึงจะค่อย ๆ เข้าใกล้ค่าที่เหมาะสม

แนวทางของ GEPA ตรงกันข้าม: ทุกครั้งที่ AI รันงานเสร็จ จะนำ “ทั้งกระบวนการ” (reasoning, การเรียกใช้เครื่องมือ, บันทึกข้อผิดพลาด) ส่งให้ “LLM สำหรับการทบทวน” อีกตัวหนึ่งอ่านซ้ำ LLM สำหรับการทบทวนทำหน้าที่เหมือนวิศวกรอาวุโสอ่าน log ของโปรแกรม หาให้เจ่าว่าขั้นตอนไหนผิด เพราะอะไรผิด และควรแก้พรอมป์ของโมดูลใด จากนั้นก็เขียนพรอมป์ของโมดูลนั้นใหม่เลย โดยที่ยังรันงานหนึ่งครั้งเหมือนเดิม แต่ GEPA ดึงสัญญาณข้อมูลได้มากกว่าคะแนนเดี่ยวของ RL อย่างชัดเจน

ทำไมถึงชนะ: เปลี่ยนจาก “การให้คะแนน” เป็น “การอ่านทั้งกระบวนการ”

GEPA ทำได้ดีกว่า GRPO ใน 6 งาน โดยเฉลี่ยชนะ 6% และชนะสูงสุด 20% ขณะที่เมื่อเทียบกับตัวเพิ่มประสิทธิภาพพรอมป์อีกรายอย่าง MIPROv2 ก็ชนะได้มากกว่า 10% (บนเกณฑ์คณิตศาสตร์ AIME-2025 เพิ่มขึ้น 12%) จุดสำคัญที่สุดคือ “ต้นทุนการฝึก”: GEPA ต้องใช้จำนวน rollouts (การรันงานแบบครบหนึ่งครั้ง) เพื่อให้ได้ประสิทธิภาพเท่ากันน้อยกว่า 35 เท่า

อีกชุดข้อมูลคือ หลังจากรวม GEPA เข้ากับ DSPy แล้ว “Full Program Adapter” ทำให้สามารถปรับให้เหมาะกับทั้งโปรแกรมของ DSPy ได้ (รวมถึง signature, โมดูล และ control flow) โดยทำคะแนนได้ 93% ความแม่นยำในเกณฑ์ MATH ซึ่งสูงกว่ารูปแบบ ChainOfThought ที่เขียนโดย DSPy เดิมถึงมาก และได้เพียง 67% เท่านั้น GEPA ยังเด่นเป็นพิเศษในเวิร์กโฟลว์แบบ multi-module (ตัวแทน AI ที่เชื่อมต่อหลายโมดูล) โดยสามารถระบุ “โมดูลที่ทำให้ผิด” แล้วเขียนพรอมป์ของโมดูลนั้นใหม่ได้อย่างแม่นยำ แทนที่จะต้องปรับทั้งระบบ

ใครจะนำไปใช้ก่อน: DSPy คนเป็นพลเมืองชั้นหนึ่ง และ GitHub เปิดซอร์สแล้ว

โค้ดของ GEPA เปิดเผยบน GitHub และถูกรวมเข้าในเฟรมเวิร์ก DSPy ในรูปแบบ dspy.GEPA อีกทั้งยังเผยแพร่แยกต่างหากในฐานะไลบรารีของ Python ทีมวิจัยมาจากหลายสถาบันตั้งแต่ UC Berkeley, Stanford, Notre Dame, ไปจนถึง Anthropic โดยผู้เขียนบทความประกอบด้วย Matei Zaharia (ผู้ร่วมก่อตั้ง Databricks และผู้เขียนหลักของ DSPy) และ Omar Khattab (ผู้เขียนหลักของ DSPy)

สำหรับชุมชนนักพัฒนา GEPA มอบแนวทางใหม่สำหรับ “ทีมที่มี rollout จำนวนมากแต่ไม่รู้จะใช้ให้เกิดประโยชน์อย่างเป็นระบบอย่างไร”—หลายทีมสะสมบันทึกการรันงานของ agent ไปแล้วนับพันถึงหมื่นครั้ง แต่มีเพียงการพลิกดูไม่กี่บรรทัดเมื่อเกิดข้อผิดพลาดเพื่อไล่แก้บั๊ก ไม่ได้มีวิธีเชิงระบบที่จะแปลงบันทึกเหล่านี้ให้กลายเป็นการปรับปรุงโมเดล จุดสังเกตถัดไปคือการนำ GEPA ไปใช้ในเคสจริงของเวิร์กโฟลว์ agent แบบองค์กร (เช่นระบบบริการลูกค้าอัตโนมัติ, การซ่อมแซมโค้ดอัตโนมัติ) ว่าจะเกิดขึ้นอย่างไร และจะมีการทำ GEPA เวอร์ชันที่สอดคล้องกันนอกเหนือจากเฟรมเวิร์ก DSPy หรือไม่

บทความ Berkeley GEPA 解析: ไม่อัปเดตค่าน้ำหนักก็ทำให้ AI เรียนรู้ภารกิจใหม่ได้ พร้อมต้นทุนฝึกที่น้อยลง 35 เท่า เอาชนะ RL และมีการรายงานครั้งแรกใน Chain News ของ ABMedia

news.article.disclaimer

btc.bar.articles

Karpathy เผยตัวเต็ม: วิธีการสร้างคลังความรู้ส่วนบุคคลด้วย LLM อย่างครบถ้วน

สมาชิกผู้ก่อตั้งทีมของ OpenAI และอดีตหัวหน้าฝ่าย AI ของ Tesla Andrej Karpathy ได้โพสต์บน X เกี่ยวกับเวิร์กโฟลว์ “LLM Knowledge Bases” โดยอธิบายว่าเขาเพิ่งเปลี่ยนการใช้ token จำนวนมากจาก “การควบคุมโค้ด” ไปเป็น “การควบคุมความรู้” — ใช้ LLM เพื่อรวบรวมงานวิจัย บทความ โฟลเดอร์ เอกสาร ภาพ และข้อมูลที่กระจัดกระจายให้กลายเป็นไคลบ์ส่วนตัว (wiki) ที่ดูแลและอัปเดตได้เองโดยอัตโนมัติ ทั้งกระบวนการนี้สะสมในโปรเจกต์งานวิจัยของเขาเองแล้วราว ~100 บทความ, ~400,000 คำ และตลอดทั้งวงจรเขียนและอัปเดตโดย LLM บทความนี้สรุปการตั้งค่าครบทั้งหมดของ Karpathy และให้เช็กลิสต์ที่นำไปทำตามได้สำหรับนักพัฒนาที่อยากคัดลอก แนวคิดหลัก: ข้อมูลดิบ → คอมไพล์ด้วย LLM → wiki → ถาม-ตอบ ปรัชญาการออกแบบของ Karpathy สรุปได้เป็นข้อหนึ่ง

ChainNewsAbmedia5 ชั่วโมง ที่แล้ว

K Wave Media ซึ่งเป็นบริษัทด้านการลงทุนของ Bitcoin ได้รับเงินสูงสุด $485M เพื่อสร้างโครงสร้างพื้นฐานสำหรับ AI

ตาม ChainCatcher บริษัท K Wave Media ซึ่งเป็นบริษัทด้านการถือครองบิตคอยน์ที่จดทะเบียนใน Nasdaq ประกาศเมื่อวันที่ 4 พฤษภาคมว่าจะปรับกลยุทธ์ไปสู่โครงสร้างพื้นฐานด้าน AI โดยได้รับการสนับสนุนเงินทุนสูงสุด 485 ล้านดอลลาร์สำหรับการลงทุนในศูนย์ข้อมูล บริการเช่า GPU และการเข้าซื้อกิจการด้านโครงสร้างพื้นฐาน AI รวมถึงความร่วมมือกับพันธมิตร บริษัท

GateNews6 ชั่วโมง ที่แล้ว

Antimatter เปิดตัวแผนศูนย์ข้อมูล AI พร้อมเงินทุน 300 ล้านยูโร

Antimatter ซึ่งเป็นบริษัทโครงสร้างพื้นฐานบนคลาวด์ในฝรั่งเศสสำหรับงานของ AI เปิดตัวเมื่อวันที่ 4 พฤษภาคม โดยการผสานรวม 3 บริษัทที่มีอยู่แล้ว ได้แก่ Datafactory, Policloud และ Hivenet บริษัทกำลังระดมทุน 300 ล้านยูโร (351 ล้านดอลลาร์สหรัฐ) เพื่อปรับใช้หน่วยไมโครดาต้าเซ็นเตอร์จำนวน 100 หน่วยภายในปี 2026 สำหรับการอนุมานของ AI

CryptoFrontier8 ชั่วโมง ที่แล้ว

กระทรวงศึกษาธิการ “ห้องสมุดมี AI” ใช้ ChatGPT และ Claude ฟรีในห้องสมุด! ดูเงื่อนไขเวลาและสถานที่ได้ครั้งเดียว

กระทรวงศึกษาธิการผลักดัน “ห้องสมุดมี AI” โดยตั้งแต่ไตรมาสที่ 4 ของปีนี้เป็นต้นไปที่หอสมุดแห่งชาติและห้องสมุดของรัฐอื่น ๆ จะติดตั้ง AI คอมพิวเตอร์ประจำห้อง 5 เครื่อง ประชาชนสามารถใช้ ChatGPT, Claude, Gemini และเครื่องมืออื่น ๆ ได้ฟรีด้วยบัตรสมาชิกห้องสมุด ช่วยลดช่องว่างการเข้าถึง AI แบบต้องชำระเงิน และขยายไปยังห้องสมุดมหาวิทยาลัยของรัฐ 47 แห่ง เงินทุนมาจากการระดมของสถานศึกษาหรือยื่นขอเงินอุดหนุน ขณะเดียวกันก็ต้องเอาชนะความท้าทายด้านช่วงเวลาการใช้งาน การจัดการบัญชี ความเป็นส่วนตัว และลิขสิทธิ์/การอนุญาต

ChainNewsAbmedia9 ชั่วโมง ที่แล้ว

เศรษฐศาสตร์ของนางแบบเสมือนด้วย AI: Aitana, Emily และการวิเคราะห์ระบบ Markdown 4 ชุด

มอเดลเสมือนที่ขับเคลื่อนด้วย AI จากการทดลองเป็นประเด็น ไปสู่การเป็นธุรกิจที่มีรายได้ต่อเดือนสูงถึงหลายหมื่นดอลลาร์ และทั้งสแต็กเทคโนโลยีเติบโตอย่างรวดเร็วภายใน 18 เดือน บทความนี้สรุป 3 กรณีตัวอย่างที่พบบ่อย ได้แก่ Aitana López (บาร์เซโลนา รายได้เดือนละ 10,000 ยูโร) ภายใต้ The Clueless, Emily Pellegrini (รายได้ต่อสัปดาห์ราว 1 หมื่นดอลลาร์) ที่สร้างโดยผู้สร้างนิรนาม และกรณีล่าสุดที่กำลังแพร่บนแพลตฟอร์ม X “Maya” — นักศึกษาจากเท็กซัสที่ถูกกล่าวว่าใช้ไฟล์ markdown 4 ไฟล์ในการประกอบบุคลิกภาพเสมือนด้วย AI และทำรายได้ 4.3 หมื่นดอลลาร์ในเดือนแรกจากบัญชี OnlyFans Aitana López: โมเดลเสมือนที่ The Clueless เป็นเจ้าของเอง รายได้สูงสุด 10,000 ยูโรต่อเดือน Aitana López เป็นชาวสเปน

ChainNewsAbmedia12 ชั่วโมง ที่แล้ว

TipTip มีกำไร EBITDA แล้ว หลัง AI ช่วยหนุนการจำหน่ายบัตรบันเทิง

แพลตฟอร์มความบันเทิงและประสบการณ์ของอินโดนีเซีย TipTip ประกาศเมื่อวันที่ 4 พฤษภาคมว่าได้บรรลุความสามารถในการทำกำไร EBITDA ทั่วทั้งบริษัทในช่วงต้นปี 2026 โดยได้รับแรงหนุนจากการควบคุมต้นทุนที่เข้มงวด เศรษฐศาสตร์หน่วยที่ดีขึ้น และความร่วมมือกับนักลงทุนรายใหญ่ East Ventures การเติบโตของการจำหน่ายบัตรความบันเทิง ความบันเทิงของ TipTip ที่

CryptoFrontier14 ชั่วโมง ที่แล้ว
แสดงความคิดเห็น
0/400
ไม่มีความคิดเห็น