
Vitalik Buterin เสนอกรอบสถาปัตยกรรมสำหรับการใช้งาน AI แบบรันในเครื่อง โดยเน้นความเป็นส่วนตัว ความปลอดภัย และอำนาจอธิปไตยของตนเอง พร้อมเตือนถึงความเสี่ยงที่อาจเกิดขึ้นจาก AI Agent
ผู้ก่อตั้ง Ethereum อย่าง Vitalik Buterin เมื่อวันที่ 2 เมษายน ได้เผยแพร่บทความยาวบนเว็บไซต์ส่วนตัว โดยแบ่งปันสภาพแวดล้อมการทำงานด้าน AI ที่เขาสร้างขึ้นโดยยึดความเป็นส่วนตัว ความปลอดภัย และอำนาจอธิปไตยของตนเองเป็นหลัก—การอนุมานของ LLM ทั้งหมดทำงานในเครื่อง การจัดเก็บไฟล์ทั้งหมดเก็บไว้ในเครื่อง และระบบถูกแซนด์บ็อกซ์อย่างครอบคลุม โดยตั้งใจหลีกเลี่ยงโมเดลบนคลาวด์และ API ภายนอก
ตอนต้นบทความ เขาเตือนก่อนว่า:「โปรดอย่าเพียงคัดลอกเครื่องมือและเทคโนโลยีที่บทความนี้บรรยาย แล้วสมมติว่ามันปลอดภัย นี่เป็นเพียงจุดเริ่มต้น ไม่ใช่คำอธิบายของงานที่เสร็จสมบูรณ์」
ทำไมถึงเขียนบทความนี้ตอนนี้? ปัญหาความปลอดภัยของ AI agent ถูกประเมินต่ำเกินไป
Vitalik ชี้ให้เห็นว่า ในช่วงต้นปีนี้ AI ได้เปลี่ยนผ่านสำคัญจาก「แชตบอต」ไปสู่「agent」—คุณไม่ได้แค่ถามคำถามอีกต่อไป แต่เป็นการมอบหมายงาน ทำให้ AI คิดเป็นเวลานาน เรียกใช้เครื่องมือหลายร้อยชิ้นเพื่อทำงาน เขายกตัวอย่าง OpenClaw (ซึ่งในตอนนี้เป็น repo ที่เติบโตเร็วที่สุดในประวัติ GitHub) และยังระบุถึงประเด็นความปลอดภัยหลายข้อที่นักวิจัยได้บันทึกไว้ด้วย:
- AI agent สามารถแก้ไขการตั้งค่าที่สำคัญได้โดยไม่จำเป็นต้องมีการยืนยันจากมนุษย์ รวมถึงการเพิ่มช่องทางการสื่อสารใหม่ และการแก้ไข system prompt
- การประมวลผลอินพุตภายนอกที่เป็นอันตรายใด ๆ (เช่น เว็บไซต์ที่เป็นอันตราย) อาจทำให้ agent ถูกควบคุมโดยสมบูรณ์ได้ ในเดโมครั้งหนึ่งของ HiddenLayer นักวิจัยให้ AI สรุปชุดหนึ่งของหน้าเว็บ ซึ่งมีหน้าเว็บที่สั่งให้ agent ดาวน์โหลดและรันสคริปต์ shell แฝงอยู่
- ชุดทักษะของบุคคลที่สามบางส่วน (skills) อาจรั่วไหลข้อมูลแบบเงียบ ๆ โดยใช้คำสั่ง curl เพื่อส่งข้อมูลไปยังเซิร์ฟเวอร์ภายนอกที่ผู้เขียนทักษะควบคุม
- ในชุดทักษะที่พวกเขาวิเคราะห์ ประมาณ 15% มีคำสั่งที่เป็นอันตราย
Vitalik เน้นย้ำว่า จุดยืนของเขาเกี่ยวกับความเป็นส่วนตัวแตกต่างจากนักวิจัยความปลอดภัยทางไซเบอร์แบบดั้งเดิม:「ฉันมาจากมุมมองที่รู้สึกหวาดกลัวอย่างลึกซึ้งต่อการที่เอาชีวิตส่วนตัวทั้งหมดของฉันไปป้อนให้ AI บนคลาวด์—ตรงเวลาที่การเข้ารหัสแบบ end-to-end และซอฟต์แวร์ที่ให้ความสำคัญกับการทำงานในเครื่องในที่สุดก็กลายเป็นกระแสหลัก เราอาจกำลังถอยหลังไปสิบก้าว」
เป้าหมายความปลอดภัยห้าประการ
เขากำหนดกรอบเป้าหมายความปลอดภัยไว้อย่างชัดเจน:
- ความเป็นส่วนตัวของ LLM: ในสถานการณ์ที่เกี่ยวข้องกับข้อมูลส่วนบุคคล ให้ลดการใช้โมเดลบนระยะไกลให้มากที่สุด
- ความเป็นส่วนตัวอื่น ๆ: ลดการรั่วไหลของข้อมูลที่ไม่ใช่ LLM ให้เหลือน้อยที่สุด (เช่น คำค้นหา ข้อมูลผ่าน API ออนไลน์อื่น ๆ)
- การหลุดออกจาก LLM (LLM jailbreak): ป้องกันไม่ให้คอนเทนต์ภายนอก「เจาะเข้ามา」ใน LLM ของฉัน ทำให้มันฝ่าฝืนผลประโยชน์ของฉัน (เช่น การส่งโทเคนของฉัน หรือข้อมูลส่วนตัวของฉัน)
- LLM ที่ไม่คาดคิด: ป้องกันไม่ให้ LLM ส่งข้อมูลส่วนตัวไปยังช่องทางที่ผิด หรือเปิดเผยต่อสาธารณะบนอินเทอร์เน็ตโดยไม่ตั้งใจ
- LLM backdoor: ป้องกันกลไกที่ซ่อนอยู่ซึ่งถูกฝึกให้เข้าไปในโมเดลโดยเจตนา เขาเตือนเป็นพิเศษว่า: โมเดลแบบเปิดคือการเปิดน้ำหนัก (open-weights) และแทบไม่มีโมเดลไหนที่เป็นซอร์สโค้ดแบบเปิดจริง (open-source)
ตัวเลือกฮาร์ดแวร์: แล็ปท็อป 5090 ชนะ DGX Spark ทำได้ไม่ดีเท่าที่คาดหวัง
Vitalik ทดสอบการตั้งค่าฮาร์ดแวร์สำหรับการอนุมานภายในเครื่องสามแบบ โดยใช้ Qwen3.5:35B เป็นหลัก ประกอบกับ llama-server และ llama-swap:
| ฮาร์ดแวร์ |
Qwen3.5 35B(tokens/sec) |
Qwen3.5 122B(tokens/sec) |
| NVIDIA 5090 แล็ปท็อป(24GB VRAM) |
90 |
รันไม่ได้ |
| AMD Ryzen AI Max Pro(128GB หน่วยความจำแบบรวม/Vulkan) |
51 |
18 |
| DGX Spark(128GB) |
60 |
22 |
ข้อสรุปของเขาคือ: ต่ำกว่า 50 tok/sec ช้าเกินไป 90 tok/sec คือเหมาะที่สุด ประสบการณ์บน NVIDIA 5090 แล็ปท็อปลื่นไหลที่สุด; ตอนนี้ AMD ยังมีปัญหาขอบเขตมากกว่า แต่มีแนวโน้มจะดีขึ้นในอนาคต แม้เครื่อง MacBook ระดับสูงก็เป็นตัวเลือกที่ใช้ได้เหมือนกัน แต่ส่วนตัวเขายังไม่ได้ลองด้วยตัวเอง
เกี่ยวกับ DGX Spark เขาพูดตรง ๆ แบบไม่เกรงใจว่า:「ถูกบรรยายว่าเป็น ‘ซูเปอร์คอมพิวเตอร์ AI สำหรับเดสก์ท็อป’ แต่ในความเป็นจริง tokens/sec ต่ำกว่า GPU ของแล็ปท็อปที่ดีกว่า และยังต้องไปจัดการรายละเอียดเพิ่มเติม เช่น การเชื่อมต่อเครือข่าย—นี่มันแย่มาก」 คำแนะนำของเขาคือ: หากจ่ายไม่ไหวสำหรับแล็ปท็อประดับสูง ก็ให้ร่วมกันซื้อเครื่องที่ทรงพอในหมู่เพื่อน นำไปวางในสถานที่ที่มี IP แบบคงที่ แล้วทุกคนใช้การเชื่อมต่อระยะไกลใช้งาน
ทำไมปัญหาความเป็นส่วนตัวของ AI แบบรันในเครื่องถึงเร่งด่วนยิ่งกว่าที่คุณคิด
บทความของ Vitalik นี้สอดคล้องกับประเด็นที่น่าติดตามกับการหารือเรื่องความปลอดภัยของ Claude Code ที่เปิดตัวในวันเดียวกัน—เมื่อ AI agent เข้าสู่เวิร์กโฟลว์การพัฒนาในชีวิตประจำวัน ปัญหาความปลอดภัยก็เริ่มเปลี่ยนจากความเสี่ยงเชิงทฤษฎีไปสู่ภัยคุกคามที่เป็นจริง
สาระสำคัญของเขาชัดเจนมาก: ในช่วงที่เครื่องมือ AI แข็งแกร่งขึ้นเรื่อย ๆ และยิ่งสามารถเข้าถึงข้อมูลส่วนบุคคลและสิทธิ์ในระบบของคุณได้มากขึ้นเรื่อย ๆ,「การทำงานในเครื่องก่อน, การแซนด์บ็อกซ์, และความไว้ใจขั้นต่ำ」ไม่ใช่ความหวาดระแวง แต่เป็นจุดเริ่มต้นที่มีเหตุผล
- บทความนี้ได้รับอนุญาตให้ทำการนำมาเผยแพร่ซ้ำจาก:《链新闻》
- ชื่อบทความต้นฉบับ:《Vitalik:ฉันสร้างสภาพแวดล้อมการทำงานของ AI แบบทำงานในเครื่องทั้งหมด เป็นส่วนตัว และควบคุมได้เองอย่างไร》
- ผู้เขียนบทความต้นฉบับ:Elponcrab
btc.bar.articles
Alphabet มองหาเงินกู้พันธบัตรมูลค่า 10.5 พันล้านดอลลาร์สำหรับศูนย์ข้อมูล AI
ตามรายงานของ Bloomberg เมื่อวันที่ 6 พฤษภาคม Alphabet ได้เสนอขายพันธบัตรอย่างน้อย 10.5 พันล้านดอลลาร์ในสกุลยูโรและดอลลาร์แคนาดา เพื่อระดมทุนสำหรับการใช้จ่ายด้านศูนย์ข้อมูล AI การขายยูโรมีคำสั่งซื้อเกิน 29.5 พันล้านดอลลาร์สหรัฐใน 6 ช่วงการออก ขณะที่ข้อเสนอในดอลลาร์แคนาดาประกอบด้วย 4 ส่วน โดยมีอายุครบกำหนดตั้งแต่ 5 ถึง 30
GateNews1 นาที ที่แล้ว
ElevenLabs ทำสถิติ $500M ARR ในช่วง 4 เดือนแรกของปี 2026
ตามรายงานของ The Economic Times, ElevenLabs สตาร์ทอัพด้าน AI เสียงที่ตั้งอยู่ในนิวยอร์กและลอนดอน กล่าวว่ารายได้ประจำต่อปี (annual recurring revenue) ผ่าน 500 ล้านดอลลาร์ ในช่วง 4 เดือนแรกของปี 2026 โดยบริษัทได้เพิ่มเงินทุนที่ไม่เปิดเผยรายละเอียดสำหรับการระดมทุน Series ที่ดำเนินอยู่
GateNews1 นาที ที่แล้ว
Accel นำรอบ $60M Series A สำหรับสตาร์ทอัพ AI ด้านอีคอมเมิร์ซของอิสราเอล ZyG ที่มูลค่า $500M
ตามรายงานของ Calcalist สตาร์ทอัพ AI สำหรับอีคอมเมิร์ซจากอิสราเอล ZyG ระดมทุนได้ 60 ล้านดอลลาร์สหรัฐในรอบ Series A โดยมี Accel เป็นผู้ร่วมปล่อยที่มูลค่า 500 ล้านดอลลาร์สหรัฐ การระดมทุนครั้งนี้ทำให้ ZyG มียอดเงินทุนที่ระดมได้ทั้งหมด 118 ล้านดอลลาร์สหรัฐ โดยมี Lightspeed, Viola, Bessemer, Access Industries และ Assaf ซีอีโอของ Wiz เข้าร่วม
GateNews11 นาที ที่แล้ว
การติดตั้งแบบเงียบผ่าน Chrome ของโมเดล Gemini Nano ขนาด 4GB: นักวิจัยเผยว่ามีการใช้งานโดยไม่ได้รับความยินยอม ซึ่งอาจขัดต่อกฎหมายความเป็นส่วนตัวของสหภาพยุโรป
Chrome ระหว่างวันที่ 20/4 ถึง 29/4/2026 โดยไม่ได้รับความยินยอมจากผู้ใช้ ได้ทำการติดตั้งแบบเงียบๆ ของโมเดล Gemini Nano สำหรับอุปกรณ์ราว 4GB (weights.bin, OptGuideOnDeviceModel) ไม่มีตัวเลือก opt-in/opt-out เมื่อผู้ใช้ลบออกแล้ว การอัปเดตจะดาวน์โหลดซ้ำโดยอัตโนมัติ ส่งผลกระทบต่อผู้ใช้มากกว่า 1,000,000,000 คน Gemini Nano เป็น LLM ที่ทำงานบนอุปกรณ์ ขณะที่ AI Mode ทำหน้าที่เป็นช่องทางจากระบบคลาวด์ ไม่ใช่โมเดลที่ทำงานในเครื่อง จึงอาจทำให้เกิดความเข้าใจผิดด้านความเป็นส่วนตัว การกระทำดังกล่าวอาจขัดต่อ EU ePrivacy 5(3) และอาจถูกปรับรวมถึงต้นทุนด้านการปล่อยคาร์บอน สามารถป้องกันได้ผ่านเครื่องมือบริหารจัดการสำหรับองค์กร (Enterprise)
ChainNewsAbmedia26 นาที ที่แล้ว
AMD คาดการณ์รายได้ไตรมาส 2 ที่ 11.2 พันล้านดอลลาร์ สูงกว่าคาดการณ์จากความต้องการด้าน AI
ตามรายงานของ Reuters Advanced Micro Devices คาดการณ์รายได้ไตรมาส 2 อยู่ที่ประมาณ 11.2 พันล้านดอลลาร์ บวกหรือลบ 300 ล้านดอลลาร์ โดยสูงกว่าที่วอลล์สตรีทคาดไว้ที่ 10.52 พันล้านดอลลาร์ จากความต้องการที่แข็งแกร่งสำหรับโครงสร้างพื้นฐานด้าน AI หุ้นของบริษัทผู้ผลิตชิปปรับขึ้น 12% หลังการประกาศ รายได้ไตรมาสแรก
GateNews31 นาที ที่แล้ว
AI ขับเคลื่อนความต้องการเซมิคอนดักเตอร์ ซัมซุงพุ่งขึ้น 12% มูลค่าทะลุ 1 ล้านล้านดอลลาร์สหรัฐ
ภายใต้ความต้องการโครงสร้างพื้นฐานด้าน AI ทำให้มูลค่าตลาดของ Samsung ทะลุ 1 ล้านล้านดอลลาร์ ราคาหุ้นปรับขึ้นมากในช่วงปีที่ผ่านมา ความต้องการหน่วยความจำแข็งแกร่ง ราคาของ NAND/DRAM ปรับตัวสูงขึ้น และคาดว่าในปี 2027 อุปทานและดีมานด์จะยิ่งตึงตัวมากขึ้น มีรายงานว่า Apple กำลังพิจารณาจ้างผลิตชิปแกนหลักในสหรัฐฯ หากทำได้จะช่วยขยายความหลากหลายของห่วงโซ่อุปทาน ขณะที่ต้องเผชิญแรงกดดันด้านต้นทุนของมือถือและจอแสดงผล รวมถึงความเสี่ยงด้านแรงงาน-ค่าจ้าง Forward P/E อยู่ราว 5.3 เท่า นักวิเคราะห์คาดการณ์ว่ามีโอกาสปรับขึ้นใน 12 เดือนราว 30%
ChainNewsAbmedia38 นาที ที่แล้ว