searchresults
2026-03-25
01:11

TAO ขึ้นราคา 94.9% ในช่วงหนึ่งเดือนที่ผ่านมา Bittensor ทำให้สำเร็จการฝึกอบรม LLM แบบไม่มีศูนย์กลางที่ใหญ่ที่สุดในประวัติศาสตร์

TAO ราคาเพิ่มขึ้นอย่างต่อเนื่อง สูงชุดใหม่ที่ 337.84 ดอลลาร์ โดยมีการปรับตัวขึ้น 13.6% ในรอบ 24 ชั่วโมง นักลงทุนชื่อดัง Jason Calacanis แสดงความเชื่อมั่นใน TAO และได้ลงทุนในโครงการระบบนิเวศของ TAO Bittensor subnet เสร็จสิ้นการฝึกล่วงหน้าขั้นสำคัญ ซึ่งพิสูจน์ถึงความสามารถในการประยุกต์ใช้จริง
liveNews.More
TAO-0.49%
BTC1.68%
05:03

a16z: AI Agents Challenge Internet Advertising Logic, Global Online Advertising Market Size Reaches $291 Billion in 2025

ข่าว Gate News เมื่อวันที่ 23 มีนาคม ข้อมูลจาก Mordor Intelligence แสดงว่าขนาดตลาดโฆษณาออนไลน์ทั่วโลกในปี 2025 อยู่ที่ประมาณ 2910 ล้านดอลลาร์ นำโดย Google เป็นหลัก a16z ชี้ให้เห็นว่าตั้งแต่ปี 1997 ถึง 2024 แบบธุรกิจอินเทอร์เนต็ตหลักคือการสร้างรายได้จากการจับส่วนหนึ่งของความสนใจของผู้ใช้ผ่านโฆษณา อย่างไรก็ตาม Large Language Model (LLM) และ AI Agent จะไม่ถูกรบกวนจากโฆษณา ตรรมชาติทางตรรกะพื้นฐานของ 'การกระจายความสนใจ' แบบดั้งเดิมจึงไม่ใช้ได้อีกต่อไป
liveNews.More
13:08

Tether เปิดตัวกรอบงาน BitNet LoRA รองรับการฝึกอบรมโมเดลขนาดใหญ่บนมือถือ

Gate News ข่าวสาร วันที่ 17 มีนาคม QVAC Fabric ของ Tether ได้เปิดตัวเฟรมเวิร์ก LoRA ปรับแต่งข้ามแพลตฟอร์มระดับโลกแรกสำหรับ Microsoft BitNet (LLM หนึ่งบิต) ซึ่งลดเกณฑ์หน่วยความจำ GPU และกำลังการคำนวณของการฝึกโมเดลขนาดใหญ่อย่างมาก เฟรมเวิร์กนี้รองรับการปรับแต่ง LoRA และการเร่งความเร็วการอนุมานบน Intel, AMD, Apple Silicon M Series และ GPU มือถือ (รวม Adreno, Mali, Apple Bionic)
liveNews.More
07:09

Sentry ผู้ร่วมก่อตั้งตั้งข้อสงสัยว่า LLM ทำให้ความเร็วในการพัฒนาช้าลง กล่าวว่า OpenClaw สร้างโค้ดมากเกินไปจนยากที่จะช่วยตัวเอง

Sentry ผู้ร่วมก่อตั้ง David Cramer กล่าวว่า โมเดลภาษาขนาดใหญ่ไม่ได้เพิ่มประสิทธิผลการผลิต แต่กลับนำไปสู่การสร้างโค้ดที่ซับซ้อน ซึ่งทำให้ความเร็วในการพัฒนาช้าลง เขาตั้งคำถามต่อวิธีการสร้างโค้ดโดยอัตโนมัติ โดยเชื่อว่าคุณภาพของผลผลิตต่ำกว่า โดยเฉพาะอย่างยิ่งในด้านการพัฒนาแบบเพิ่มเติมและความสม่ำเสมอของสไตล์ เขากล่าวบนพื้นฐานของประสบการณ์ส่วนตัวว่า การสร้างซอฟต์แวร์ยังคงเป็นเรื่องที่ยาก และการเปลี่ยนแปลงในการรับรู้ทางจิตใจได้ส่งผลกระทบต่อการมีส่วนสนับสนุนของเขา
liveNews.More
11:02

สถาบันสารสนเทศและการสื่อสารของจีนร่วมกับมหาวิทยาลัยค้นพบและแก้ไขช่องโหว่การฉีดคำสั่ง OpenClaw ที่มีความเสี่ยงสูง

สถาบันการสื่อสารและเทคโนโลยีของจีนร่วมกับทีมมหาวิทยาลัยตรวจสอบเฟรมเวิร์กโอเพนซอร์ส OpenClaw พบว่ามีช่องโหว่การฉีดคำสั่งที่ขับเคลื่อนด้วย LLM ในโมดูล bash-tools ซึ่งผู้โจมตีสามารถล่อลวงให้เกิดการรันคำสั่งและรันโค้ดระยะไกล รวมถึงขโมยข้อมูลได้ กระบวนการเปิดเผยช่องโหว่ได้เริ่มต้นขึ้นแล้วและได้ยื่นข้อเสนอแนะเพื่อการแก้ไขเรียบร้อยแล้ว
liveNews.More
09:32

AMI Labs ผู้ร่วมก่อตั้ง Xie Saining: LLM ในระดับหนึ่งคือ "ต่อต้าน Bitter Lesson" โมเดลโลกคืออนาคต

เซียซัยหนิง ในการสัมภาษณ์ได้วิพากษ์วิจารณ์เส้นทางการพัฒนา AI ปัจจุบันที่มุ่งเน้นไปที่โมเดลภาษาขนาดใหญ่ โดยเชื่อว่าสิ่งนี้ได้จำกัดความสามารถของ AI ในการเรียนรู้จากโลกแห่งความจริง และเน้นย้ำถึงข้อดีของโมเดลโลก เขาคิดว่าการสร้างตัวแทนอัจฉริยะที่สามารถอยู่รอดในสภาพจริงถือเป็นเรื่องท้าทายมากขึ้น และกล่าวถึง AMII Labs ที่มุ่งเน้นไปที่การเก็บรวบรวมข้อมูลจริง พร้อมแผนการเปิดตัวแว่นตา AI อัจฉริยะและหุ่นยนต์ในอนาคต
liveNews.More
06:07

Bittensor ซับเน็ต เสร็จสิ้นการฝึกอบรมล่วงหน้า LLM ขนาด 720 พันล้านพารามิเตอร์ TAO เพิ่มขึ้น 54.8% ในอีกสองสัปดาห์

Bittensor subnet Templar เสร็จสิ้นการ pre-training สำหรับ Covenant-72B ซึ่งเป็นโมเดลภาษาแบบกระจายศูนย์กลางที่มีพารามิเตอร์ 720 ล้าน เมื่อวันที่ 10 มีนาคม โมเดลนี้แสดงประสิทธิภาพที่ยอดเยี่ยมในการทดสอบ MMLU และเกินกว่าโมเดล baseline แบบรวมศูนย์หลายตัว โครงการดังกล่าวได้รับความร่วมมือจากโหนดมากกว่า 70 ตัว และน้ำหนักและ checkpoint ทั้งหมดได้รับการเผยแพร่ภายใต้ใบอนุญาต Apache ภายใต้อิทธิพลของข่าวนี้ Bittensor และโทเคนของมันเพิ่มขึ้นอย่างเป็นทั่วไป
liveNews.More
TAO-0.49%
08:37

OpenClaw เปิดตัวเวอร์ชัน v2026.3.8 เพิ่ม CLI สำรองข้อมูลในเครื่อง, การตั้งค่าการพูดคุยแบบเงียบและโหมดบริบทของ Brave สำหรับการค้นหา LLM

OpenClaw ในวันที่ 8 มีนาคมได้ปล่อยเวอร์ชัน v2026.3.8 ซึ่งเพิ่มฟีเจอร์สำรองสถานะในเครื่อง, โหมดพูดคุยอัตโนมัติ, และโหมด LLM Context สำหรับการค้นหาเว็บ Brave รวมถึงแก้ไขปัญหาหลายรายการ มีผู้ร่วมพัฒนาทั้งสิ้น 43 คน
liveNews.More
03:37

ETH Zurich ทดสอบความสามารถในการเห็นด้วยของ AI Agent บนบล็อกเชน: อัตราความสำเร็จเพียง 41.6%

ทีมวิจัยจาก ETH Zurich ได้ทดสอบความสามารถในการให้ฉันทามติแบบบาเชียนของ LLM Agent พบว่าแม้จะไม่มีโหนดที่เป็นอันตราย อัตราการให้ฉันทามติที่มีประสิทธิภาพก็เพียง 41.6% เท่านั้น เมื่อจำนวนโหนดเพิ่มขึ้น ความยากในการบรรลุฉันทามติจะเพิ่มขึ้น และเมื่อมีโหนดที่เป็นอันตรายเข้ามา สถานการณ์ก็แย่ลง ผลการวิจัยชี้ให้เห็นว่าในปัจจุบัน LLM Agent ยังไม่สามารถให้ฉันทามติที่เชื่อถือได้ ควรระมัดระวังในการนำไปใช้ในระบบแบบกระจายอำนาจ
liveNews.More
ETH2.17%
03:07

Andrej Karpathy เปิดโครงการ autoresearch แบบโอเพ่นซอร์ส, AI ทำงานอัตโนมัติรันการทดลองฝึก LLM กว่าร้อยครั้ง

ผู้ก่อตั้ง Eureka Labs Andrej Karpathy เปิดตัวโครงการโอเพ่นซอร์ส autoresearch เมื่อวันที่ 8 มีนาคม โดยใช้รูปแบบ「มนุษย์เขียน Markdown, AI เขียนโค้ด」 ซึ่งอนุญาตให้นักพัฒนากำหนดทิศทางการวิจัยผ่าน program.md และ AI จะทำการปรับปรุงโค้ดโดยอัตโนมัติ สามารถทำการทดลองประมาณ 12 ครั้งต่อชั่วโมง ในการแสดงผลมีการทดลองทั้งหมด 83 ครั้ง โดยมีการปรับปรุงที่มีประสิทธิภาพ 15 ครั้ง โครงการนี้สร้างบน GPU ของ NVIDIA และ PyTorch ได้รับการทดสอบบน H100 และปฏิบัติตามข้อตกลง MIT
liveNews.More