โมเดลพารามิเตอร์ 100B แบบไม่เปิดเผยตัวตน ช้าง อยู่ในอันดับสองบนรายการแนวโน้มของ OpenRouter

ข้อความข่าว Gate วันที่ 15 เมษายน — โมเดล AI แบบไม่เปิดเผยตัวตนที่ชื่อว่า Elephant ได้ไต่ขึ้นสู่อันดับสองในรายการที่กำลังมาแรงของ OpenRouter โมเดลดังกล่าวมีพารามิเตอร์ 100 พันล้านตัว และรองรับหน้าต่างบริบทขนาด 256K โทเค็นสำหรับอินพุต และ 32K โทเค็นสำหรับเอาต์พุต

news.article.disclaimer

btc.bar.articles

วุฒิสมาชิก เบอร์นี แซนเดอร์ส ออกคำเตือนเกี่ยวกับภัยคุกคามเชิงดำรงอยู่ของ AI

แซนเดอร์สเน้นย้ำว่าแม้แต่นักวิทยาศาสตร์ด้าน AI ส่วนใหญ่จะยอมรับถึงความเป็นไปได้ที่ AI จะหลุดพ้นจากการควบคุมและกลายเป็นอันตรายต่อการดำรงอยู่ของเรา แต่ก็ยังไม่มีมาตรการสำคัญใดๆ ที่ถูกนำมาใช้เพื่อป้องกันมัน “เราต้องทำให้แน่ใจว่า AI เป็นประโยชน์ต่อมนุษยชาติ ไม่ใช่ทำร้ายเรา” เขากล่าว ประเด็นสำคัญที่ควรทราบ: เบอร์นี แซนเดอร์ส

Coinpedia7 นาที ที่แล้ว

ผู้รับผิดชอบโมเดลขนาดใหญ่ของ Xiaomi: การแข่งขันด้าน AI กำลังเข้าสู่ยุคของ Agent และการพัฒนาตัวเองคือเหตุการณ์สำคัญสู่ AGI

หัวหน้าทีมโมเดลขนาดใหญ่ของ Xiaomi คุณ Luo Fuli ให้สัมภาษณ์เชิงลึกบนแพลตฟอร์ม Bilibili เมื่อวันที่ 24 เมษายน (หมายเลขวิดีโอ: BV1iVoVBgERD) โดยมีความยาวในการสัมภาษณ์ 3.5 ชั่วโมง และถือเป็นครั้งแรกที่เธอในฐานะผู้รับผิดชอบด้านเทคโนโลยีได้อธิบายมุมมองทางเทคนิคอย่างเป็นระบบต่อสาธารณะ Luo Fuli กล่าวว่า การแข่งขันในสายงานโมเดลขนาดใหญ่ได้เปลี่ยนจากยุคของ Chat ไปสู่ยุคของ Agent แล้ว และชี้ว่า “การวิวัฒนาการด้วยตนเอง” จะเป็นเหตุการณ์สำคัญของ AGI ในปีหน้า

MarketWhisper7 นาที ที่แล้ว

xAI Grok Voice เข้ารับสายศูนย์บริการลูกค้าของ Starlink ทำให้ 70% ของสายโทรเข้าได้รับการปิดเคสอัตโนมัติ

ตามประกาศอย่างเป็นทางการของ xAI เมื่อวันที่ 23 เมษายน xAI ได้เปิดตัว Grok Voice Think Fast 1.0 ตัวแทน AI สำหรับเสียง และได้มีการติดตั้งใช้งานบนสายด่วนฝ่ายบริการลูกค้าของ Starlink +1 (888) GO STARLINK ตามข้อมูลการทดสอบที่เปิดเผยในประกาศ 70% ของสายโทรเข้าได้รับการปิดเคสโดย AI อัตโนมัติ ไม่จำเป็นต้องมีการแทรกแซงจากเจ้าหน้าที่มนุษย์

MarketWhisper19 นาที ที่แล้ว

GPT-5.5 กลับมาล้ำหน้าในการเขียนโค้ด แต่ OpenAI เปลี่ยนเกณฑ์มาตรฐานหลังแพ้ Opus 4.7

ข่าวประจำเกต 27 เมษายน — SemiAnalysis บริษัทวิเคราะห์เซมิคอนดักเตอร์และ AI ได้เผยแพร่มาตรฐานเปรียบเทียบเชิงเปรียบเทียบของผู้ช่วยการเขียนโค้ด รวมถึง GPT-5.5, Claude Opus 4.7 และ DeepSeek V4 ผลค้นหาที่สำคัญ: GPT-5.5 แสดงถึงการกลับสู่ขอบล้ำในการพัฒนาโมเดลการเขียนโค้ดของ OpenAI เป็นครั้งแรกในรอบหกเดือน โดยวิศวกรของ SemiAnalysis ตอนนี้สลับไปมาระหว่าง Codex และ Claude Code หลังจากก่อนหน้านี้พึ่งพา Claude เกือบทั้งหมด GPT-5.5 อ้างอิงจากแนวทางการพรีเทรนแบบใหม่ที่มีชื่อรหัสว่า "Spud" และถือเป็นการขยายขนาดการพรีเทรนครั้งแรกของ OpenAI นับตั้งแต่ GPT-4.5. ในการทดสอบเชิงปฏิบัติที่ชัดเจน ได้แยกบทบาทออกมาอย่างชัดเจน Claude จัดการการวางแผนโครงการใหม่และการตั้งค่าเริ่มต้น ในขณะที่ Codex โดดเด่นสำหรับการแก้บั๊กที่ต้องใช้การให้เหตุผลหนักๆ Codex แสดงความเข้าใจโครงสร้างข้อมูลและการให้เหตุผลเชิงตรรกะที่แข็งแกร่งกว่า แต่กลับมีปัญหาในการคาดเดาความตั้งใจของผู้ใช้ที่ไม่ชัดเจน ในงานที่คล้ายกันบนแดชบอร์ดเดียว Claude คัดลอกเค้าโครงหน้าจากตัวอย่างได้โดยอัตโนมัติแต่ได้สร้างข้อมูลจำนวนมากขึ้นมา ในขณะที่ Codex ข้ามเรื่องเค้าโครงแต่ให้ข้อมูลที่แม่นยำกว่ามาก การวิเคราะห์เผยรายละเอียดเกี่ยวกับการปรับแต่งเกณฑ์มาตรฐาน: โพสต์บล็อกของ OpenAI ในเดือนกุมภาพันธ์ได้เรียกร้องให้วงการนำ SWE-bench Pro มาเป็นมาตรฐานใหม่สำหรับการประเมินเกณฑ์การเขียนโค้ด อย่างไรก็ตาม การประกาศของ GPT-5.5 ได้เปลี่ยนไปใช้เกณฑ์มาตรฐานใหม่ที่ชื่อ "Expert-SWE" เหตุผล—ซ่อนอยู่ในส่วนปลีกย่อย—คือ GPT-5.5 ถูก Opus 4.7 แซงบน SWE-bench Pro และทำผลงานได้ต่ำกว่ามากเมื่อเทียบกับ Mythos ที่ยังไม่เผยแพร่ของ Anthropic 77.8%. สำหรับ Opus 4.7 Anthropic เผยแพร่การวิเคราะห์สรุปหลังเหตุการณ์ (postmortem) หนึ่งสัปดาห์หลังการเปิดตัว โดยยอมรับบั๊กสามจุดใน Claude Code ที่ยังคงอยู่ต่อเนื่องเป็นเวลาหลายสัปดาห์ตั้งแต่เดือนมีนาคมถึงเมษายน ส่งผลกระทบต่อผู้ใช้งานเกือบทั้งหมด วิศวกรหลายคนเคยรายงานว่าประสิทธิภาพลดลงในเวอร์ชัน 4.6 มาก่อน แต่ถูกมองว่าเป็นข้อสังเกตเชิงอัตวิสัย นอกจากนี้ โทเคไนเซอร์ใหม่ของ Opus 4.7 เพิ่มการใช้งานโทเคนได้สูงถึง 35% ซึ่ง Anthropic ยอมรับอย่างตรงไปตรงมา—ซึ่งเท่ากับเป็นการขึ้นราคาที่ซ่อนอยู่โดยปริยาย DeepSeek V4 ถูกประเมินว่า "ตามทันความก้าวหน้าในระดับแนวหน้าแต่ไม่ได้เป็นผู้นำ" โดยวางตำแหน่งตัวเองเป็นทางเลือกที่มีต้นทุนต่ำที่สุดในบรรดาโมเดลที่ปิดซอร์ส การวิเคราะห์ยังระบุว่า "Claude ยังคงทำผลงานได้ดีกว่า DeepSeek V4 Pro ในงานเขียนภาษาจีนที่มีความยากสูง" โดยแสดงความคิดเห็นว่า "Claude ชนะโมเดลภาษาจีนในภาษาเดียวกับที่มันใช้" บทความนำเสนอแนวคิดสำคัญว่า ควรประเมินราคาของโมเดลด้วย "ต้นทุนต่อหนึ่งงาน" แทนที่จะเป็น "ต้นทุนต่อหนึ่งโทเคน" ราคาของ GPT-5.5 เป็นสองเท่าของ GPT-5.4 input $5, output per million tokens แต่ทำงานเดียวกันได้โดยใช้โทเคนน้อยกว่า ดังนั้นต้นทุนที่แท้จริงจึงไม่ได้จำเป็นต้องสูงขึ้น ข้อมูลเบื้องต้นจาก SemiAnalysis แสดงว่าอัตราส่วนอินพุตต่อเอาต์พุตของ Codex อยู่ที่ 80:1 ต่ำกว่าของ Claude Code ที่ 100:1.

GateNews23 นาที ที่แล้ว

ผู้บริหาร Google DeepMind: ทุกบริษัทผลิตภัณฑ์ด้าน AI ควรสร้างเกณฑ์มาตรฐานเฉพาะของตนเอง

ข้อความข่าว Gate วันที่ 27 เมษายน — Logan Kilpatrick ผู้จัดการผลิตอาวุโสของ Google DeepMind และหัวหน้าฝ่ายผลิตภัณฑ์ของ Google AI Studio กล่าวบน X ว่าทุกบริษัทที่สร้างผลิตภัณฑ์ที่ขับเคลื่อนด้วย AI ควรจัดทำเกณฑ์มาตรฐานเฉพาะของตนเองเพื่อวัดประสิทธิภาพของโมเดล AI เขาอธิบายว่านี่เป็นวิธีเพื่อ

GateNews1 ชั่วโมง ที่แล้ว

MediaTek คว้าสัญญาใหญ่ Google TPU รุ่นที่ 8 แล้ว! การเร่งเครื่องสำหรับ ASIC ช่วยหนุนหุ้นกลุ่ม 3 ตัวในกลุ่มแนวคิดได้รับประโยชน์

MediaTek ได้เข้าสู่สายการผลิตชิปฝึกอบรม Google รุ่นที่ 8 TPU แล้ว โดยรับผิดชอบการออกแบบ I/O Die และใช้การผลิต TSMC N3P พร้อมด้วยการแพ็กเกจ CoWoS-S ซึ่งแสดงให้เห็นว่าบริษัทได้ยกระดับขึ้นสู่ระดับการออกแบบ AI ASIC ระดับไฮเอนด์ คาดว่าในปีนี้รายได้จากธุรกิจ ASIC จะทะลุ 1 พันล้านดอลลาร์ ขณะที่ปริมาณการจัดส่ง TPU มีแนวโน้มจะสูงถึงหลักล้านชิ้นภายในปี 2027 ผู้ผลิตในห่วงโซ่อุปทานของไต้หวัน เช่น KYEC, Phytec, และ HONG JING ก็จะได้รับประโยชน์เช่นกัน ขณะที่ตลาดจะค่อย ๆ หันไปสู่อนาคตของการทำงานแบบแบ่งหน้าที่ร่วมกัน และ chiplet กับการบูรณาการแบบต่างชนิดอย่างต่อเนื่อง

ChainNewsAbmedia1 ชั่วโมง ที่แล้ว
แสดงความคิดเห็น
0/400
ไม่มีความคิดเห็น