NVIDIA Vera Rubin กระตุ้นความต้องการหน่วยความจำ: วิเคราะห์ข้อดีข้อเสียของ SK Hynix, Samsung, Micron, SanDisk

ChainNewsAbmedia
STG4.27%

2026 ปี CES งานแสดงสินค้าอิเล็กทรอนิกส์ผู้บริโภค, ฮวางเหรินฉวน ซีอีโอของ NVIDIA ได้ประกาศอย่างเป็นทางการว่า Vera Rubin เข้าสู่สายการผลิตเต็มรูปแบบ สัญลักษณ์ของจุดเปลี่ยนสำคัญในประวัติศาสตร์การพัฒนาปัญญาประดิษฐ์ (AI): จากช่วงเริ่มต้นของ AI แบบสร้างสรรค์ที่เน้นการฝึกโมเดล (Training) อย่างเป็นทางการ ก้าวเข้าสู่ยุคที่ AI ตัวแทน (Agentic AI) และการอนุมานแบบขนาดใหญ่ (Inference) เป็นแนวทางหลัก

(ฮวางเหรินฉวน CES กำหนดทิศทาง 2026: Vera Rubin เข้าสู่สายการผลิตเต็มรูปแบบ, รถขับอัตโนมัติ AI เปิดตัวใน Q1, กระบวนการสำคัญมาจาก TSMC)

รายงานนี้จะวิเคราะห์ลึกซึ้งว่าการเปลี่ยนแปลงทางเทคโนโลยีนี้จะเปลี่ยนโฉมฮาร์ดแวร์ของศูนย์ข้อมูลอย่างไร โดยเฉพาะชั้นเก็บข้อมูล G3.5 และแพลตฟอร์มหน่วยความจำบริบทสำหรับการอนุมาน (ICMS) ในบริบทนี้ ยักษ์ใหญ่ด้านหน่วยความจำและการเก็บข้อมูลสี่รายของโลก: SK Hynix, Samsung Electronics, Micron Technology และ SanDisk กำลังเผชิญกับโอกาสและความท้าทายที่ไม่เคยมีมาก่อน

HBM, DRAM, NAND คืออะไร? การวิเคราะห์คำศัพท์หน่วยความจำ

ก่อนเข้าสู่เนื้อหาอย่างเป็นทางการ ขออธิบายคำศัพท์ด้วยคำอธิบายง่าย ๆ:

คำอธิบายคำศัพท์หน่วยความจำแบบง่าย: HBM (รวมถึง HBM3E, HBM4, HBM5)

HBM ย่อมาจาก High Bandwidth Memory (หน่วยความจำความกว้างแบนด์วิธสูง) สามารถคิดได้ว่า: การซ้อนชั้นของชิป DRAM หลายชั้นเหมือนเค้กชั้นหลายชั้น แล้วเชื่อมต่อกับ GPU ด้วยถนนความเร็วสูงจำนวนมากและหนาแน่น ทำให้การส่งข้อมูลรวดเร็วมาก

HBM3E: ปัจจุบันเป็นหลัก ใช้ใน GPU รุ่นล่าสุด ความเร็วสูงและใช้พลังงานได้ดี

HBM4: รุ่นถัดไป สำหรับ GPU ที่แรงกว่า Vera Rubin ความกว้างแบนด์วิธสูงขึ้น ความจุใหญ่ขึ้น

HBM5: รุ่นถัดไป (อยู่ในแผน) จะเพิ่มความเร็วและความจุ เพื่อรองรับโมเดลขนาดใหญ่อีกในอนาคต

GPU Rubin จะมีการวาง HBM หลายชั้นเพื่อให้ GPU เข้าถึงข้อมูลได้ด้วยความเร็วสูงสุด การฝึกและอนุมาน AI พึ่งพา HBM ในการส่งข้อมูลเป็นอย่างมาก ซึ่งเป็นดาวเด่นที่สุดในซัพพลายเออร์เซิร์ฟเวอร์ AI ช่วงนี้ ผู้ผลิตเปลี่ยนกำลังการผลิตจำนวนมากไปทำ HBM ทำให้หน่วยความจำอื่น ๆ ขาดแคลน ในยุค Vera Rubin HBM เป็นชิ้นส่วนที่สำคัญที่สุดในทุกชิ้นส่วน

คำอธิบายคำศัพท์หน่วยความจำแบบง่าย: SSD

SSD เหมือนแฟลชไดรฟ์ USB ขนาดใหญ่ ใช้เก็บข้อมูลระยะยาว ไม่ลืมแม้ปิดเครื่อง เก็บไฟล์ วิดีโอ เกม อยู่ใน SSD (หรือฮาร์ดดิสก์แบบดั้งเดิม) ในยุค Vera Rubin เพื่อให้ AI หุ่นยนต์แชทจดจำข้อความ การสนทนา และความรู้จำนวนมาก Vera Rubin ต้องเชื่อมต่อ SSD จำนวนมากเป็นห้องสมุดข้อมูลขนาดใหญ่ Citi คาดว่า เซิร์ฟเวอร์ Vera Rubin หนึ่งเครื่องจะเชื่อมต่อ SSD ประมาณ 1,152TB (หรือ 1,152 ชิ้นของ 1TB) เพื่อให้ระบบ ICMS ใหม่ทำงานได้

ก่อนหน้านี้ SSD เป็นเพียงตัวประกอบในคลังข้อมูล ตอนนี้ใน ICMS/การอนุมานบริบทยาว กลายเป็นบทบาทสำคัญ

คำอธิบายคำศัพท์หน่วยความจำแบบง่าย: NAND

วัสดุที่เก็บข้อมูลใน SSD จริง ๆ เรียกว่า NAND แฟลชหน่วยความจำ สามารถคิดได้ว่า: SSD เป็นชั้นวางหนังสือ NAND เป็นหน้าหนังสือแต่ละหน้า Vera Rubin’s ICMS ต้องใช้ SSD จำนวนมาก และใน SSD ก็เต็มไปด้วยชิป NAND ดังนั้น AI ต้องการ NAND จำนวนมากขึ้น เมื่อโมเดล AI ใหญ่ขึ้น การสนทนายาวขึ้น ก็ต้องการ NAND เพิ่มขึ้นเพื่อเก็บข้อความและผลลัพธ์กลาง

คำอธิบายคำศัพท์หน่วยความจำแบบง่าย: DRAM

DRAM เหมือนกระดานไวท์บอร์ดความจำระยะสั้น ขณะคำนวณ คอมพิวเตอร์จะเขียนข้อมูลลงใน DRAM เมื่อจบงาน (ปิดเครื่อง) กระดานก็ลบออก ความเร็วสูงกว่า SSD มาก แต่เมื่อปิดเครื่องก็ลืมหมด เป็นพื้นที่ทำงานของ CPU / GPU ใน Vera Rubin ไม่เก็บบทสนทนาหรือโมเดลขนาดใหญ่ไว้ถาวร แต่รองรับการทำงานของระบบ อย่างไรก็ตาม เนื่องจากผู้ผลิตเปลี่ยนกำลังการผลิตไปทำ HBM ทำให้ DRAM ทั่วไปมีน้อยลง ราคาพุ่งสูงและขาดแคลน

คำอธิบายคำศัพท์หน่วยความจำแบบง่าย: LPDDR5X / DDR5

DDR5: หน่วยความจำหลักในเซิร์ฟเวอร์และคอมพิวเตอร์ตั้งโต๊ะ รุ่นใหม่กว่า DDR4

LPDDR5X: เวอร์ชันประหยัดพลังงาน สำหรับอุปกรณ์เคลื่อนที่ หรือโมดูล CPU ความหนาแน่นสูง คิดง่าย ๆ ว่าเป็น “DRAM ประหยัดพลังงาน”

ซีพียู Rubin ต้องใช้ LPDDR5X หรือ DDR5 จำนวนมากเป็นหน่วยความจำระบบ จัดการควบคุม การจัดลำดับงาน ระบบต่าง ๆ ซึ่งไม่เหมือน HBM ที่เชื่อมต่อโดยตรงกับ GPU แต่ก็เป็นพื้นฐานสำคัญของเซิร์ฟเวอร์ AI เนื่องจากกำลังการผลิตถูกดูดไปทำ HBM ทำให้ DDR5 / LPDDR5X มีความตึงเครียดในการจัดหาและราคาสูงขึ้น

คำอธิบายคำศัพท์หน่วยความจำแบบง่าย: High Bandwidth Flash (HBF)

สามารถคิด HBF เป็น NAND ที่ความเร็วถูกเสริมให้แรงขึ้น จุดมุ่งหมายคือให้ Flash (หน่วยความจำแฟลช) ไม่ใช่แค่เก็บข้อมูลช้า ๆ อีกต่อไป แต่กลายเป็นเร็วขึ้นและใช้งานเหมือนหน่วยความจำมากขึ้น เมื่อเทียบกับ SSD ทั่วไป มันเน้น “อัตราการรับส่งข้อมูลสูง, ความหน่วงต่ำ” เพื่อให้ AI สามารถอ่านเขียนข้อมูลบริบทจำนวนมากได้รวดเร็วขึ้น

ใน Vera Rubin เป็นหนึ่งในแกนหลักของ ICMS: วาง KV Cache ข้อมูลบริบทยาวจำนวนมากบน Flash ความเร็วสูงนี้ ใช้เครือข่าย (เช่น RDMA) ให้ GPU เข้าถึง KV Cache ได้ใกล้เคียงกับหน่วยความจำภายใน นี่คือแนวคิด G3.5 การเปลี่ยน Flash จากแค่เก็บข้อมูลเป็นหน่วยความจำภายนอกที่เร็วพอสำหรับการคำนวณ

ยุค Vera Rubin: การสร้างโครงสร้างฮาร์ดแวร์ใหม่อย่างรุนแรง

การออกแบบร่วมกันอย่างสุดขีด (Extreme Co-design) และการคำนวณระดับตู้คอนเทนเนอร์

ใน CES 2026, คำพูดของ Huang Renxun ซีอีโอของ NVIDIA เปิดเผยแนวคิดหลัก: ในยุค Rubin หน่วยการคำนวณไม่ใช่แค่ GPU เดียวหรือเซิร์ฟเวอร์เดียว แต่เป็นทั้งศูนย์ข้อมูลในตู้เดียวกัน แพลตฟอร์ม Rubin ประกอบด้วยชิปหลักหกชนิด: Vera CPU, Rubin GPU, NVLink 6 Switch, ConnectX-9 SuperNIC, BlueField-4 DPU และ Spectrum-6 Ethernet Switch

กลยุทธ์ที่เรียกว่าการออกแบบร่วมกันอย่างสุดขีดนี้ มุ่งหวังที่จะขจัดอุปสรรคการสื่อสารระหว่างชิป ทำให้ตู้ NVL72 ของ Vera Rubin กลายเป็นคอมพิวเตอร์ขนาดยักษ์ที่มีพลังการอนุมาน 3.6 ExaFLOPS และหน่วยความจำความเร็วสูง 75TB

วิวัฒนาการของโครงสร้างนี้ไม่ได้เป็นเพียงการเพิ่มประสิทธิภาพ แต่เป็นการตอบสนองต่อการเปลี่ยนแปลงพื้นฐานของภาระงาน AI ตั้งแต่ Blackwell ถึง Rubin โมเดล AI ได้พัฒนาไปจากเครื่องถามตอบธรรมดา เป็นตัวแทนปัญญาที่สามารถทำการอนุมานหลายขั้นตอน ค้นหาความทรงจำระยะยาว และใช้เครื่องมือ ซึ่งต้องการฮาร์ดแวร์ที่มีทั้งความสามารถในการรับส่งข้อมูลสูง ความล่าช้าต่ำ และความสามารถในการเก็บบริบทจำนวนมหาศาล

การควบรวม Groq และการพลิกโฉมการอนุมาน: การครองตลาดเชิงรับและยุค ASIC เริ่มต้น

NVIDIA ในปลายปี 2025 เข้าซื้อกิจการบริษัทสตาร์ทอัพด้านชิป AI Groq ด้วยมูลค่า 20 พันล้านดอลลาร์ในรูปแบบการควบรวมบุคลากรและการอนุญาตเทคโนโลยี เทคโนโลยีหลักของ Groq คือสถาปัตยกรรม LPU (Language Processing Unit) ซึ่งเป็น ASIC ที่ได้รับการปรับแต่งอย่างมากสำหรับโมเดล Transformer ต่างจาก GPU แบบดั้งเดิมที่พึ่งพา HBM Groq ใช้หน่วยความจำ SRAM บนชิปและการออกแบบที่เน้นคอมไพล์

ในสถานการณ์การโต้ตอบแบบทันที สถาปัตยกรรมนี้สามารถสร้างโทเคนได้เร็วขึ้น 10 เท่าและใช้พลังงานน้อยลง 10 เท่า NVIDIA ต้องการเติมเต็มความสามารถในการอนุมานที่มีความล่าช้าต่ำ (Groq LPU เก่งด้านนี้) และผสานกับระบบนิเวศ CUDA ยักษ์ใหญ่ของ Google (TPU), Amazon (Inferentia) ซึ่งได้พิสูจน์แล้วว่าชิปเฉพาะทางมีข้อได้เปรียบด้านต้นทุนการอนุมานอย่างมาก NVIDIA จึงต้องใช้เทคโนโลยีของ Groq เพื่อป้องกันการถูกคุกคาม

ปัญหากำแพงบริบท (The Context Wall)

ในการอนุมานบริบทยาว (Long-context) Key-Value (KV) Cache เป็นกลไกที่ AI ใช้จดจำประวัติการสนทนา เมื่อขอบเขตบริบทขยายเป็นล้านโทเคน ขนาด KV Cache จะเติบโตเป็นเส้นตรง ทำให้ GPU HBM (G1) ถูกใช้งานเต็มที่ เมื่อ HBM เต็ม ข้อมูลจะถูกปล่อยออกไปยัง DRAM (G2) หรือ SSD ท้องถิ่น (G3) ซึ่งนำไปสู่ภาวะวิกฤต KV Cache: GPU มักจะต้องรอข้อมูลประวัติ ทำให้เกิดการทำงานว่างเปล่า

ชั้น G3.5: แพลตฟอร์มหน่วยความจำบริบทสำหรับการอนุมาน (ICMS)

ในสถาปัตยกรรม Vera Rubin การเปลี่ยนแปลงที่พลิกโฉมอุตสาหกรรมหน่วยความจำที่สำคัญที่สุด คือชั้นหน่วยความจำ G3.5 หรือแพลตฟอร์มหน่วยความจำบริบทสำหรับการอนุมาน (ICMS, Inference Context Memory Storage) ซึ่งเป็นนวัตกรรมที่ไม่ใช่แค่การอัปเกรดโครงสร้าง แต่เป็นสัญญาณของยุคการคำนวณที่รับรู้บริบท (Context-Aware)

ICMS ใช้ BlueField-4 DPU และ Spectrum-X Ethernet สร้างแคชร่วมกันบนตู้ (Pod) ระดับนี้ เป็นหน่วยความจำแคชแบบแฟลช (Flash) ที่เชื่อมต่อกันผ่าน RDMA (Remote Direct Memory Access) ทำให้ GPU เข้าถึง KV Cache จากระยะไกลได้ใกล้เคียงกับหน่วยความจำภายใน นี่คือแนวคิด G3.5 การเปลี่ยน Flash จากแค่เก็บข้อมูลเป็นหน่วยความจำภายนอกที่เร็วพอสำหรับการคำนวณ

การผลักดันให้เกิดมาตรฐานเทคโนโลยีใหม่ (HBF & AI-SSD)

เพื่อให้ NAND Flash สามารถรับมือกับงานที่ต้องใช้ความเข้มข้นสูงเหมือนหน่วยความจำหลัก อุตสาหกรรมจึงเร่งพัฒนานวัตกรรม ซึ่งเปลี่ยนแปลงแผนที่เทคโนโลยีของผู้ผลิตหน่วยความจำหลัก

High Bandwidth Flash (HBF): เพื่อเพิ่มแบนด์วิดธ์ SK Hynix และ SanDisk ร่วมกันพัฒนาระบบ HBF ซึ่งเป็นเทคโนโลยีแบบ 3D stacking คล้าย HBM แต่ใช้วงจร NAND เพื่อให้ได้อัตราการรับส่งข้อมูลที่สูงกว่าระบบ SSD แบบเดิมหลายเท่า โดยเฉพาะสำหรับการอนุมาน AI

AI-specific SSD (AI-NP): SK Hynix กำลังพัฒนาระบบ SSD สำหรับ AI ที่สามารถทำงานได้ถึง 100 ล้าน IOPS ซึ่งเป็นประสิทธิภาพ 100 เท่าของ SSD ชั้นนำในปัจจุบัน เพื่อรองรับความต้องการของ ICMS ในการอ่านข้อมูลแบบสุ่มอย่างเข้มงวดที่สุด เพื่อให้ข้อมูลส่งตรงถึง GPU ได้ทันที

ชั้น ICMS G3.5 เป็นสะพานสำคัญที่เชื่อมต่อห่วงโซ่คุณค่าของ AI จาก HBM ที่แพง ไปสู่ NAND Flash ซึ่งเป็นฐานข้อมูลสำหรับการคำนวณ AI ช่วยแก้ปัญหาเรื่องหน่วยความจำไม่เพียงพอสำหรับ Agent ที่ต้องการความจุไม่จำกัดในการจัดการงานซับซ้อน เปลี่ยน NAND จากสินค้าเก็บข้อมูลตามรอบวัฏจักร เป็นทรัพยากรหลักในโครงสร้างพื้นฐานการคำนวณ AI

ผลกระทบของการเก็บข้อมูลของ Vera Rubin NVL72

ตามการวิเคราะห์ของ Citi และสถาบันวิเคราะห์ตลาดอื่น ๆ ความต้องการ NAND ในสถาปัตยกรรม Vera Rubin นั้นพุ่งสูงอย่างมาก นอกจากการเก็บข้อมูลมาตรฐานแล้ว ICMS ที่ขับเคลื่อนด้วย BlueField-4 ยังเพิ่มความต้องการ NAND ความเร็วสูงประมาณ 16TB ต่อ GPU ในแต่ละ NVL72 ซึ่งเป็นตู้ที่บรรจุ GPU 72 ตัว นั่นหมายความว่า สำหรับตู้ NVL72 ที่เต็มไปด้วย GPU 72 ตัว ความต้องการ NAND เพิ่มขึ้นประมาณ 1,152TB (ประมาณ 1.15PB)

หากในปี 2026 ทั่วโลกมีการติดตั้งตู้เหล่านี้จำนวน 100,000 ตู้ จะเกิดความต้องการ NAND เพิ่มขึ้นกว่า 115 Exabytes (EB) ซึ่งคิดเป็นประมาณ 12% ของอุปทาน NAND ทั่วโลกในปี 2025 ความต้องการนี้ไม่เพียงมีขนาดใหญ่ แต่ยังมีความต้องการด้านประสิทธิภาพสูง ซึ่งนำไปสู่ความตื่นตระหนกในตลาด SSD ระดับองค์กรและเปิดวงจรการซื้อขายที่ผู้ขายเป็นฝ่ายควบคุม

การปฏิวัติด้านโครงสร้างนี้ผลักดันตลาดหน่วยความจำเข้าสู่ “ซูเปอร์วัฏจักรสามเท่า” (DRAM ราคาพุ่ง, NAND ขาดแคลน, HBM ขายหมด) ต่อไปนี้เป็นการวิเคราะห์ความสามารถของ 4 ยักษ์ใหญ่:

SK Hynix (SK Hynix): นักออกแบบโครงสร้าง AI

ตำแหน่ง

ผู้นำตลาด HBM อย่างแน่นอน (ในยุค HBM3/3E ส่วนแบ่งตลาด 5~60%), เป็นพันธมิตรหลักของ NVIDIA

จุดแข็ง

ผูกขาด HBM4: คาดการณ์ว่ามีคำสั่งซื้อ HBM4 สำหรับแพลตฟอร์ม Vera Rubin มากกว่า 70% และกำลังการผลิตประกาศว่าจะขายหมดในปี 2026

กำหนดมาตรฐาน HBF: ร่วมกับ SanDisk ผลักดัน High Bandwidth Flash (HBF) ซึ่งเป็นเทคโนโลยีแบบ 3D stacking คล้าย HBM แต่ใช้ NAND เพื่อยกระดับ NAND สู่ระดับหน่วยความจำหลัก

SSD สำหรับ AI-NP: พัฒนาระบบ SSD ที่มีประสิทธิภาพสูงสุดถึง 100 ล้าน IOPS สำหรับ ICMS

จุดอ่อน

ในช่วงที่ AI กำลังเข้าสู่ซูเปอร์วัฏจักร SK hynix ได้รับผลกระทบ HBM3E / HBM4 เกือบเต็มความสามารถ คาดการณ์ว่าหลังจากปี 2026 ราคาจะปรับตัวลงและการแข่งขันจะรุนแรงขึ้น หลายองค์กรเตือนว่า เมื่อการขยายกำลังการผลิต HBM หลังปี 2026 ราคาจะลดลง การพึ่งพา HBM สูงสุดคือ SK hynix ซึ่งมีความเสี่ยงในการลดกำไรสูงสุด

Samsung (Samsung): การตอบโต้ของอาณาจักรและความได้เปรียบด้านกำลังการผลิต

ตำแหน่ง

ผู้ให้บริการโซลูชันครบวงจรและผู้ผลิตกำลังการผลิตระดับมหึมา

จุดแข็ง

HMB4 แบบ turnkey: เป็นผู้ให้บริการแบบครบวงจรที่รวม “หน่วยความจำ + โลจิกเซิร์ฟเวอร์ + การบรรจุภัณฑ์” ซึ่งดึงดูดลูกค้าเช่น Google, Amazon อย่างมาก

ได้รับประโยชน์โดยตรงจาก G3.5: ในฐานะผู้ผลิต NAND รายใหญ่ที่สุดในโลก มีความสามารถในการจัดหา SSD ระดับองค์กรและหน่วยความจำ CXL (PBSSD) ที่แข็งแกร่งที่สุด สามารถตอบสนองความต้องการ HBM และการเก็บข้อมูลจำนวนมากพร้อมกัน

จุดอ่อน

เทคโนโลยี HBM เริ่มต้นช้ากว่า ต้องสร้างความเชื่อมั่นใหม่ในยุค Rubin; NAND ถึงแม้มีปริมาณ แต่ราคายังไม่แข็งแกร่งเท่า HBM

Micron (Micron): ผู้ได้ประโยชน์ด้านประสิทธิภาพและภูมิศาสตร์การเมือง

ตำแหน่ง

ผู้เลือก AI ของสหรัฐอเมริกา, ขับเคลื่อนด้วย HBM+NAND คู่

จุดแข็ง

ได้รับประโยชน์สองเท่า: เป็นผู้ผลิตรายเดียวที่มีทั้งกำลังการผลิต HBM3E/4 และ SSD ระดับองค์กรขั้นสูงในสหรัฐอเมริกา สามารถรับผลประโยชน์จากหน่วยความจำ Vera Rubin GPU และชั้นเก็บข้อมูล ICMS พร้อมกัน

ประสิทธิภาพพลังงานนำหน้า: ผลิตภัณฑ์ HBM อ้างว่าสิ้นเปลืองพลังงานน้อยกว่าคู่แข่ง 30% ตรงกับความต้องการสูงสุดของศูนย์ข้อมูล AI

ผลประโยชน์ด้านภูมิศาสตร์การเมือง: เป็นผู้ผลิตในสหรัฐอเมริกาเพียงรายเดียว เป็นตัวเลือกอันดับหนึ่งของคลาวด์ AI ที่เป็นอธิปไตยในอเมริกาเหนือ

จุดอ่อน

กำลังการผลิตรวมมีขนาดเล็กกว่าผู้ผลิตเกาหลี ต้องพึ่งพามูลค่าทางเทคโนโลยีเพื่อรักษากำไรสูง และไม่สามารถทำสงครามราคาได้

SanDisk: การประเมินคุณค่าจากการเก็บข้อมูลสู่การคำนวณ

ตำแหน่ง

ผู้ได้รับประโยชน์สูงสุดในชั้น G3.5 เปลี่ยนเป็นหุ้นโครงสร้างพื้นฐาน AI

จุดแข็ง

หุ้นกลุ่ม G3.5 ที่บริสุทธิ์ที่สุด: ความต้องการ NAND 1,152TB ต่อระบบ Vera Rubin เป็นเพียงการเพิ่มขึ้นของ SanDisk เท่านั้น SSD ระดับองค์กร Stargate ได้รับการรับรองจากลูกค้าขนาดใหญ่

การเปลี่ยนแปลงเชิงกลยุทธ์: หลังจากแยกบริษัท Western Digital ออก กลยุทธ์เปลี่ยนเป็นเน้นศูนย์ข้อมูล (รายได้เพิ่มขึ้น 26% ต่อปี) ปลดปล่อยภาระของสินค้าเพื่อผู้บริโภค

ความสามารถในการตั้งราคา: ในช่วงขาดแคลนซัพพลาย ราคาของ NAND ระดับองค์กรอาจพุ่งขึ้นเป็นสองเท่า SanDisk จึงมีความยืดหยุ่นในกำไรสูงมาก

จุดอ่อน

ไม่มีโรงงานผลิตของตัวเอง ทำงานแบบ Fabless พึ่งพาโรงงานรับจ้าง ผลผลิตจึงไม่สามารถควบคุมได้ดีเท่ากับผู้ผลิต IDM

วิเคราะห์แนวโน้มก่อนปี 2026: ตลาดผู้ขายหน่วยความจำแน่นอน

Nomura และ Citi คาดการณ์ตรงกันว่า ในปี 2026 จะเผชิญกับสมดุลอุปสงค์อุปทานที่รุนแรง รายรับ DRAM คาดว่าจะเติบโต 51% ต่อปี และราคาสัญญา wafer NAND อาจเป็นสองเท่า เนื่องจากความขาดแคลนในห้องปลอดเชื้อ (Cleanroom) และการใช้พลังงานของ HBM ที่ใช้ wafer ถึง 3 เท่า ของ DRAM ความตึงเครียดด้านซัพพลายจะดำเนินต่อไปจนถึงกลางปี 2027 ในกระแสการปรับโครงสร้างอุตสาหกรรมมูลค่า 10 ล้านล้านดอลลาร์นี้ การเกิดขึ้นของ Vera Rubin และแพลตฟอร์ม ICMS ทำให้ผู้ผลิตหน่วยความจำกลายเป็นตัวละครหลักจากตัวประกอบ

คาดการณ์ระหว่างปี 2026-2028 ตลาดผู้ขายหน่วยความจำจะไม่เพียงแต่ถูกจำกัดด้วยการขยายกำลังการผลิต HBM และการบีบอัดของ ICMS ต่อ SSD ระดับองค์กรเท่านั้น แต่ยังอาจมีตัวเร่งปฏิกิริยาอีกหนึ่งตัว: การนำ HBF (แฟลชความกว้างแบนด์วิธสูงแบบซ้อน stack NAND) เข้าสู่ตลาดเชิงพาณิชย์เร็วขึ้น ข้อตกลงในวงการวิชาการและอุตสาหกรรมล่าสุดคือ เนื่องจาก HBF สามารถใช้เทคโนโลยีและการออกแบบที่พัฒนามาจากยุค HBM ในบางส่วน ทำให้การนำไปใช้เร็วกว่า HBM และคาดว่าจะเข้าสู่ช่วงบูมของแพลตฟอร์มหลักในปี 2027 และเข้าสู่ช่วงบูมของการบูรณาการในช่วงปลายปี 2027

บทความนี้ “NVIDIA Vera Rubin กระตุ้นความต้องการหน่วยความจำ: วิเคราะห์ข้อดีข้อเสียของ SK Hynix, Samsung, Micron, SanDisk” ปรากฏครั้งแรกใน Chain News ABMedia

ดูต้นฉบับ
news.article.disclaimer
แสดงความคิดเห็น
0/400
ไม่มีความคิดเห็น