Tại Nvidia GTC 2026, Jensen Huang tự tin phát biểu: Nhiều công ty AI nguyên bản xuất hiện là nhờ Nvidia “định nghĩa lại tính toán”. Ông nói rằng chúng ta đang ở giai đoạn bắt đầu của cuộc cách mạng nền tảng mới, tương tự như cuộc cách mạng máy tính cá nhân. Trong hai năm qua, cùng với sự ra đời của ChatGPT, kỷ nguyên AI sinh生成 thực sự đã bắt đầu.
Jensen Huang trình chiếu một slide quan trọng, tiết lộ thị trường năng lực tính toán AI toàn cầu đang bước vào giai đoạn bùng nổ. Hình ảnh cho thấy, quy mô tiềm năng của thị trường trung tâm dữ liệu toàn cầu (TAM) đã từ khoảng 500 tỷ USD năm 2025 tăng vọt lên hơn 1 nghìn tỷ USD ($1T) chỉ trong một năm, và vẫn tiếp tục mở rộng.
Ý tưởng cốt lõi trong slide là “Inference Inflection” (Điểm biến đổi suy luận).
Trước đây, phát triển AI chủ yếu tập trung vào giai đoạn huấn luyện (Training), tức là giúp mô hình học từ lượng lớn dữ liệu. Nhưng khi các mô hình lớn trở nên trưởng thành, AI bắt đầu được triển khai vào nhiều sản phẩm và dịch vụ như dịch vụ khách hàng, tạo hình ảnh, phát triển phần mềm. Điều này có nghĩa là trọng tâm thị trường đang chuyển từ huấn luyện sang suy luận (Inference).
Khi AI được hàng tỷ người dùng cùng lúc truy cập, mỗi câu hỏi, hình ảnh hoặc video sinh ra đều cần năng lực tính toán hỗ trợ. Nhu cầu tính toán này với tần suất cao, độ trễ thấp sẽ khiến nhu cầu năng lực suy luận tăng trưởng theo cấp số nhân.
Trong phần mở đầu bài phát biểu, Jensen Huang dành khá nhiều thời gian giới thiệu về ứng dụng của hệ sinh thái phần mềm Nvidia trong các ngành công nghiệp, đặc biệt là thư viện lập trình CUDA-X của Nvidia. Ông nói: “Chúng tôi là một công ty thuật toán.” Ông nhấn mạnh rằng, việc ứng dụng AI không chỉ dựa vào AI sinh生成. “Đưa GenAI ra tường xem nó có thành công hay không không phải là chiến lược.” Ông cho rằng, các ngành công nghiệp đối mặt với các vấn đề khác nhau rất lớn, vì vậy Nvidia phải phát triển các thư viện đặc thù ngành (domain-specific libraries).
Điểm biến đổi suy luận: Quy mô trung tâm dữ liệu toàn cầu hướng tới 1 nghìn tỷ USD
Trong bài phát biểu chính tại Nvidia GTC 2026, Jensen Huang trình chiếu một slide quan trọng, tiết lộ thị trường năng lực tính toán AI toàn cầu đang bước vào giai đoạn bùng nổ. Hình ảnh cho thấy, quy mô tiềm năng của thị trường trung tâm dữ liệu toàn cầu (TAM) đã từ khoảng 500 tỷ USD năm 2025 tăng vọt lên hơn 1 nghìn tỷ USD ($1T) chỉ trong một năm, và vẫn tiếp tục mở rộng.
Ý tưởng cốt lõi trong slide là “Inference Inflection” (Điểm biến đổi suy luận). Trước đây, phát triển AI chủ yếu tập trung vào giai đoạn huấn luyện (Training), giúp mô hình học từ lượng lớn dữ liệu. Nhưng khi các mô hình lớn trưởng thành, AI bắt đầu được triển khai vào nhiều sản phẩm và dịch vụ như tìm kiếm, dịch vụ khách hàng, tạo hình ảnh, phát triển phần mềm. Trọng tâm thị trường đang chuyển từ huấn luyện sang suy luận.
Khi AI được hàng tỷ người dùng cùng lúc truy cập, mỗi câu hỏi, hình ảnh hoặc video sinh ra đều cần năng lực tính toán hỗ trợ. Nhu cầu tính toán này với tần suất cao, độ trễ thấp sẽ khiến nhu cầu năng lực suy luận tăng trưởng theo cấp số nhân, và Nvidia xem đây là động lực chính thúc đẩy thị trường trung tâm dữ liệu AI trị giá nghìn tỷ USD.
Phần bên phải của slide thể hiện cấu trúc thị trường hiện tại, trong đó nhu cầu năng lực AI chủ yếu đến từ hai nhóm khách hàng chính. Khoảng 60% nhu cầu đến từ các nhà cung cấp dịch vụ đám mây quy mô siêu lớn (Hyperscalers) và các công ty AI nguyên bản (AI-native companies). Trong đó bao gồm:
Amazon Web Services
Google Cloud
Microsoft
Và các nhà phát triển mô hình AI:
OpenAI
Anthropic
xAI
Một phần 40% còn lại của nhu cầu thị trường đến từ các lĩnh vực mới nổi mạnh mẽ gần đây của Nvidia, bao gồm Sovereign AI (AI chủ quyền), ứng dụng công nghiệp và doanh nghiệp. AI chủ quyền là chỉ các chính phủ xây dựng hạ tầng AI thuộc về quốc gia, phù hợp với ngôn ngữ, văn hóa và dữ liệu của riêng họ. Ví dụ:
Xây dựng siêu máy tính AI cấp quốc gia
Huấn luyện mô hình ngôn ngữ địa phương
Xây dựng chủ quyền dữ liệu quốc gia
Ngoài ra, các ngành truyền thống cũng bắt đầu áp dụng AI quy mô lớn, như:
Xe hơi và hệ thống tự lái
Sản xuất và nhà máy thông minh
Phân tích hình ảnh y tế
Mô hình rủi ro tài chính
Phần trung tâm của slide còn liệt kê các hệ sinh thái mô hình AI chính hiện nay, bao gồm ChatGPT, Gemini, Grok và các mô hình mã nguồn mở. Trong đó, Anthropic và Meta Superintelligence Labs được đánh dấu là các lực lượng mới nổi sau năm 2025, cho thấy cạnh tranh mô hình AI đang mở rộng nhanh chóng.
GTC 2026 Jensen Huang: Nvidia bản chất là một “công ty thuật toán”
Trong bài phát biểu, Jensen Huang dành nhiều thời gian giới thiệu về ứng dụng của hệ sinh thái phần mềm Nvidia trong các ngành như y tế, sản xuất, tài chính và điện toán đám mây. Ông nhấn mạnh rằng, tất cả khả năng cuối cùng đều trở về hệ sinh thái thư viện lập trình CUDA-X của Nvidia. “Chúng tôi là một công ty thuật toán.” Jensen Huang nói. Ông mô tả CUDA-X như “viên ngọc quý trên vương miện của Nvidia”, nhấn mạnh rằng giá trị thực của GPU đến từ nền tảng phần mềm, chứ không chỉ phần cứng.
Trong đó, một thành phần quan trọng là cuDNN, thư viện chuyên cung cấp tăng tốc GPU hiệu quả cho mạng nơ-ron sâu, đã được các framework AI phổ biến sử dụng rộng rãi từ lâu, trở thành thành phần quan trọng trong hạ tầng học sâu hiện đại.
Jensen Huang nhấn mạnh lại tầm quan trọng của phần mềm trong hệ sinh thái AI, và cho rằng cuDNN là một trong những thư viện quan trọng nhất của công ty, thậm chí gọi đó là “bùng nổ lớn” dẫn đến làn sóng AI hiện đại. Nvidia trình chiếu một đoạn video ngắn về hệ sinh thái CUDA-X, trong đó có một đoạn phim gần như thật do AI và công nghệ mô phỏng tạo ra, nhằm nhấn mạnh bước đột phá của GPU trong xử lý thị giác và học sâu.
Jensen Huang: AI cần “thư viện đặc thù ngành”
Jensen Huang chỉ ra rằng, việc ứng dụng AI không chỉ dựa vào AI sinh生成. “Đưa GenAI ra tường xem nó có thành công hay không không phải là chiến lược.” Ông cho rằng, các vấn đề của từng ngành rất khác nhau, vì vậy Nvidia phải phát triển các thư viện đặc thù ngành (domain-specific libraries) để cung cấp giải pháp tối ưu cho từng lĩnh vực.
Đây cũng là lý do hệ sinh thái CUDA-X liên tục mở rộng, hiện đã bao gồm hàng chục lĩnh vực như:
Tính toán khoa học
Hình ảnh y tế
Xe tự lái
Phân tích tài chính
Kỹ thuật dữ liệu
Các thư viện này giúp GPU phát huy tối đa hiệu năng trong các bối cảnh ngành khác nhau.
Hệ sinh thái AI tích hợp dọc, mở ngang
Jensen Huang mô tả chiến lược của Nvidia là “tích hợp dọc, mở ngang” (vertically integrated but horizontally open). Điều này có nghĩa Nvidia cung cấp toàn bộ hệ sinh thái từ chip, hệ thống, phần mềm đến nền tảng ứng dụng, đồng thời cho phép các doanh nghiệp và nhà phát triển phát triển ứng dụng trên nền tảng của họ. Trong bối cảnh nhu cầu tính toán AI bùng nổ, Nvidia tin rằng mô hình này là cách duy nhất thúc đẩy tính toán tăng tốc (accelerated computing).
Chiến trường chính của AI: dữ liệu phi cấu trúc
Jensen Huang cũng đề cập đến một nhiệm vụ quan trọng khác của AI: xử lý dữ liệu phi cấu trúc (unstructured data). Ông chỉ ra rằng khoảng 90% dữ liệu toàn cầu là phi cấu trúc, như hình ảnh, video, âm thanh và văn bản tự nhiên, nhưng trước đây bị xem là gần như vô dụng do khó tìm kiếm và phân tích. Khi công nghệ GPU và AI trưởng thành, những dữ liệu này đang dần trở thành tài sản có thể phân tích.
Ví dụ, IBM đang sử dụng hệ thống tăng tốc GPU cuDF của Nvidia để nâng cao hiệu quả xử lý của nền tảng dữ liệu WatsonX, giúp phân tích và khai thác lượng lớn dữ liệu phi cấu trúc nhanh chóng.
OpenAI sẽ triển khai AWS để giảm áp lực năng lực tính toán
Trong phần nói về hạ tầng AI, Jensen Huang cũng đề cập đến vấn đề năng lực tính toán của OpenAI. Ông chỉ ra rằng hiện tại, OpenAI “hoàn toàn bị giới hạn về năng lực tính toán”, và năm nay, công ty này sẽ triển khai hạ tầng của Amazon Web Services để giảm bớt gánh nặng này.