Theo một số nguồn tin, Google của Alphabet Inc. đang trong các cuộc đàm phán với Marvell Technology để phát triển hai chip mới nhằm cải thiện cách các mô hình trí tuệ nhân tạo được vận hành.
Tóm tắt
Theo một báo cáo của The Information, trích dẫn các nguồn am hiểu vấn đề, một trong hai chip được đề xuất có thể là một bộ xử lý bộ nhớ được xây dựng để hoạt động song song với các tensor processing units của Google, hay TPU. Chip thứ hai được kỳ vọng là một TPU mới, được tùy chỉnh riêng để chạy các tác vụ AI hiệu quả hơn.
Động thái này là một phần nỗ lực của Google nhằm định vị các chip do hãng tự phát triển như một lựa chọn thay thế cho GPU của Nvidia. Việc áp dụng TPU đã góp phần thúc đẩy tăng trưởng doanh thu của Google Cloud, khi công ty tìm cách chứng minh hiệu quả từ khoản chi cho hạ tầng AI.
Báo cáo cho biết thêm rằng Google dự định hoàn tất thiết kế của chip tập trung vào bộ nhớ vào năm tới, trước khi chuyển sang giai đoạn kiểm thử sản xuất. Đồng thời, công ty đã mở rộng quan hệ đối tác với các nhà sản xuất chip như Intel và Broadcom để hỗ trợ nhu cầu đang tăng lên đối với hạ tầng AI.
Khi Google tăng tốc phát triển các bộ tăng tốc AI, hãng có thể bắt đầu thách thức vị thế dẫn đầu lâu năm của Nvidia trong điện toán hiệu năng cao.
Chẳng hạn, NVIDIA đang đẩy mạnh danh mục các chip suy luận AI của riêng mình, bao gồm các thiết kế tích hợp công nghệ từ Groq. Việc một đối thủ lớn quy mô khác gia nhập cuộc đua có thể làm gia tăng mức độ cạnh tranh trong mảng phần cứng AI và định hình lại cách các công ty tìm nguồn cung cấp sức mạnh tính toán cho các mô hình.
Các nhà đầu tư có khả năng sẽ tìm kiếm thêm sự rõ ràng khi Google công bố kết quả kinh doanh quý 1 vào ngày 29 tháng 4. Bản công bố lợi nhuận dự kiến sẽ cung cấp tín hiệu về hiệu suất của mảng cloud, xu hướng quảng cáo, và mức độ quyết liệt công ty dự định đầu tư vào AI và chất bán dẫn trong các quý tới.
Các cuộc thảo luận chip mới nhất của Google diễn ra trong lúc hãng tiếp tục mở rộng năng lực mô hình AI của mình. Đầu tháng này, công ty đã giới thiệu Gemma 4, một họ mô hình mã nguồn mở mới được xây dựng cho khả năng suy luận nâng cao và các quy trình làm việc kiểu tác nhân.
Gemma 4 có sẵn trong bốn kích cỡ và được thiết kế để xử lý logic nhiều bước và giải quyết vấn đề có cấu trúc hiệu quả hơn. Nó cũng đã mang lại kết quả được cải thiện trong các bài kiểm tra gắn với các tác vụ toán học và làm theo hướng dẫn.
Các mô hình bao gồm các tính năng như gọi hàm native (native function calling), đầu ra JSON có cấu trúc, và các chỉ dẫn cấp hệ thống, cho phép nhà phát triển xây dựng các hệ thống tự chủ có thể kết nối với API và các công cụ bên ngoài. Chúng cũng có thể tạo mã offline, biến các máy cục bộ thành trợ lý lập trình AI có năng lực.
Cùng với các kế hoạch nâng cấp mô hình và phát triển chip, những điều này cho thấy Google đang đồng bộ phần mềm và hệ thống phần cứng của mình khi cạnh tranh trong lĩnh vực AI tiếp tục gia tăng.
Bài viết liên quan
Cloudflare: Tác nhân AI thúc đẩy lưu lượng truy cập không phải của con người, x402 cung cấp giải pháp
IREN mua lại Mirantis với $625M trong một thương vụ hoán đổi cổ phiếu để mở rộng nền tảng AI Cloud
Giám đốc điều hành Anthropic: Mỹ đang xem xét quy trình phát hành mô hình AI đơn giản hóa, các đối thủ chậm 1-3 tháng
Nhóm SGLang hoàn tất vòng gọi vốn Seed tại $100M định giá $400M , do Accel dẫn dắt
OpenAI cấp phép cho 8.000 nhà phát triển tăng giới hạn tốc độ Codex lên 10 lần đến ngày 5 tháng 6
Liên doanh của OpenAI với Anthropic đang đàm phán để mua 3 công ty dịch vụ AI vào ngày 5/5