Theo một số nguồn tin, Google của Alphabet Inc. đang trong các cuộc đàm phán với Marvell Technology để phát triển hai chip mới nhằm cải thiện cách các mô hình trí tuệ nhân tạo được vận hành.
Tóm tắt
Theo một báo cáo của The Information, trích dẫn các nguồn am hiểu vấn đề, một trong hai chip được đề xuất có thể là một bộ xử lý bộ nhớ được xây dựng để hoạt động song song với các tensor processing units của Google, hay TPU. Chip thứ hai được kỳ vọng là một TPU mới, được tùy chỉnh riêng để chạy các tác vụ AI hiệu quả hơn.
Động thái này là một phần nỗ lực của Google nhằm định vị các chip do hãng tự phát triển như một lựa chọn thay thế cho GPU của Nvidia. Việc áp dụng TPU đã góp phần thúc đẩy tăng trưởng doanh thu của Google Cloud, khi công ty tìm cách chứng minh hiệu quả từ khoản chi cho hạ tầng AI.
Báo cáo cho biết thêm rằng Google dự định hoàn tất thiết kế của chip tập trung vào bộ nhớ vào năm tới, trước khi chuyển sang giai đoạn kiểm thử sản xuất. Đồng thời, công ty đã mở rộng quan hệ đối tác với các nhà sản xuất chip như Intel và Broadcom để hỗ trợ nhu cầu đang tăng lên đối với hạ tầng AI.
Khi Google tăng tốc phát triển các bộ tăng tốc AI, hãng có thể bắt đầu thách thức vị thế dẫn đầu lâu năm của Nvidia trong điện toán hiệu năng cao.
Chẳng hạn, NVIDIA đang đẩy mạnh danh mục các chip suy luận AI của riêng mình, bao gồm các thiết kế tích hợp công nghệ từ Groq. Việc một đối thủ lớn quy mô khác gia nhập cuộc đua có thể làm gia tăng mức độ cạnh tranh trong mảng phần cứng AI và định hình lại cách các công ty tìm nguồn cung cấp sức mạnh tính toán cho các mô hình.
Các nhà đầu tư có khả năng sẽ tìm kiếm thêm sự rõ ràng khi Google công bố kết quả kinh doanh quý 1 vào ngày 29 tháng 4. Bản công bố lợi nhuận dự kiến sẽ cung cấp tín hiệu về hiệu suất của mảng cloud, xu hướng quảng cáo, và mức độ quyết liệt công ty dự định đầu tư vào AI và chất bán dẫn trong các quý tới.
Các cuộc thảo luận chip mới nhất của Google diễn ra trong lúc hãng tiếp tục mở rộng năng lực mô hình AI của mình. Đầu tháng này, công ty đã giới thiệu Gemma 4, một họ mô hình mã nguồn mở mới được xây dựng cho khả năng suy luận nâng cao và các quy trình làm việc kiểu tác nhân.
Gemma 4 có sẵn trong bốn kích cỡ và được thiết kế để xử lý logic nhiều bước và giải quyết vấn đề có cấu trúc hiệu quả hơn. Nó cũng đã mang lại kết quả được cải thiện trong các bài kiểm tra gắn với các tác vụ toán học và làm theo hướng dẫn.
Các mô hình bao gồm các tính năng như gọi hàm native (native function calling), đầu ra JSON có cấu trúc, và các chỉ dẫn cấp hệ thống, cho phép nhà phát triển xây dựng các hệ thống tự chủ có thể kết nối với API và các công cụ bên ngoài. Chúng cũng có thể tạo mã offline, biến các máy cục bộ thành trợ lý lập trình AI có năng lực.
Cùng với các kế hoạch nâng cấp mô hình và phát triển chip, những điều này cho thấy Google đang đồng bộ phần mềm và hệ thống phần cứng của mình khi cạnh tranh trong lĩnh vực AI tiếp tục gia tăng.
Bài viết liên quan
Zi biến Unveils WALL-B Embodied AI Model; Robots to Enter Real Homes in 35 Days
OpenAI Chuẩn Bị Tính Năng Agents Cho ChatGPT, Được Mã Hóa Là Hermes
SpaceX Khởi Động Roadshow IPO với Các Cuộc Họp cùng Nhà Phân Tích tại Starbase và Memphis
DDC Enterprise Ra Mắt Hệ Điều Hành AI Kho Quỹ Bitcoin với Khung Treasury Graph
Trump nói cuộc gặp với Anthropic tại Nhà Trắng diễn ra tốt đẹp, có khả năng đạt thỏa thuận