LG Electronics Ra mắt Đơn vị làm mát Direct-to-Chip công suất 1,4MW cho Trung tâm dữ liệu AI

Tin nhắn Gate News, ngày 21 tháng 4 — LG Electronics đã giới thiệu các sản phẩm làm mát và năng lượng mới cho cơ sở hạ tầng trung tâm dữ liệu AI tại Data Center World 2026 ở Washington, bao gồm một bộ phân phối chất làm mát trực tiếp đến chip với công suất làm mát 1,4 megawatt.

Công ty đã trình diễn các bơm biến tần và các cảm biến ảo được thiết kế để cải thiện hiệu quả sử dụng năng lượng, cùng với công nghệ làm mát ngâm được phát triển hợp tác với Green Revolution Cooling và SK Enmove. LG cũng giới thiệu các hệ thống làm mát bằng không khí, một nền tảng giám sát và công cụ tối ưu hóa năng lượng được tạo ra với PADO. Một dự án lưới điện dòng điện một chiều liên quan đến LG Energy Solution và các công ty LS nhằm giảm thất thoát năng lượng từ khoảng 25% xuống còn khoảng 15%.

Việc LG mở rộng sang cơ sở hạ tầng trung tâm dữ liệu là một phần trong chiến lược tổng thể của hãng nhằm trở thành nhà cung cấp hạ tầng AI, được hỗ trợ bởi kế hoạch đầu tư được cho là vào khoảng $70 billion. Công ty đã ký hợp đồng cung cấp theo hình thức chìa khóa trao tay với Microsoft cho các trung tâm dữ liệu AI và ký kết biên bản ghi nhớ (MOU) với Flex về các giải pháp làm mát dạng module, với mục tiêu giảm thời gian triển khai từ tối đa hai năm xuống còn sáu tháng.

Tuyên bố miễn trừ trách nhiệm: Thông tin trên trang này có thể đến từ bên thứ ba và không đại diện cho quan điểm hoặc ý kiến của Gate. Nội dung hiển thị trên trang này chỉ mang tính chất tham khảo và không cấu thành bất kỳ lời khuyên tài chính, đầu tư hoặc pháp lý nào. Gate không đảm bảo tính chính xác hoặc đầy đủ của thông tin và sẽ không chịu trách nhiệm cho bất kỳ tổn thất nào phát sinh từ việc sử dụng thông tin này. Đầu tư vào tài sản ảo tiềm ẩn rủi ro cao và chịu biến động giá đáng kể. Bạn có thể mất toàn bộ vốn đầu tư. Vui lòng hiểu rõ các rủi ro liên quan và đưa ra quyết định thận trọng dựa trên tình hình tài chính và khả năng chấp nhận rủi ro của riêng bạn. Để biết thêm chi tiết, vui lòng tham khảo Tuyên bố miễn trừ trách nhiệm.

Bài viết liên quan

Vercel mã nguồn mở deepsec Framework với hơn 1.000 mức đồng thời sandbox để quét bảo mật AI cục bộ

Theo Beating, Vercel đã phát hành mã nguồn mở deepsec, một framework kiểm thử bảo mật do AI điều khiển. Framework này giúp các nhà phát triển quét các cơ sở mã lớn ngay trên máy cục bộ mà không cần lộ mã nguồn cho các dịch vụ đám mây bên ngoài. Framework sử dụng quy trình xác minh đa giai đoạn: sau bước lọc regex ban đầu, một

GateNews1giờ trước

Camera AI Netradyne Theo dõi Hành vi của tài xế trong đội xe

Hệ thống giám sát người lái bằng AI của Netradyne Netradyne, một startup của Ấn Độ, đang triển khai các camera AI trong các đội xe thương mại để theo dõi hành vi của người lái và giảm tai nạn. Các camera hướng vào bên trong tập trung vào người lái thay vì hành khách, cảnh báo người lái khi họ vượt quá giới hạn tốc độ o

CryptoFrontier3giờ trước

AequiSolva ra mắt kiến trúc AI Sentinel Stack để xác minh tài sản tổ chức vào ngày 30 tháng 4

Theo AequiSolva, công ty đã ra mắt Sentinel Stack™ kiến trúc sàn giao dịch tích hợp AI vào ngày 30/04/2026, với cơ chế thực thi xác định, giám sát thị trường do AI điều khiển và Omni-Attest Engine™ để cung cấp bằng chứng dự trữ mã hóa liên tục. Nền tảng kết hợp ba lõi

GateNews8giờ trước

Karpathy tiết lộ: Phương pháp hoàn chỉnh để xây dựng một kho kiến thức cá nhân bằng LLM

Thành viên nhóm sáng lập OpenAI, cựu giám đốc AI của Tesla Andrej Karpathy đã đăng trên X về quy trình làm việc “LLM Knowledge Bases” và giải thích rằng gần đây ông đã chuyển khối lượng token lớn từ “điều khiển mã nguồn” sang “điều khiển tri thức” — dùng LLM để gom các bài báo, bài viết, thư mục, hình ảnh rải rác lại thành một wiki cá nhân được tự động duy trì. Toàn bộ quy trình đã được ông tích lũy trong các dự án nghiên cứu của chính mình với ~100 bài viết, ~400 nghìn từ, và xuyên suốt được LLM viết và cập nhật. Bài viết này tổng hợp toàn bộ phần setup của Karpathy, kèm một checklist có thể thực thi cho các nhà phát triển muốn tự sao chép. Ý tưởng cốt lõi: dữ liệu thô → LLM biên dịch → wiki → Q&A Triết lý thiết kế của Karpathy có thể cô đọng thành một

ChainNewsAbmedia14giờ trước

Công ty quản lý quỹ Bitcoin K Wave Media đảm bảo nhận tới $485M để xây dựng hạ tầng AI

Theo ChainCatcher, công ty kho bạc bitcoin niêm yết trên Nasdaq là K Wave Media đã công bố vào ngày 4/5 một bước chuyển chiến lược sang hạ tầng AI, huy động được hỗ trợ vốn lên tới 485 triệu USD cho các khoản đầu tư trung tâm dữ liệu, dịch vụ cho thuê GPU, cùng các thương vụ mua lại và hợp tác về hạ tầng AI. Công ty

GateNews15giờ trước

Antimatter khởi động kế hoạch trung tâm dữ liệu AI với khoản tài trợ 300 triệu EUR

Antimatter, một công ty hạ tầng đám mây có trụ sở tại Pháp cho các tác vụ AI, đã ra mắt vào ngày 4/5 bằng cách hợp nhất ba công ty hiện có: Datafactory, Policloud và Hivenet. Công ty đang huy động 300 triệu euro (351 triệu USD) để triển khai 100 đơn vị trung tâm dữ liệu vi mô vào năm 2026 cho AI suy luận

CryptoFrontier17giờ trước
Bình luận
0/400
Không có bình luận