Tin cổng Gate News, ngày 25 tháng 4 — DeepSeek đã phát hành các phiên bản xem trước của V4-Pro và V4-Flash vào ngày 24 tháng 4, cả hai đều là các mô hình open-weight với cửa sổ ngữ cảnh một triệu token. V4-Pro có 1,6 nghìn tỷ tổng tham số nhưng chỉ kích hoạt 49 tỷ trên mỗi lượt suy luận, sử dụng kiến trúc Mixture-of-Experts. V4-Flash có 284 tỷ tổng tham số với 13 tỷ tham số hoạt động.
Giá thấp hơn đáng kể so với các đối thủ: V4-Pro có giá $1,74 cho mỗi một triệu token đầu vào và $3,48 cho mỗi một triệu token đầu ra—khoảng thấp hơn 98% so với GPT-5.5 Pro của OpenAI ($30 input, $180 output) và chỉ bằng khoảng một phần hai mươi chi phí của Claude Opus 4.7. V4-Flash được định giá $0,14 cho đầu vào và $0,28 cho đầu ra trên mỗi một triệu token. Cả hai mô hình đều là mã nguồn mở theo giấy phép MIT và có thể chạy cục bộ miễn phí.
DeepSeek đạt được lợi thế về hiệu suất thông qua hai cơ chế chú ý mới: Compressed Sparse Attention và Heavily Compressed Attention, giúp giảm chi phí tính toán xuống còn 27% so với mô hình tiền nhiệm V4-Pro (V3.2) và 10% cho V4-Flash. Công ty huấn luyện V4 một phần trên các chip Huawei Ascend, tránh các hạn chế xuất khẩu của Mỹ đối với các bộ xử lý Nvidia tiên tiến. DeepSeek cho biết rằng khi 950 supernode mới được đưa vào hoạt động vào cuối năm 2026, giá sẽ còn giảm thêm.
Trên các benchmark hiệu năng, V4-Pro-Max xếp thứ nhất về lập trình cạnh tranh Codeforces (3,206 điểm, đứng khoảng vị trí thứ 23 trong số các thí sinh là con người) và đạt 90,2% ở các bài toán Apex Shortlist so với 85,9% của Claude Opus 4.6. Tuy nhiên, nó thua trong các bài benchmark đa nhiệm: MMLU-Pro (87,5% so với 91,0% của Gemini-3.1-Pro) và Humanity’s Last Exam (37,7% so với 44,4%). Với các tác vụ ngữ cảnh dài, V4-Pro dẫn đầu các mô hình mã nguồn mở nhưng thua Claude Opus 4.6 trong các bài kiểm tra truy xuất MRCR.
V4-Pro giới thiệu “interleaved thinking” (tư duy xen kẽ), cho phép quy trình làm việc của agent giữ lại ngữ cảnh suy luận qua nhiều lệnh gọi công cụ mà không xả bộ nhớ giữa các bước. Cả hai mô hình đều hỗ trợ tích hợp lập trình với Claude Code và OpenCode. Theo khảo sát nhà phát triển của DeepSeek trên 85 người dùng, 52% cho biết V4-Pro đã sẵn sàng để trở thành agent lập trình mặc định của họ, với 39% nghiêng về việc áp dụng. Các endpoint deepseek-chat và deepseek-reasoner cũ sẽ ngừng hoạt động vào ngày 24 tháng 7 năm 2026.
Tuyên bố miễn trừ trách nhiệm: Thông tin trên trang này có thể đến từ bên thứ ba và không đại diện cho quan điểm hoặc ý kiến của Gate. Nội dung hiển thị trên trang này chỉ mang tính chất tham khảo và không cấu thành bất kỳ lời khuyên tài chính, đầu tư hoặc pháp lý nào. Gate không đảm bảo tính chính xác hoặc đầy đủ của thông tin và sẽ không chịu trách nhiệm cho bất kỳ tổn thất nào phát sinh từ việc sử dụng thông tin này. Đầu tư vào tài sản ảo tiềm ẩn rủi ro cao và chịu biến động giá đáng kể. Bạn có thể mất toàn bộ vốn đầu tư. Vui lòng hiểu rõ các rủi ro liên quan và đưa ra quyết định thận trọng dựa trên tình hình tài chính và khả năng chấp nhận rủi ro của riêng bạn. Để biết thêm chi tiết, vui lòng tham khảo
Tuyên bố miễn trừ trách nhiệm.
Bài viết liên quan
Ethos huy động 27,5 triệu USD trong vòng Series A, do a16z dẫn dắt
Theo Foresight News, nền tảng kết nối nhân tài ứng dụng AI Ethos đã huy động 27,5 triệu USD vòng Series A do Andreessen Horowitz (a16z) dẫn dắt, với sự tham gia của General Catalyst, XTX Markets, Matt Miller và Common Magic. Nền tảng sử dụng AI để phỏng vấn ứng viên và phân tích năng lực của họ
GateNews22phút trước
Moonshot AI huy động 2 tỷ USD ở mức định giá 20 tỷ USD, do Meituan dẫn dắt
Theo Bloomberg, Moonshot AI, công ty khởi nghiệp có trụ sở tại Bắc Kinh đứng sau chatbot Kimi, đã huy động khoảng 2 tỷ USD trong một vòng gọi vốn do nhánh đầu tư Long-Z Investments của Meituan dẫn dắt, định giá công ty ở mức hơn 20 tỷ USD. Doanh thu định kỳ hằng năm của công ty vượt quá 200 triệu USD trong
GateNews32phút trước
Nvidia và MediaTek bắt tay tạo trợ lý AI bản địa cho xe tương lai
NVIDIA và MediaTek hợp tác xây dựng kiến trúc xe “AI-native”, trong đó cạnh biên do DRIVE AGX đảm nhiệm các tác vụ độ trễ thấp và bảo mật, đồng thời hỗ trợ các mô hình 7B+. Trên đám mây, hệ thống đóng vai trò “nhà máy AI” để thực hiện suy luận và huấn luyện nâng cao; thông qua điều phối tác tử và chia sẻ theo ngữ cảnh để mang lại UX liền mạch. Dimensity AX xử lý giải trí cao cấp và IVI, với Drive OS dùng chung; cả hai triển khai trao đổi dữ liệu tần suất cao liền mạch qua PCIe và NvStreams API, tạo thành kiến trúc máy tính trung tâm.
ChainNewsAbmedia49phút trước
OpenAI Thu Hồi Chứng Chỉ Ký Cho macOS Vào Ngày Mai, 8 Tháng 5, Vô Hiệu Hóa Các Ứng Dụng Lỗi Thời
Theo Beating, chứng chỉ ký macOS của OpenAI sẽ bị thu hồi vào ngày 8/5, khiến các phiên bản cũ của ChatGPT Desktop, Codex, Codex CLI và Atlas không còn hoạt động và không thể nhận cập nhật. Người dùng đang dùng phiên bản macOS nên cập nhật ngay lập tức thông qua cập nhật trong ứng dụng hoặc bằng cách tải xuống từ Ope
GateNews1giờ trước
Chrome âm thầm gỡ bỏ rồi cài đặt lại 4GB AI, nhà nghiên cứu nói vi phạm luật bảo mật của Liên minh châu Âu
Theo Decrypt ngày 7 tháng 5, Google Chrome đã âm thầm tải xuống khoảng 4 GB mô hình AI Gemini Nano trên các thiết bị đủ điều kiện mà không có sự đồng ý của người dùng. Nhà nghiên cứu quyền riêng tư Alexander Hanff phát hiện hành vi này khi thực hiện kiểm toán tự động trên các hồ sơ người dùng mới, cho rằng hành động đó có thể vi phạm Chỉ thị Bảo vệ dữ liệu và quyền riêng tư điện tử của Liên minh châu Âu.
MarketWhisper1giờ trước
Hồ sơ tòa án cho thấy Altman đã đề xuất mua lại của Microsoft để giữ vai trò CEO vào tháng 11/2023
Theo các hồ sơ tòa án được công bố vào ngày 7/5, các tài liệu trong vụ Musk kiện Altman cho thấy tin nhắn giữa Sam Altman và cựu giám đốc công nghệ (CTO) Mira Murati vào ngày 19/11/2023, thời điểm ban lãnh đạo OpenAI đột ngột loại Altman khỏi vị trí CEO. Trong giai đoạn khủng hoảng, Altman đã đề xuất rằng Microsoft mua lại OpenAI để
GateNews1giờ trước