Theo giám sát của Beating, một tuyên bố lan truyền gần đây cho rằng việc nhập các token đặc biệt như <|begin_of_sentence|> vào ô chat của DeepSeek có thể làm lộ các cuộc trò chuyện của người dùng khác, được gắn nhãn là lỗi cô lập đa người thuê (multi-tenant) mức P0. Trên thực tế, hiện tượng này không liên quan đến cô lập dữ liệu. Khi được kích hoạt bằng các token như vậy, mô hình sẽ chuyển sang các mẫu định dạng trong thời gian huấn luyện và tạo ra đoạn hội thoại bịa đặt dựa trên trí nhớ và các prompt hệ thống của chính nó—không phải là truy xuất theo thời gian thực từ các phiên khác. Đây là Trích xuất dữ liệu huấn luyện (Training Data Extraction), một lỗ hổng dùng chung trên tất cả các mô hình ngôn ngữ lớn, không riêng gì DeepSeek. Google DeepMind đã công bố nghiên cứu vào năm 2023 cho thấy các đầu vào đặc biệt có thể trích xuất dữ liệu huấn luyện từ GPT và PaLM. Bài viết Magpie tại ICLR 2025 khai thác trực tiếp cơ chế này. Các tuyên bố rằng nội dung bị rò rỉ có bao gồm ngày hôm nay không chứng minh được lỗi cô lập đa người thuê, vì DeepSeek đưa ngày hiện tại vào prompt hệ thống của mình, và các mô hình tự nhiên sẽ tích hợp nó vào đầu ra được tạo.
Related News
OpenAI dự kiến kiện Apple: Tích hợp ChatGPT kém hiệu quả, hợp tác của các “gã khổng lồ” công nghệ vỡ trận
OpenAI bổ sung tính năng phát hiện hội thoại khủng hoảng trên ChatGPT, nâng cao khả năng cảnh báo bạo lực tự hủy
ChatGPT vướng thêm một vụ kiện pháp lý nữa! Bị cáo buộc bí mật rò rỉ nội dung chat của người dùng cho Meta và Google