Theo tin tức của BlockBeats, vào ngày 2 tháng 3, Anthropic bị cáo buộc tung ra một công cụ nhắc nhở để “xuất dữ liệu bộ nhớ ChatGPT” để giúp người dùng di chuyển thông tin bộ nhớ lịch sử sang mô hình Claude của mình, thu hút sự chú ý trong ngành.
Theo nội dung công khai, công cụ này có thể xuất dữ liệu bộ nhớ của người dùng trong ChatGPT của OpenAI và nhập dữ liệu đó vào Claude bằng cách sao chép và dán các lời nhắc cụ thể. Theo các cuộc thảo luận liên quan, động thái này được coi là trực tiếp làm suy yếu sự gắn bó của người dùng và chi phí chuyển đổi được hình thành bởi sự phụ thuộc của ChatGPT vào “chức năng bộ nhớ”.
Quan điểm thị trường cho rằng cơ chế bộ nhớ được coi là một con hào quan trọng đối với các sản phẩm mô hình quy mô lớn - người dùng sử dụng càng lâu, mô hình càng hiểu sâu hơn về sở thích, bối cảnh và đối thoại lịch sử của nó, đồng thời chi phí di chuyển càng cao. Nếu các công cụ của bên thứ ba có thể tạo điều kiện di chuyển dữ liệu, nó có thể thay đổi logic khóa người dùng của các sản phẩm AI hiện tại.
Đồng thời, tin tức cũng đề cập đến việc Anthropic từng bị hạn chế sử dụng hệ thống liên quan của Bộ Quốc phòng Hoa Kỳ, nhưng mức độ phổ biến và chú ý của công ty đã tăng lên nhanh chóng, vươn lên dẫn đầu danh sách ứng dụng.
Hiện tại, sự tuân thủ cụ thể của các công cụ trên và phản hồi của nền tảng vẫn chưa được làm rõ. Ngành công nghiệp thường tin rằng sự cạnh tranh của các mô hình lớn đã mở rộng từ cạnh tranh hiệu suất đến mức độ sinh thái và chủ quyền dữ liệu, và tính di động của dữ liệu người dùng có thể trở thành một biến số quan trọng trong giai đoạn tiếp theo.