Một công ty chatbot AI hiện đang đối mặt với cuộc điều tra từ tổng chưởng lý California sau khi xuất hiện cáo buộc rằng hệ thống tạo hình ảnh của họ đã bị lợi dụng để sản xuất hàng nghìn hình ảnh không phù hợp của phụ nữ và trẻ vị thành niên mà không có sự cho phép của họ. Cuộc điều tra tập trung vào việc liệu các công cụ của nền tảng có được triển khai theo cách vi phạm sự đồng ý của người dùng và các biện pháp bảo vệ quyền riêng tư hay không. Vụ việc này đã thu hút sự chú ý đến những mối quan ngại ngày càng tăng về cách các công nghệ AI tiến bộ nhanh chóng đang được giám sát và điều chỉnh như thế nào. Sự cố này nhấn mạnh các câu hỏi rộng hơn trong cộng đồng công nghệ về kiểm duyệt nội dung, khung pháp lý về sự đồng ý, và trách nhiệm của các công ty phát triển hệ thống AI tạo sinh. Các nhà quan sát ngành đang theo dõi chặt chẽ khi các nhà quản lý xem xét mối liên hệ giữa đổi mới AI và bảo vệ người tiêu dùng, đặc biệt liên quan đến các biện pháp an toàn cho việc tạo nội dung nhạy cảm.
Xem bản gốc
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
Lại là chuyện như thế này... Công ty AI lại gặp sự cố, tạo ra những thứ như vậy mà còn không giới hạn, thật là không thể tin nổi
Xem bản gốcTrả lời0
Layer2Observer
· 7giờ trước
Hãy cùng xem dữ liệu, những sự kiện như thế này thực sự cần phân tích từ cấp độ mã nguồn. Nếu không có khung consent, việc cấp quyền một cách tùy tiện, nói trắng ra là các kỹ sư chưa làm tốt kiểm soát truy cập. Về lý thuyết, điều này vốn không nên xảy ra — thiếu chính là logic xác thực cơ bản đó.
Một công ty chatbot AI hiện đang đối mặt với cuộc điều tra từ tổng chưởng lý California sau khi xuất hiện cáo buộc rằng hệ thống tạo hình ảnh của họ đã bị lợi dụng để sản xuất hàng nghìn hình ảnh không phù hợp của phụ nữ và trẻ vị thành niên mà không có sự cho phép của họ. Cuộc điều tra tập trung vào việc liệu các công cụ của nền tảng có được triển khai theo cách vi phạm sự đồng ý của người dùng và các biện pháp bảo vệ quyền riêng tư hay không. Vụ việc này đã thu hút sự chú ý đến những mối quan ngại ngày càng tăng về cách các công nghệ AI tiến bộ nhanh chóng đang được giám sát và điều chỉnh như thế nào. Sự cố này nhấn mạnh các câu hỏi rộng hơn trong cộng đồng công nghệ về kiểm duyệt nội dung, khung pháp lý về sự đồng ý, và trách nhiệm của các công ty phát triển hệ thống AI tạo sinh. Các nhà quan sát ngành đang theo dõi chặt chẽ khi các nhà quản lý xem xét mối liên hệ giữa đổi mới AI và bảo vệ người tiêu dùng, đặc biệt liên quan đến các biện pháp an toàn cho việc tạo nội dung nhạy cảm.