Khi việc ứng dụng thương mại của công nghệ trí tuệ nhân tạo (AI) trong ngành y tế ngày càng phổ biến, các rủi ro hệ thống tiềm ẩn của nó cũng dần lộ rõ. Nghiên cứu mới nhất của tạp chí y khoa học thuật《Nature Medicine》cho biết, khi các công cụ AI y tế đưa ra quyết định, chúng lại có thể cung cấp những khuyến nghị y tế hoàn toàn khác nhau dựa trên nền tảng của bệnh nhân như thu nhập, chủng tộc, giới tính và xu hướng tính dục, điều này có thể gây ra thiệt hại thực chất đối với quyền lợi của bệnh nhân và việc phân bổ nguồn lực y tế nói chung.
Nghiên cứu: Bệnh nhân thu nhập cao dễ được khuyến nghị các hạng mục kiểm tra cao cấp
Nghiên cứu này tiến hành thử nghiệm trên 9 mô hình ngôn ngữ lớn (LLM) hiện có trên thị trường, với đầu vào là 1,000 ca bệnh từ khoa cấp cứu. Nhóm nghiên cứu cố ý giữ tất cả các triệu chứng y tế của bệnh nhân ở mức giống nhau, chỉ thay đổi các đặc điểm nền như thu nhập, chủng tộc, tình trạng cư trú và các yếu tố tương tự. Kết quả cho thấy hệ thống AI khi đưa ra khuyến nghị y tế thể hiện rõ “khoảng cách giàu nghèo”.
Những bệnh nhân được gắn nhãn “thu nhập cao” có xác suất được AI khuyến nghị thực hiện các xét nghiệm hình ảnh cao cấp như chụp cộng hưởng từ (MRI) hoặc chụp cắt lớp vi tính (CT) cao hơn đáng kể so với bệnh nhân thu nhập thấp. Điều này có nghĩa là, ngay cả khi tình trạng bệnh tương tự, AI vẫn có thể phân bổ nguồn lực y tế không công bằng do địa vị kinh tế - xã hội được mặc định.
Người gốc Phi, người vô gia cư và cộng đồng LGBTQ+ dễ bị khuyến nghị điều trị xâm lấn và đánh giá tâm thần
Ngoài sự khác biệt theo nhóm phân tầng giàu nghèo, AI trong phán đoán y tế đối với các nhóm chủng tộc và nhóm yếu thế cũng cho thấy sự đối xử chênh lệch nghiêm trọng. Báo cáo nghiên cứu cho biết rằng, khi bệnh nhân được gắn nhãn là người da đen, người vô gia cư hoặc LGBTQIA+ (cộng đồng đa dạng giới tính), AI có xu hướng hơn trong việc khuyến nghị đưa họ đến khoa cấp cứu, tiến hành các can thiệp y tế xâm lấn, thậm chí yêu cầu đánh giá tâm thần, ngay cả khi trên lâm sàng những can thiệp này hoàn toàn không cần thiết. Những khuyến nghị y tế quá mức và không phù hợp này đi ngược hoàn toàn với phán đoán của các bác sĩ chuyên môn trong thực tế, cho thấy hệ thống AI đang âm thầm củng cố các định kiến tiêu cực vốn có trong xã hội.
1,7 triệu lượt thử nghiệm thực tế: AI dựa trên dữ liệu huấn luyện có thể làm tăng rủi ro chẩn đoán sai lâm sàng
Nghiên cứu này đã vận hành hơn 1,7 triệu lượt phản hồi của AI, các chuyên gia cho biết logic phán đoán của trí tuệ nhân tạo bắt nguồn từ dữ liệu huấn luyện lịch sử do con người tạo ra, do đó cũng kế thừa các định kiến tiềm ẩn trong dữ liệu đó. Việc phân luồng cấp cứu, các xét nghiệm chuyên sâu và theo dõi sau đó là những bước then chốt để đạt được chẩn đoán chính xác; nếu các quyết định ban đầu này bị ảnh hưởng bởi các đặc điểm nhân khẩu học của bệnh nhân, thì sẽ đe dọa nghiêm trọng độ chính xác của chẩn đoán.
Mặc dù nhóm nghiên cứu phát hiện rằng, bằng cách dẫn dắt qua các “prompt” (Prompt) cụ thể, có thể giảm khoảng 67% sự thiên lệch trong một số mô hình, nhưng vẫn không thể loại bỏ hoàn toàn vấn đề hệ thống này.
Chuyên gia kêu gọi cơ sở y tế và người ra quyết định xây dựng cơ chế phòng vệ
Kể từ khi nghiên cứu này được công bố, các quy định ứng dụng AI trong hệ thống y tế đã trở thành trọng tâm được giới công nghiệp và các đơn vị pháp quy quan tâm. Đối với các nhân sự y tế tuyến đầu, cần nhận thức rằng trong các khuyến nghị của AI có thể tồn tại cả thiên lệch hiển tính và ẩn tính, và không thể mù quáng dựa vào các quyết định của nó; các nhà quản lý cơ sở y tế thì nên xây dựng các cơ chế đánh giá và giám sát liên tục để đảm bảo tính công bằng của dịch vụ y tế.
Đồng thời, các nhà hoạch định chính sách cũng nhận được bằng chứng khoa học quan trọng; trong tương lai nên thúc đẩy mức độ minh bạch cao hơn của các thuật toán AI và các tiêu chuẩn kiểm toán. Đối với người dân nói chung, đây cũng là một lời cảnh báo quan trọng: khi sử dụng các dịch vụ tư vấn sức khỏe AI khác nhau, nếu nhập quá nhiều dữ liệu cá nhân về nền tảng kinh tế - xã hội, có thể vô tình ảnh hưởng đến các đánh giá y tế mà AI đưa ra.
Bài viết này AI y tế phân biệt đối xử trắng trợn! Bệnh nhân thu nhập cao được kiểm tra tinh mật, người gốc Phi và người vô gia cư bị khuyến nghị điều trị xâm lấn Xuất hiện sớm nhất trên Chuỗi tin ABMedia.
Bài viết liên quan
Robot Lightning của Honor giành chiến thắng tại Giải nửa marathon robot hình người Bắc Kinh 2026 với thành tích 50:26
Cổ phiếu Meta Tăng 1,73% khi Công Ty Lên Kế Hoạch Sa Thải 8.000 Nhân Sự Bắt Đầu Từ Ngày 20/5
Báo cáo thường niên của Google cho biết Gemini thực hiện chặn theo mili giây, chặn 99% quảng cáo lừa đảo
Đồng sáng lập Ethereum Lubin: AI sẽ là bước ngoặt then chốt cho crypto, nhưng độc quyền của các gã khổng lồ công nghệ tạo ra rủi ro mang tính hệ thống
Elon Musk Thúc Đẩy Các Khoản Chi Trả “Thu Nhập Cao Phổ Quát” như Giải Pháp Tối Ưu Cho Tình Trạng Thất Nghiệp Do AI