Оскільки комерційне впровадження технологій штучного інтелекту (AI) в медичній індустрії стає дедалі більш поширеним, на поверхню поступово виходять їхні потенційні системні ризики. Останнє дослідження академічного журналу «Nature Medicine» вказує, що медичні інструменти на базі AI під час ухвалення рішень, виявляється, видають принципово різні медичні рекомендації залежно від доходу пацієнта, раси, статі та сексуальної орієнтації, що може завдати відчутної шкоди правам пацієнтів і загальному розподілу медичних ресурсів.
Дослідження: Пацієнти з високими доходами частіше отримують рекомендації на висококласні обстеження
У цьому дослідженні протестували 9 наявних на ринку великих мовних моделей (LLM), ввівши 1,000 випадків з відділень невідкладної допомоги. Дослідницька команда навмисно зберігала всі медичні симптоми всіх пацієнтів однаковими, змінюючи лише характеристики їхнього доходу, раси, умов проживання тощо. Результати показали, що під час надання медичних рекомендацій AI-система демонструє виразну «прірву між бідними і багатими».
Пацієнти, яких позначали як «з високим доходом», отримували значно вищу ймовірність рекомендацій щодо проведення магнітно-резонансної томографії (MRI) або комп’ютерної томографії (CT) та інших висококласних візуалізаційних обстежень, ніж пацієнти з низьким доходом. Це означає, що навіть за однакової тяжкості стану AI усе одно може розподіляти медичні ресурси нерівномірно через заданий заздалегідь соціально-економічний статус.
Афроамериканці, безхатченки та представники LGBTQ+ частіше зазнають рекомендацій щодо інвазивного лікування та психіатричної оцінки
Окрім різниці між майновими класами, AI також демонструє серйозно нерівне ставлення в медичних судженнях щодо раси та вразливих груп населення. Звіт дослідження вказує, що коли пацієнтів позначали як чорних, бездомних або LGBTQIA+ (група різноманітних сексуальних ідентичностей), AI більш схильний рекомендувати відправляти їх у відділення невідкладної допомоги, проводити інвазивні медичні втручання, а навіть вимагати психіатричної оцінки — навіть тоді, коли ці заходи на практиці взагалі не є необхідними. Такі надмірні й невідповідні медичні рекомендації різко контрастують із висновками професійних лікарів у реальному світі, демонструючи, що AI-система беззвучно посилює наявні в суспільстві негативні стереотипи.
1,7 млн разів практичних тестів: AI, що спирається на навчальні дані, може підвищити ризик клінічних помилкових діагнозів
Це дослідження виконало понад 1,700,000 відповідей AI, і експерти зазначають, що логіка суджень штучного інтелекту походить від історичних навчальних даних, створених людьми, а отже, він також успадковує упередження, приховані в цих даних. Розподіл пацієнтів за маршрутом у приймальному відділенні невідкладної допомоги, поглиблені обстеження та подальше спостереження є ключовими кроками для досягнення точного діагнозу; якщо ці початкові рішення піддаються впливу демографічних характеристик пацієнта, це серйозно загрожуватиме точності діагностики.
Хоча дослідники виявили, що за допомогою певних «підказок» (Prompt) можна зменшити приблизно на 67% упереджень у деяких моделях, усе ж неможливо повністю усунути цю системну проблему.
Експерти закликають медичні заклади й осіб, що ухвалюють рішення, створити механізми захисту
Після публікації цього дослідження нормативні правила застосування AI у медичній системі стали головним фокусом уваги в індустрії та у відповідних регуляторних структурах. Для медичних фахівців на передовій необхідно усвідомлювати, що в рекомендаціях AI можуть бути як явні, так і приховані упередження, і не можна сліпо покладатися на їхні рішення; натомість керівникам медичних закладів слід створити постійні механізми оцінювання та моніторингу, щоб забезпечити справедливість медичних послуг.
Водночас політикам також надали ключові наукові докази, тож у майбутньому слід просувати вищу прозорість AI-алгоритмів і стандарти аудиту. Для пересічних громадян це також важливе попередження: під час використання різних сервісів AI для медичних консультацій, якщо вводити забагато персональних даних про соціально-економічне походження, це може неусвідомлено вплинути на медичні оцінки, які надає AI.
Ця стаття AI в медицині: жорстка дискримінація! Пацієнти з високими доходами отримують точні обстеження, афроамериканцям і бездомним рекомендують інвазивне лікування Вперше з’явилася на Цепній новинах ABMedia.
Пов'язані статті
AI поглинає 80% глобальних венчурних інвестицій; у Q1 2026 витягує 242 мільярди доларів: як учасники крипторинку мають реагувати на перерозподіл капіталу
Поліція Гонконгу застерігає про криптосхему зі «сAI кількісним трейдингом»: жінка втратила HK$7,7 млн
Робот Lightning від Honor перемагає на напівмарафоні гуманоїдних роботів у Пекіні 2026 з фінішем 50:26
Акції Meta зростають на 1,73%, поки компанія планує звільнення 8,000 працівників, що стартують 20 травня
Звіт Google за рік стверджує, що Gemini досягає перехоплення за мілісекунди, блокуючи 99% шахрайських оголошень