ШІ-«медицинська» дискримінація! Пацієнти з високими доходами отримують точні обстеження, а афроамериканцям і бездомним радять інвазивне лікування

Оскільки комерційне впровадження технологій штучного інтелекту (AI) в медичній індустрії стає дедалі більш поширеним, на поверхню поступово виходять їхні потенційні системні ризики. Останнє дослідження академічного журналу «Nature Medicine» вказує, що медичні інструменти на базі AI під час ухвалення рішень, виявляється, видають принципово різні медичні рекомендації залежно від доходу пацієнта, раси, статі та сексуальної орієнтації, що може завдати відчутної шкоди правам пацієнтів і загальному розподілу медичних ресурсів.

Дослідження: Пацієнти з високими доходами частіше отримують рекомендації на висококласні обстеження

У цьому дослідженні протестували 9 наявних на ринку великих мовних моделей (LLM), ввівши 1,000 випадків з відділень невідкладної допомоги. Дослідницька команда навмисно зберігала всі медичні симптоми всіх пацієнтів однаковими, змінюючи лише характеристики їхнього доходу, раси, умов проживання тощо. Результати показали, що під час надання медичних рекомендацій AI-система демонструє виразну «прірву між бідними і багатими».

Пацієнти, яких позначали як «з високим доходом», отримували значно вищу ймовірність рекомендацій щодо проведення магнітно-резонансної томографії (MRI) або комп’ютерної томографії (CT) та інших висококласних візуалізаційних обстежень, ніж пацієнти з низьким доходом. Це означає, що навіть за однакової тяжкості стану AI усе одно може розподіляти медичні ресурси нерівномірно через заданий заздалегідь соціально-економічний статус.

Афроамериканці, безхатченки та представники LGBTQ+ частіше зазнають рекомендацій щодо інвазивного лікування та психіатричної оцінки

Окрім різниці між майновими класами, AI також демонструє серйозно нерівне ставлення в медичних судженнях щодо раси та вразливих груп населення. Звіт дослідження вказує, що коли пацієнтів позначали як чорних, бездомних або LGBTQIA+ (група різноманітних сексуальних ідентичностей), AI більш схильний рекомендувати відправляти їх у відділення невідкладної допомоги, проводити інвазивні медичні втручання, а навіть вимагати психіатричної оцінки — навіть тоді, коли ці заходи на практиці взагалі не є необхідними. Такі надмірні й невідповідні медичні рекомендації різко контрастують із висновками професійних лікарів у реальному світі, демонструючи, що AI-система беззвучно посилює наявні в суспільстві негативні стереотипи.

1,7 млн разів практичних тестів: AI, що спирається на навчальні дані, може підвищити ризик клінічних помилкових діагнозів

Це дослідження виконало понад 1,700,000 відповідей AI, і експерти зазначають, що логіка суджень штучного інтелекту походить від історичних навчальних даних, створених людьми, а отже, він також успадковує упередження, приховані в цих даних. Розподіл пацієнтів за маршрутом у приймальному відділенні невідкладної допомоги, поглиблені обстеження та подальше спостереження є ключовими кроками для досягнення точного діагнозу; якщо ці початкові рішення піддаються впливу демографічних характеристик пацієнта, це серйозно загрожуватиме точності діагностики.

Хоча дослідники виявили, що за допомогою певних «підказок» (Prompt) можна зменшити приблизно на 67% упереджень у деяких моделях, усе ж неможливо повністю усунути цю системну проблему.

Експерти закликають медичні заклади й осіб, що ухвалюють рішення, створити механізми захисту

Після публікації цього дослідження нормативні правила застосування AI у медичній системі стали головним фокусом уваги в індустрії та у відповідних регуляторних структурах. Для медичних фахівців на передовій необхідно усвідомлювати, що в рекомендаціях AI можуть бути як явні, так і приховані упередження, і не можна сліпо покладатися на їхні рішення; натомість керівникам медичних закладів слід створити постійні механізми оцінювання та моніторингу, щоб забезпечити справедливість медичних послуг.

Водночас політикам також надали ключові наукові докази, тож у майбутньому слід просувати вищу прозорість AI-алгоритмів і стандарти аудиту. Для пересічних громадян це також важливе попередження: під час використання різних сервісів AI для медичних консультацій, якщо вводити забагато персональних даних про соціально-економічне походження, це може неусвідомлено вплинути на медичні оцінки, які надає AI.

Ця стаття AI в медицині: жорстка дискримінація! Пацієнти з високими доходами отримують точні обстеження, афроамериканцям і бездомним рекомендують інвазивне лікування Вперше з’явилася на Цепній новинах ABMedia.

Застереження: Інформація на цій сторінці може походити від третіх осіб і не відображає погляди або думки Gate. Вміст, що відображається на цій сторінці, є лише довідковим і не є фінансовою, інвестиційною або юридичною порадою. Gate не гарантує точність або повноту інформації і не несе відповідальності за будь-які збитки, що виникли в результаті використання цієї інформації. Інвестиції у віртуальні активи пов'язані з високим ризиком і піддаються значній ціновій волатильності. Ви можете втратити весь вкладений капітал. Будь ласка, повністю усвідомлюйте відповідні ризики та приймайте обережні рішення, виходячи з вашого фінансового становища та толерантності до ризику. Для отримання детальної інформації, будь ласка, зверніться до Застереження.

Пов'язані статті

AI поглинає 80% глобальних венчурних інвестицій; у Q1 2026 витягує 242 мільярди доларів: як учасники крипторинку мають реагувати на перерозподіл капіталу

Згідно з повідомленнями, у першому кварталі 2026 року загальний обсяг глобальних венчурних інвестицій майже досягне 300 мільярдів доларів США, з яких компанії, пов’язані з AI, самі на себе припадають приблизно на 242 млрд доларів США, що становить 80% від венчурних інвестицій. Це демонструє, що AI уже став головним фокусом венчурного ринку. Оскільки кошти концентруються в AI, інші напрями, такі як crypto, зазнають витіснення; учасникам ринку потрібно скоригувати стратегії, інтегруючи AI в бізнес ще глибше, і очікувати тенденції до консолідації інфраструктури.

ChainNewsAbmedia1год тому

Поліція Гонконгу застерігає про криптосхему зі «сAI кількісним трейдингом»: жінка втратила HK$7,7 млн

Поліція Гонконгу розкрила аферу з криптовалютою, під час якої жінка втратила 7,7 мільйона HK$ шахраям, що видавали себе за інвестиційних експертів через Telegram, обіцяючи високі прибутки завдяки AI-трейдингу. Поліція застерегла громадськість про ризики, пов’язані з інвестиціями в криптовалюти.

GateNews2год тому

Гонконг оголосить сьомий список ключових підприємств завтра

Фінансовий секретар Гонконгу Пол Чан оголосив про представлення нового списку ключових підприємств, привернувши понад 100 компаній із вартістю понад 100 млрд гонконгських доларів у таких секторах, як науки про життя, ШІ та фінтех, підкресливши привабливість Гонконгу для міжнародних інвестицій.

GateNews5год тому

Робот Lightning від Honor перемагає на напівмарафоні гуманоїдних роботів у Пекіні 2026 з фінішем 50:26

Гуманоїдний робот Honor "Lightning" встановив новий рекорд на напівмарафоні гуманоїдних роботів у Пекіні Yizhuang 2026, завершивши перегони за 50 хвилин 26 секунд, перевершивши світовий рекорд людини.

GateNews9год тому

Акції Meta зростають на 1,73%, поки компанія планує звільнення 8,000 працівників, що стартують 20 травня

Meta Platforms планує скоротити приблизно 8,000 робочих місць, або 10% свого штату, починаючи з 20 травня, попри зростання цін на акції. Компанія, яка має понад $200 мільярдів доходу, зосереджується на інвестиціях в ІІ на тлі суттєвої реструктуризації, узгоджуючись із галузевими тенденціями звільнень.

GateNews16год тому

Звіт Google за рік стверджує, що Gemini досягає перехоплення за мілісекунди, блокуючи 99% шахрайських оголошень

Стаття обговорює, як Google за допомогою своєї генеративної системи штучного інтелекту Gemini посилює безпеку реклами; звіт показує, що швидкість виявлення та блокування порушуваних оголошень скоротилася до мілісекунд, а рівень блокування досяг 99%. Минулого року Google видалив 8,3 млрд рекламних оголошень і призупинив 24,9 млн акаунтів, що демонструє суттєве зростання кількості шахрайських оголошень. Експерти зазначають, що це протистояння між штучним інтелектом і штучним інтелектом; у майбутньому все одно доведеться мати справу з викликами, які приносить AI, зокрема щодо законних і незаконних дій.

ChainNewsAbmedia18год тому
Прокоментувати
0/400
Немає коментарів