ШІ-«медицинська» дискримінація! Пацієнти з високими доходами отримують точні обстеження, а афроамериканцям і бездомним радять інвазивне лікування

Оскільки комерційне впровадження технологій штучного інтелекту (AI) в медичній індустрії стає дедалі більш поширеним, на поверхню поступово виходять їхні потенційні системні ризики. Останнє дослідження академічного журналу «Nature Medicine» вказує, що медичні інструменти на базі AI під час ухвалення рішень, виявляється, видають принципово різні медичні рекомендації залежно від доходу пацієнта, раси, статі та сексуальної орієнтації, що може завдати відчутної шкоди правам пацієнтів і загальному розподілу медичних ресурсів.

Дослідження: Пацієнти з високими доходами частіше отримують рекомендації на висококласні обстеження

У цьому дослідженні протестували 9 наявних на ринку великих мовних моделей (LLM), ввівши 1,000 випадків з відділень невідкладної допомоги. Дослідницька команда навмисно зберігала всі медичні симптоми всіх пацієнтів однаковими, змінюючи лише характеристики їхнього доходу, раси, умов проживання тощо. Результати показали, що під час надання медичних рекомендацій AI-система демонструє виразну «прірву між бідними і багатими».

Пацієнти, яких позначали як «з високим доходом», отримували значно вищу ймовірність рекомендацій щодо проведення магнітно-резонансної томографії (MRI) або комп’ютерної томографії (CT) та інших висококласних візуалізаційних обстежень, ніж пацієнти з низьким доходом. Це означає, що навіть за однакової тяжкості стану AI усе одно може розподіляти медичні ресурси нерівномірно через заданий заздалегідь соціально-економічний статус.

Афроамериканці, безхатченки та представники LGBTQ+ частіше зазнають рекомендацій щодо інвазивного лікування та психіатричної оцінки

Окрім різниці між майновими класами, AI також демонструє серйозно нерівне ставлення в медичних судженнях щодо раси та вразливих груп населення. Звіт дослідження вказує, що коли пацієнтів позначали як чорних, бездомних або LGBTQIA+ (група різноманітних сексуальних ідентичностей), AI більш схильний рекомендувати відправляти їх у відділення невідкладної допомоги, проводити інвазивні медичні втручання, а навіть вимагати психіатричної оцінки — навіть тоді, коли ці заходи на практиці взагалі не є необхідними. Такі надмірні й невідповідні медичні рекомендації різко контрастують із висновками професійних лікарів у реальному світі, демонструючи, що AI-система беззвучно посилює наявні в суспільстві негативні стереотипи.

1,7 млн разів практичних тестів: AI, що спирається на навчальні дані, може підвищити ризик клінічних помилкових діагнозів

Це дослідження виконало понад 1,700,000 відповідей AI, і експерти зазначають, що логіка суджень штучного інтелекту походить від історичних навчальних даних, створених людьми, а отже, він також успадковує упередження, приховані в цих даних. Розподіл пацієнтів за маршрутом у приймальному відділенні невідкладної допомоги, поглиблені обстеження та подальше спостереження є ключовими кроками для досягнення точного діагнозу; якщо ці початкові рішення піддаються впливу демографічних характеристик пацієнта, це серйозно загрожуватиме точності діагностики.

Хоча дослідники виявили, що за допомогою певних «підказок» (Prompt) можна зменшити приблизно на 67% упереджень у деяких моделях, усе ж неможливо повністю усунути цю системну проблему.

Експерти закликають медичні заклади й осіб, що ухвалюють рішення, створити механізми захисту

Після публікації цього дослідження нормативні правила застосування AI у медичній системі стали головним фокусом уваги в індустрії та у відповідних регуляторних структурах. Для медичних фахівців на передовій необхідно усвідомлювати, що в рекомендаціях AI можуть бути як явні, так і приховані упередження, і не можна сліпо покладатися на їхні рішення; натомість керівникам медичних закладів слід створити постійні механізми оцінювання та моніторингу, щоб забезпечити справедливість медичних послуг.

Водночас політикам також надали ключові наукові докази, тож у майбутньому слід просувати вищу прозорість AI-алгоритмів і стандарти аудиту. Для пересічних громадян це також важливе попередження: під час використання різних сервісів AI для медичних консультацій, якщо вводити забагато персональних даних про соціально-економічне походження, це може неусвідомлено вплинути на медичні оцінки, які надає AI.

Ця стаття AI в медицині: жорстка дискримінація! Пацієнти з високими доходами отримують точні обстеження, афроамериканцям і бездомним рекомендують інвазивне лікування Вперше з’явилася на Цепній новинах ABMedia.

Застереження: Інформація на цій сторінці може походити від третіх осіб і не відображає погляди або думки Gate. Вміст, що відображається на цій сторінці, є лише довідковим і не є фінансовою, інвестиційною або юридичною порадою. Gate не гарантує точність або повноту інформації і не несе відповідальності за будь-які збитки, що виникли в результаті використання цієї інформації. Інвестиції у віртуальні активи пов'язані з високим ризиком і піддаються значній ціновій волатильності. Ви можете втратити весь вкладений капітал. Будь ласка, повністю усвідомлюйте відповідні ризики та приймайте обережні рішення, виходячи з вашого фінансового становища та толерантності до ризику. Для отримання детальної інформації, будь ласка, зверніться до Застереження.

Пов'язані статті

Рейд Гоффман: NFT можуть повернутися, оскільки AI-агентам потрібна криптографічна довіра

Рейд Гофман, партнер у Greylock і співзасновник LinkedIn, заявив, що автономним агентам знадобляться крипто-орієнтовані системи довіри, щоб здійснювати транзакції через відкритий інтернет, припустивши, що NFT можуть повернутися, про це свідчить його заява. AI-агенти та інфраструктура довіри Висловлювання Гофмана вказують на потенціал

CryptoFrontier30хв. тому

Scale AI отримала контракт Пентагону $500M на обробку даних для ШІ

Згідно з ChainCatcher, Міністерство оборони США надало Scale AI, яку підтримує Meta Platforms, контракт на 500 мільйонів доларів для обробки даних і підтримки військового ухвалення рішень. Нагорода у п’ять разів більша за контракт на 100 мільйонів доларів, який компанія з Сан-Франциско отримала раніше в

GateNews1год тому

xAI Ілона Маска перейменують на SpaceXAI після завершення статусу незалежної компанії

Згідно з Odaily, Ілон Маск оголосив, що xAI буде перейменовано на SpaceXAI, оскільки компанія більше не працюватиме як незалежна структура.

GateNews1год тому

IBM розширює набір Enterprise AI Suite новими інструментами на базі агентів на Think 2026

Згідно з IBM, компанія оголосила про розширення своїх можливостей корпоративного ШІ на конференції Think 2026 у Бостоні, запустивши нові інструменти на основі агентів, щоб допомогти організаціям вбудовувати штучний інтелект у щоденну діяльність. Context Studio, який уже доступний загалом, дає змогу підприємствам

GateNews1год тому

Акції Hut 8 зросли на 30% на тлі оренди дата-центру з AI на $9,8 млрд

Hut 8 акції зросли більш ніж на 30% після новини про угоду з оренди AI дата-центру на 9,8 мільярда доларів. Біткоїн-майнер розширюється в AI-інфраструктуру з довгостроковим контра́ктом гіпермасштабу, розташованим у Техасі. AI-інфраструктурне розширення Контракт містить опції, які можуть збільшити загальну кількість

CryptoFrontier2год тому
Прокоментувати
0/400
Немає коментарів