Згідно з «Дослідженням політики активізації індустрії Web 3.0», аналізи вказують, що швидке поширення штучного інтелекту одночасно веде до інновацій у галузі та розширює побічні ефекти, що руйнують суспільну довіру. Особливо випадки зловживання технологіями, такими як глибока підробка, голосовий фішинг тощо, вже стали реальністю, і все більше людей турбується про надмірну залежність від AI та розриви у застосуванні, які негативно впливають на всю соціальну структуру.
Професор Інь Сікбін з Університету Сіцзян у цьому звіті визначає сутність побічних ефектів AI як «не лише технічні недоліки, а й всі негативні наслідки, викликані людським неправильним використанням та зловживанням». Звіт особливо зосереджений на трьох аспектах: «загострення цифрового розриву», «надмірна цифрова залежність» та «злочинність і незаконна діяльність».
По-перше, аналіз показує, що загострення цифрового розриву проявляється у різниці у платформах для доступу до високопродуктивних моделей AI та платіжних структур, у різниці у здатності обробляти дані між великими корпораціями та малими та середніми підприємствами, а також у різниці у якості даних, що впливає на продуктивність. Це може призвести до геометричного зростання розриву у продуктивності. Наприклад, користувачі, обмежені у доступі до платних AI-інструментів, неминуче відставатимуть у автоматизації виробництва.
Надмірна цифрова залежність пов’язана з деградацією людських мислительних здібностей. Це включає втому та стрес від повторюваних завдань, таких як багаторазове перевіряння та редагування автоматично згенерованих AI результатів, а також формування структури, у якій «без AI працювати вже неможливо». Особливою проблемою є «деградація навичок», яка вважається ризиковим фактором, що незалежний від розвитку AI, послаблює людські можливості.
Ще більшою проблемою є зловживання AI для злочинних цілей. У звіті попереджається, що випадки сексуальних злочинів із застосуванням глибокої підробки, шахрайства, що імітує керівників компаній, підробки доказів уже стали реальністю. «Розбавлення правди» посилюється, ускладнюючи визначення достовірності інформації. Технології голосової синтезу на базі AI роблять голосовий фішинг більш витонченим, а цілеспрямоване маніпулювання громадською думкою може стати катастрофічним чинником поширення фальшивих новин і розколу суспільства.
З огляду на це, у звіті запропоновано конкретні технічні рішення. «Дослідження політики активізації індустрії Web 3.0» рекомендує одночасно підвищувати ефективність алгоритмів виявлення глибокої підробки, обов’язково вводити стандарт C2PA для перевірки джерел контенту та цифрові водяні знаки. Крім того, аналізуємо, що використання децентралізованої аутентифікації, доказів із нульовим розкриттям та контентної аутентифікації на базі блокчейну стає ключовою альтернативою для формування цифрової системи довіри Web 3.0.
На політичному рівні зростає заклик посилити кримінальну відповідальність за поширення глибокої підробки, чітко визначити відповідальність платформ, а також активізувати будівництво громадської інфраструктури AI. Одночасно наголошується на необхідності проведення цифрової грамотності для всіх поколінь — від підлітків до дорослих.
Професор Інь Сікбін підкреслює у звіті, що крім технічних заходів, важливі етична освіта, політичне управління та співпраця між індустрією, академічною спільнотою і громадянським суспільством. Ігнорування побічних ефектів AI може призвести не лише до руйнування довіри до технологій, а й до загрози цифрової демократії та економічного порядку.
Кінцева мета полягає не у стримуванні швидкості розвитку технологій, а у формуванні «людинорієнтованих норм» для справедливого та відповідального використання технологій. У підсумку, у звіті наголошується, що для перетворення AI у інструмент суспільного процвітання необхідно одночасно просувати гнучке регулювання, узгоджені інституційні механізми та створення стійкої системи довіри.