Колишній старший PR-менеджер, який працював у Facebook засновника Цукерберга, генерального директора Tesla Маска та Google DeepMind, Торетік (Dex Hunter Torricke), після звільнення розкрив таємниці технологічних компаній для журналу Time, зокрема свої сумніви щодо засновника Facebook Цукерберга. Він зазначив, що технологічна індустрія, прагнучи проривів у штучному інтелекті, повністю ігнорує конкретні плани щодо реагування на соціальні наслідки.
Торетік зробив сенсаційне зізнання: Цукерберг не знає, навіщо йти до ООН
Торетік згадує, що у 2015 році, коли він разом із засновником Facebook Цукербергом їхав на Генасамблею ООН, він побачив, що цей керівник, відповідальний за мільярди користувачів у світі, має слабке розуміння основних структур міжнародного порядку. На приватному літаку Цукерберг сказав йому: «ООН? Що там робити?» Цей засновник мав виступити перед світовими лідерами, але був абсолютно неготовий і не мав підготовленого тексту.
У відповідь на останні заяви Торетіка, представник Meta назвав їх абсурдними. Торетік ж зазначив, що така відриваність верхівки від реальності не є винятком. Технологічні гіганти довгий час створювали оптимістичні наративи через PR, намагаючись переконати громадськість у тому, що технологічний прогрес обов’язково принесе світле майбутнє, ігноруючи ризики. Він зізнався, що раніше його обов’язком було просувати ці позитивні історії, але тепер вважає це моральним падінням.
Технологічні гіганти не мають конкретних планів щодо протидії впливу штучного інтелекту
За 15 років роботи у сфері PR Торетік співпрацював із Цукербергом, допомагав Маску з кризовими ситуаціями у SpaceX, а перед звільненням писав прес-релізи для стабілізації суспільної реакції після запуску ChatGPT та його впливу.
Щодо високого рівня розвитку штучного інтелекту, Торетік прямо критикує своїх колишніх роботодавців за те, що вони ведуть світ до прірви, не маючи конкретних стратегій щодо масових безробіттів, геополітичних конфліктів і руйнування навколишнього середовища. Він зазначає, що технологічні компанії схильні обговорювати абстрактні та розмиті питання, щоб уникнути реального законодавчого регулювання, зосереджуючись на здобутті технологічної переваги. Під час першого міжнародного саміту з AI у 2023 році в Блетчлі-парку він спостерігав, що галузь і уряди не змогли укласти зобов’язуючих угод, а лише створили незначущі технічні документи. Він вважає, що такий сліпий пошук у розробці є надзвичайно безвідповідальним для майбутнього людства, яке готується до найбільшої економічної трансформації в історії.
Торетік також розчарований байдужістю технологічних компаній до міжнародних гуманітарних криз. Він має високий рівень чутливості до проблем біженців і конфліктів, але помітив, що Кремнієва долина часто ігнорує реальність. Особливо він підкреслює, що компанії, що займаються штучним інтелектом, часто закривають очі на регіональні конфлікти та етнічні чистки, зберігаючи мовчання з політичних або комерційних мотивів, що він вважає аморальним.
Вийшовши з PR-індустрії, Торетік заснував у Лондоні некомерційну організацію Center for Tomorrow (Центр Завтра), яка розробляє конкретні політики щодо протидії впливу AI. Він виступає за те, щоб майбутнє людства формували не кілька лабораторій штучного інтелекту, а політики, бізнес і громадянське суспільство спільно. Хоча він ще не має конкретних рішень щодо безробіття, яке спричинить AI, він наголошує на необхідності розірвати ізоляцію елітних груп у прийнятті рішень. У майбутньому він планує ініціювати громадські кампанії, балотуватися у політику, щоб сприяти інноваціям у гуманітарній сфері та системних реформах, подолати великий розрив між технологічним розвитком і здатністю суспільства адаптуватися.
Представник DeepMind, що належить Google, відмовився коментувати критику Торетіка, але Google висловив незгоду з твердженнями про відсутність конкретних заходів щодо протидії AI-наслідкам. Представник Google зазначив, що DeepMind завжди прагне збалансованого підходу до штучного інтелекту, враховуючи і ризики, і переваги. Журналіст журналу Time звернувся з запитами до компаній Маска, але відповіді не отримав.