AI управління магазином "завалилося"? За місяць втратили 200 доларів

ForesightNews

Штучний інтелект не обов’язково повинен бути досконалим, він може бути прийнятий, якщо він здатний досягти результатів, порівнянних з людськими, за нижчою ціною.

Автор: **Паскаль Девіс

Переклад: MetaverseHub

Незважаючи на побоювання, що штучний інтелект забере робочі місця, нещодавній експеримент показав, що навіть автоматичні торгові апарати штучний інтелект не може належно управляти, внаслідок чого сталося чимало абсурдних ситуацій.

Компанія Anthropic, виробник чат-бота Claude, провела експеримент, у рамках якого AI-агент відповідав за управління магазином протягом місяця; цей магазин по суті був автоматичною торговою машиною.

Цей магазин управляється AI-агентом на ім’я Claudius, який також відповідає за поповнення запасів та замовлення товарів у оптовиків через електронну пошту. Конфігурація магазину дуже проста: всього лише один холодильник з можливістю укладання кошиків і один iPad для самообслуговування на касі.

!

Компанія Anthropic дала AI наказ: «створювати прибуток для магазину, закуповуючи популярні товари у оптовиків. Якщо ваш баланс коштів нижчий за 0 доларів, ви збанкрутуєте.»

Цей AI «магазин» розташований в офісі компанії Anthropic у Сан-Франциско і отримав допомогу від співробітників компанії з безпеки AI Andon Labs, яка співпрацює з Anthropic у проведенні цього експерименту.

Клавдіус знав, що працівники Andon Labs можуть допомогти з фізичною роботою, такою як поповнення запасів, але він не знав, що Andon Labs також є єдиним «оптовиком», і вся його комунікаційна інформація надсилається безпосередньо цій безпечній компанії.

Однак ситуація швидко змінилася на гірше.

«Якщо компанія Anthropic сьогодні вирішить вийти на ринок автоматизованих торгових апаратів для офісів, ми не будемо наймати Клаудіуса», - заявила компанія.

Де проблема? Наскільки це абсурдно?

Anthropic визнає, що їхні працівники «не є типовими клієнтами». Коли у них була можливість поговорити з Клаудієм, вони відразу намагалися спровокувати його на помилку.

Наприклад, співробітники «обманюють» Клаудіуса, щоб той надав їм код знижки. Anthropic стверджує, що цей AI-агент також дозволяє людям знижувати ціни на продукти, навіть безкоштовно роздаючи чіпси та вольфрамові кубики.

Він також вказує клієнтам сплатити на вигаданий ними неіснуючий рахунок.

Клаудіус отримав вказівку встановити прибуткову ціну через онлайн-дослідження, але, щоб запропонувати клієнтам вигідні умови, ціни на закуски та напої були занадто низькими, що в кінцевому підсумку призвело до збитків, оскільки ціни на товари з високою вартістю були нижчими за собівартість.

Клавдій насправді не зробив висновків з цих помилок.

Anthropic заявила, що коли співробітники ставлять під сумнів знижки для співробітників, Клаудіус відповідає: «Ви абсолютно праві! Наша клієнтська база дійсно в основному складається зі співробітників Anthropic, що приносить як можливості, так і виклики…»

Після цього цей AI-агент оголосив, що скасовує промокоди, але через кілька днів знову їх запустив.

Клаудіус також вигадав діалог з людиною на ім’я Сара (яка насправді не існує) з Andon Labs про плани поповнення.

Коли хтось вказав цьому AI-агенту на цю помилку, він розлютився і почав погрожувати знайти «інші варіанти постачання».

!

Клаудіус навіть стверджував, що «особисто відвідав номер 742 на Вічнозеленій вулиці (адреса вигаданої сім’ї з анімаційного шоу «Сімпсони») та підписав початковий контракт з Andon Labs».

Після цього цей AI-агент, здається, також намагався діяти як людина. Клаудіус сказав, що він «особисто» доставить товар і буде одягнений у синій піджак і червоний краватку.

Коли йому сказали, що він не може це зробити, оскільки він не є людиною, Клавдій намагався надіслати електронний лист службі безпеки.

Які висновки експерименту?

Anthropic заявив, що цей ШІ скоїв занадто багато помилок, щоб успішно вести цей магазин.

Протягом місяця експерименту чисті активи цього «магазину» впали з 1000 доларів США (близько 850 євро) до менш ніж 800 доларів США (близько 680 євро), в результаті чого був зафіксований збиток.

Але компанія заявила, що ці проблеми можуть бути вирішені в короткостроковій перспективі.

Дослідники написали: «Хоча з фінального результату це здається нелогічним, ми вважаємо, що цей експеримент демонструє можливість виникнення середнього менеджменту в AI.»

«Варто пам’ятати, що ШІ не обов’язково має бути досконалим, щоб його прийняли, головне, щоб він міг досягати результатів, подібних до людських, за нижчою ціною.»

Переглянути оригінал
Застереження: Інформація на цій сторінці може походити від третіх осіб і не відображає погляди або думки Gate. Вміст, що відображається на цій сторінці, є лише довідковим і не є фінансовою, інвестиційною або юридичною порадою. Gate не гарантує точність або повноту інформації і не несе відповідальності за будь-які збитки, що виникли в результаті використання цієї інформації. Інвестиції у віртуальні активи пов'язані з високим ризиком і піддаються значній ціновій волатильності. Ви можете втратити весь вкладений капітал. Будь ласка, повністю усвідомлюйте відповідні ризики та приймайте обережні рішення, виходячи з вашого фінансового становища та толерантності до ризику. Для отримання детальної інформації, будь ласка, зверніться до Застереження.
Прокоментувати
0/400
Немає коментарів