Чи використовує Міра Джоєва Вікі AI, щоб створити «проєкт на відмінний бал»? Тест від розробників: це справді є що показати чи перебільшений рекламний хайп?

Система AI для пам’яті MemPalace, яку розробляє Miйла Йовович, заявляє, що тести набрали ідеальні бали й швидко стала вірусною, але спільнота викрила, що тести нібито містять шахрайство та маніпуляції з даними. Під час практичної перевірки виявили, що ефект перебільшений і є багато помилок; команда визнала недоліки та вже працює над їх виправленням.

Міла Йовович створила AI-«палац пам’яті», що викликало інтерес з боку зовнішніх

У вчорашньому (4/7) великому новинному блоці в AI-спільноті йдеться про те, що голлівудська акторка Міла Йовович (Milla Jovovich), відома за «Оселя зла» та «П’ятий елемент», разом із розробником Беном Сігманом (Ben Sigman) за допомогою Claude Code створили «MemPalace» — відкриту AI-систему пам’яті.

Поширилась версія про «голлівудську зірку, яка в кросовері зробила проєкт на 100 балів», і станом на сьогодні MemPalace на GitHub має понад 20 тисяч зірок, але дуже швидко це викликало сумніви в середовищі розробників: це справді щось вартісне чи просто розкрутка?

Спершу пояснимо мотивацію появи MemPalace. У офіційній документації зазначено, що хотіли вирішити проблему: використані в AI-системах користувацькі діалоги, процеси ухвалення рішень та обговорення архітектури зазвичай зникають після завершення робочої сесії, через що кілька місяців праці падають до нуля.

Щоб вирішити цю проблему, MemPalace використовує просторову архітектуру для збереження спогадів: інформацію чітко класифікують на крила, що представляють персонал або проєкти, а також у різних рівнях структури — коридорах, кімнатах і шухлядах, щоб зберігати оригінальний текст діалогу для подальшого семантичного пошуку.

Розробницька команда стверджує, що MemPalace отримала 100% у довготривалому оціночному базисі пам’яті LongMemEval, і досягла точності 96,6% без виклику будь-яких зовнішніх API, а також може повністю працювати локально, не потребуючи підписки на хмарні сервіси, і має вбудовану заявлену систему діалектів AAAK, здатну забезпечити 30-кратне безповоротне стиснення.

Джерело зображення: GitHub Голлівудська зірка Міла Йовович створила AI-«палац пам’яті», що привернуло увагу ззовні

Колеги й спільнота разом поставили під сумнів, а також вказали на недоліки в методі тестування та рекламі

Втім, результати MemPalace з «ідеальним» LongMemEval дуже швидко викликали заперечення в колег.

PenfieldLabs, яка так само розробляє AI-системи пам’яті, зазначила, що заявити про 100% на датасеті LoCoMo математично неможливо, оскільки стандартні відповіді для цього датасету самі по собі містять 99 помилок.

Після аналізу PenfieldLabs виявили, що 100% результат MemPalace з’являється через встановлення кількості пошукових витягувань на 50 разів, але на тестових діалогах максимальна кількість рівнів становить лише 32. Це означає, що система напряму обходить етап витягування й передає всі дані AI-моделі для читання.

Щодо 100% результату LongMemEval команду виявили таку, що націлена на 3 конкретні проблеми, у яких було зосереджено помилки розробки, і написала спеціальний код для виправлення; існує підозра, що це зроблено для шахрайства на тестовому наборі.

Джерело зображення: Reddit Колеги PenfieldLabs вказали, що заявити про 100% на датасеті LoCoMo математично неможливо

Практична перевірка на GitHub: оціночні тести містять елементи введення в оману

Користувач GitHub hugooconnor після практичної перевірки прокоментував: MemPalace заявляє про точність пошуку до 96,6%, але фактично не використала жодного разу архітектуру «палацу пам’яті», яку рекламували. Hugooconnor каже, що їхній тест просто викликав стандартну функцію базового сховища ChromaDB і не мав нічого спільного з логікою класифікації крил, кімнат чи шухляд, на які робив акцент проєкт.

Після тестування hugooconnor виявив, що коли система справді вмикає власну логіку класифікації цих «палаців пам’яті», результат пошуку, навпаки, погіршується. Наприклад, у режимі «кімната» точність падає до 89,4%, а після ввімкнення технології стиснення AAAK точність ще нижча — 84,2%; у двох випадках обидва показники нижчі за продуктивність стандартної бази даних.

Hugooconnor також розкритикував методологію тестування: середовище тестування MemPalace спеціально звужує діапазон витягування для кожного питання до приблизно 50 етапів діалогу; шукати відповідь у надзвичайно малій тестовій базі надто просто.

Якщо розширити діапазон до більш реалістичних сценаріїв із понад 19 000 етапів діалогу, точність традиційного пошуку за ключовими словами падає до 30%, що демонструє: нинішній формат тестування MemPalace приховує справжню складність пошуку.

Джерело зображення: GitHub Практична перевірка користувачів GitHub: у базових тестах MemPalace є елементи введення в оману

Водночас, хоча розробницька команда вже опублікувала заяву про виправлення та визнала, що технологія AAAK справді є стисненням із втратою, і пообіцяла коригувати документи та дизайн системи відповідно до суворої критики спільноти, основний файл опису проєкту досі зберігає кілька невиправлених перебільшень, зокрема заяви про 30-кратне безповоротне стиснення та 34% підвищення точності пошуку; і порівняльні графіки з іншими конкурентами також повністю позбавлені джерел і походження.

Вихідний код MemPalace стикається з багатьма Bug

Зі збільшенням кількості розробників, які завантажують тести, на платформі GitHub з’явилась велика кількість повідомлень про баги у вихідному коді MemPalace.

Користувач cktang88 перелічив кілька серйозних недоліків: зокрема, інструкція для стиснення не працює й призводить до падіння системи, помилка в логіці підрахунку кількості слів у підсумку, неточні статистичні дані для «копання» кімнат, а також те, що сервер щоразу при виклику завантажує всю інтерпретовану інформацію в пам’ять, створюючи серйозні проблеми з витратами ресурсів.

Інші проблеми, на які також вказали, включають те, що система жорстко записує імена членів сім’ї розробника в стандартний конфіг-файл, а також існує примусове верхнє обмеження у 10k записів під час виведення стану запиту.

Для цих проблем відкрита спільнота вже почала активно виправляти. Користувач adv3nt3 подав кільказапитів навиправлення, зокрема виправлення статистичних даних для «копання», видалення стандартно заданих імен членів сім’ї та відтермінування часу ініціалізації знань із графа.** У подальшому розробницька команда також визнала ці помилки й через співпрацю з спільнотою поступово вирішує проблеми в коді.

Vibe Coding від Міли Йовович дуже круте, а от маркетинг — не дуже

Щодо цього проєкту MemPalace користувач Hacker News darkhanakh зробив такий висновок: MemPalace створює відчуття на кшталт OpenClaw — штучне маніпулювання результатами базового тесту (benchmark), аби зробити їх схожими на ідеально бездоганні, а потім упакувати це як якийсь значущий прорив для маркетингу.

Він вважає, що нижчорівнева технологія MemPalace можливо справді цікава, але за наявності таких недоліків у методі тестування, і ще й просувати це як «найвищий публічний результат в історії», це виглядає недоречно. «Але, щодо того, що Міла Йовович грає у Vibe Coding — я думаю, що це все ж доволі круто.»

Додаткове читання:
AI пише код і виходить косяк! Проблема з кібербезпекою в додатку «惜食獵人» про товари зі строком придатності з супермаркету, домашній GPS повністю оголює дані

Застереження: Інформація на цій сторінці може походити від третіх осіб і не відображає погляди або думки Gate. Вміст, що відображається на цій сторінці, є лише довідковим і не є фінансовою, інвестиційною або юридичною порадою. Gate не гарантує точність або повноту інформації і не несе відповідальності за будь-які збитки, що виникли в результаті використання цієї інформації. Інвестиції у віртуальні активи пов'язані з високим ризиком і піддаються значній ціновій волатильності. Ви можете втратити весь вкладений капітал. Будь ласка, повністю усвідомлюйте відповідні ризики та приймайте обережні рішення, виходячи з вашого фінансового становища та толерантності до ризику. Для отримання детальної інформації, будь ласка, зверніться до Застереження.

Пов'язані статті

Карапеті розкрив: повний метод створення персональної бази знань за допомогою LLM

Засновник команди OpenAI, колишній директор з ШІ в Tesla Andrej Karpathy у X опублікував робочий процес «LLM Knowledge Bases», пояснивши, що в нього нещодавно різко змінилося використання великих обсягів токенів із «керування кодом» на «керування знаннями» — за допомогою LLM зібрати розрізнені праці, статті, папки, зображення в єдину автоматично підтримувану персональну wiki. Уся ця схема вже накопичила приблизно ~100 статей, ~400 тис. слів у його власному дослідницькому проєкті, і весь процес від початку до оновлень виконувала LLM. У цьому матеріалі зібрано повний setup Karpathy та наведено практичний чекліст для розробників, які хочуть зробити собі таке саме. Ключова ідея: raw-дані → LLM-компіляція → wiki → Q&A Філософію дизайну Karpathy можна звести до однієї

ChainNewsAbmedia2год тому

Фірма з управління резервами Bitcoin K Wave Media отримує до $485M на розвиток інфраструктури для ШІ

За даними ChainCatcher, компанія K Wave Media, що є біткоїн-казначейством і котирується на Nasdaq, 4 травня оголосила про стратегічний поворот до AI-інфраструктури, залучивши до $485 мільйонів підтримки капіталу для інвестицій у центри обробки даних, послуг оренди GPU, а також придбань і партнерств у сфері AI-інфраструктури. Компанія

GateNews3год тому

Antimatter запускає план дата-центру для ШІ з фінансуванням на 300 млн євро

Antimatter, компанія з хмарної інфраструктури для AI-навантажень із Франції, запустилася 4 травня, об’єднавши три наявні компанії: Datafactory, Policloud і Hivenet. Компанія залучає 300 мільйонів євро (351 мільйон доларів), щоб у 2026 році розгорнути 100 мікро ЦОД для AI-інференсу

CryptoFrontier5год тому

Міністерство освіти «Бібліотека має AI»: безкоштовне користування ChatGPT і Claude в бібліотеках! Час і місце дії — в одному огляді

Міністерство освіти просуває ініціативу «館館有 AI». Починаючи з четвертого кварталу цього року, у державних бібліотеках, зокрема в Національній бібліотеці, встановлять у кожній бібліотеці по 5 AI-комп’ютерів. Громадяни зможуть безкоштовно користуватися такими інструментами, як ChatGPT, Claude, Gemini, використовуючи читацький квиток, щоб скоротити розрив між тими, хто має платний доступ до AI, і тими, хто його не має. Також планується розширення на 47 державних університетських бібліотек; фінансування здійснюватиметься за рахунок коштів самих шкіл або через подання заявок на субсидії. Водночас потрібно подолати виклики, пов’язані з лімітами часу користування, керуванням обліковими записами, конфіденційністю та ліцензуванням.

ChainNewsAbmedia6год тому

Економіка AI віртуальних моделей: Aitana, Emily та розбір 4 Markdown-систем

ШІ віртуальні моделі пройшли шлях від тематичних експериментів до повноцінних комерційних проєктів із місячним доходом у десятки тисяч доларів, а весь технічний stack швидко дозрів за 18 місяців. У цій статті зібрано три показові кейси: Aitana López із The Clueless (Барселона, дохід €10,000 на місяць), Emily Pellegrini, створена анонімним автором (прибуток щотижня близько 1 десятка тисяч доларів), а також нещодавній кейс «Maya», який поширився у X: студент із Техасу, як стверджують, зібрав AI-віртуальну особистість за допомогою 4 файлів markdown, а в перший місяць вона принесла 43 тис. доларів на акаунті OnlyFans. Aitana López: власна віртуальна модель The Clueless, дохід до €10,000 на місяць Aitana López — це в С

ChainNewsAbmedia9год тому

TipTip досягає прибутковості EBITDA, оскільки ШІ підсилює сферу продажу квитків для розваг

Індонезійська платформа для розваг і вражень TipTip оголосила 4 травня, що на початку 2026 року досягла прибутковості на рівні компанії за показником EBITDA завдяки контролю витрат, покращенню юніт-економіки та партнерству з провідним інвестором East Ventures. Зростання розваг і квитків Розважальний квитковий сервіс TipTip

CryptoFrontier11год тому
Прокоментувати
0/400
Немає коментарів