Данные раскрывают, что «Claude деградирует в плане интеллекта» — это не городской миф; нестабильность AI-моделей представляет риск для бизнеса

После того как ИИ стал стандартным инструментом для компаний, на поверхность быстро всплывает явление, которое раньше считалось «вопросом ощущений»: LLM (крупные языковые модели) «становятся тупее». Пользователь Wisely Chen указывает, что так называемое «снижение интеллекта LLM» — не городской миф, а уже можно непрерывно отслеживать по данным, и это уже оказывает реальное влияние на рабочие процессы предприятий.

Он приводит пример из собственного опыта: 15 апреля в сервисах серии Claude от Anthropic произошло всеобъемлющее ухудшение, включая claude.ai, API и Claude Code — везде отображалось «Degraded Performance». Это не просто замедление или разовые ошибки: качество ответов явно рухнуло, а иногда возникали ситуации, когда сервис невозможно было нормально использовать, из-за чего в тот день все три его задачи разработки были сорваны.

Для индивидуальных разработчиков такие сценарии, возможно, означают лишь снижение эффективности, но для команд IT предприятий эффект многократно усиливается. Когда в команде несколько инженеров одновременно полагаются на ИИ-инструменты для кодинга, написания документов и автоматизации процессов, одно снижение уровня модели означает, что общая производительность одновременно уходит вниз, превращаясь затем в заметные потери времени и затрат.

ИИ кажется «тупее»? Данные подтверждают: «давно произошло снижение»

Wisely Chen отмечает, что разговоры вроде «GPT стал тупее», «Claude не тот, что раньше» ходят в сообществе уже давно, но долгое время не хватало объективных данных для подтверждения. Лишь в последнее время появились платформы, ведущие постоянный мониторинг качества моделей — и только тогда это явление впервые удалось количественно оценить.

В частности, StupidMeter проводит круглосуточное автоматизированное тестирование популярных моделей, включая OpenAI, Anthropic, Google и др., отслеживая показатели точности, способности к рассуждению и стабильности. В отличие от традиционных разовых benchmark-ов, такие системы ближе к корпоративному мониторингу API или доступности сервисов — они наблюдают колебания производительности модели в реальной среде использования.

Результаты данных довольно наглядны: сейчас большинство основных моделей находятся в состоянии предупреждения или деградации, и лишь немногие поддерживают нормальный режим. Это означает нестабильность качества моделей: это не проблема одного продукта, а распространённое явление во всей отрасли.

LLM «тихо» снижает интеллект, влияя на стабильность рабочих процессов с ИИ на предприятиях

Для компаний такие изменения означают, что ИИ уже вышел из роли «инструмента для повышения эффективности» и превратился в «переменную, влияющую на стабильность». Если повседневные рабочие процессы предприятия — от написания кода и code review до выпуска документов и аналитических отчётов — уже сильно зависят от LLM, то если в какой-то день у модели снижается способность к рассуждению или падает качество ответов, эти проблемы не будут проявляться точечно, как обычные баги в традиционном ПО: они одновременно проникнут во все этапы, где используется ИИ.

Ключевее всего то, что такие колебания часто трудно предсказать и сложно вовремя заметить. У большинства компаний нет механизмов постоянного мониторинга качества моделей: обычно они понимают, что проблема — в самой модели, только после того как результаты становятся аномальными или после снижения эффективности команды. В такой ситуации «снижение интеллекта» больше не просто субъективное ощущение пользователей — это системный риск, который напрямую влияет на ритм работы предприятия.

Когда ИИ становится «водой и электричеством», стабильность становится новым ключевым показателем

Wisely Chen сравнивает роль LLM с «водой и электричеством современного предприятия». Когда ИИ глубоко встраивается в повседневную операционную деятельность и становится незаменимой базовой способностью, важность стабильности растёт.

Раньше при оценке ИИ-инструментов компании в основном концентрировались на мощности модели, цене и функциональности. Но по мере того как проявляется явление «снижения интеллекта», на первый план выходит ещё один, более критичный показатель — стабильность. Когда качество модели может меняться без уведомления, компаниям приходится не просто «использовать ИИ», а начинать нести риск нового типа инфраструктуры. И ещё безнадёжнее то, что если судить только о передовых крупных языковых моделях, то, пока не решены проблемы с вычислительными мощностями, в основном может продолжаться то же самое.

Эта статья Данные раскрывают, что «Claude снижает интеллект» — это не городской миф, нестабильность ИИ-моделей становится риском для предприятий Самое раннее появление: в цепных новостях ABMedia.

Отказ от ответственности: Информация на этой странице может поступать от третьих лиц и не отражает взгляды или мнения Gate. Содержание, представленное на этой странице, предназначено исключительно для справки и не является финансовой, инвестиционной или юридической консультацией. Gate не гарантирует точность или полноту информации и не несет ответственности за любые убытки, возникшие от использования этой информации. Инвестиции в виртуальные активы несут высокие риски и подвержены значительной ценовой волатильности. Вы можете потерять весь инвестированный капитал. Пожалуйста, полностью понимайте соответствующие риски и принимайте разумные решения, исходя из собственного финансового положения и толерантности к риску. Для получения подробностей, пожалуйста, обратитесь к Отказу от ответственности.

Связанные статьи

Рид Хоффман: NFT могут вернуться, поскольку AI-агентам нужен криптодоверие

Рид Хоффман, партнер в Greylock и сооснователь LinkedIn, заявил, что автономным агентам понадобятся основанные на криптографии системы доверия, чтобы проводить сделки через открытый интернет, предположив, что NFT могут вернуться, об этом говорится в его заявлении. AI-агенты и инфраструктура доверия Замечания Хоффмана указывают на потенциальное

CryptoFrontier58м назад

Scale AI получает $500M контракт Пентагона на обработку данных с помощью ИИ

По данным ChainCatcher, Министерство обороны США присудило Scale AI, поддерживаемой Meta Platforms, контракт на 500 миллионов долларов для обработки данных и поддержки военного принятия решений. Эта награда в пять раз больше контракта на 100 миллионов долларов, который компания из Сан-Франциско получила в

GateNews1ч назад

xAI Илона Маска переименуют в SpaceXAI, поскольку статус независимой компании прекращается

Согласно Odaily, Илон Маск объявил, что xAI будет переименована в SpaceXAI, поскольку компания больше не будет работать как независимое юрлицо.

GateNews2ч назад

IBM расширяет набор корпоративных AI-инструментов с новыми агентными решениями на Think 2026

По данным IBM, компания объявила о расширении своих корпоративных возможностей ИИ на конференции Think 2026 в Бостоне, запуская новые агентные инструменты, чтобы помочь организациям внедрять искусственный интеллект в повседневные операции. Context Studio, теперь доступный в общем пользовании, позволяет предприятиям

GateNews2ч назад

Акции Hut 8 выросли на 30% до аренды дата-центра для ИИ на $9,8 млрд

Акции Hut 8 подскочили более чем на 30% после новости о соглашении об аренде AI-ЦОД на 9,8 миллиарда долларов. Биткоин-майнер расширяется в AI-инфраструктуру благодаря долгосрочному контракту на уровне hyperscale, размещённому в Техасе. Расширение AI-инфраструктуры Контракт включает опции, которые могут увеличить общую

CryptoFrontier2ч назад
комментарий
0/400
Нет комментариев