Презентация нового автоматизированного сервиса сканирования кода на базе искусственного интеллекта от Anthropic, поддерживаемого их чатботом Claude, вызвала резкое падение акций крупных американских компаний в сфере кибербезопасности. Инвесторы восприняли новый продукт как потенциальную угрозу конкуренции для традиционных решений в области программной безопасности, сообщает AzerNEWS.
За два торговых дня акции CrowdStrike и Zscaler снизились примерно на 10%, а Netskope и Tenable — более чем на 12%. Попытки успокоить инвесторов со стороны генерального директора CrowdStrike Джорджа Курца, который написал в LinkedIn, что автоматическое сканирование кода не может заменить комплексные платформы киберзащиты, не остановили распродажу.
Фонды, отслеживающие сектор кибербезопасности — iShares Cybersecurity and Tech ETF и Global X Cybersecurity ETF — опустились до многомесячных минимумов, отражая более широкую тревогу инвесторов.
Негативный настрой быстро распространился на более широкий сектор программного обеспечения и частные рынки капитала. Акции Salesforce, ServiceNow и Oracle снизились примерно на 4%, а IBM — на 13%, что стало их худшим показателем за более чем два десятилетия. Это уже вторая крупная распродажа в технологическом секторе за месяц, связанная с анонсами автоматизации рабочих процессов на базе ИИ.
Ситуацию усугубили комментарии Дженни Джонсон, генерального директора Franklin Templeton, которая предупредила, что корпоративное программное обеспечение рискует стать низкомаржинальным товаром на фоне быстрого развития технологий нейронных сетей. В результате крупные частные инвестиционные компании, такие как Blackstone, Apollo Global Management и KKR — все активные кредиторы технологического сектора — также оказались под давлением, их акции упали более чем на 5% из-за опасений замедления притока капитала, что аналитики называют «нарушением, вызванным ИИ».
По данным аналитиков Bank of America, новые инструменты Anthropic представляют собой прямую конкуренцию в основном для специализированных платформ, таких как GitLab и JFrog, которые сосредоточены на DevOps-рабочих процессах и управлении кодом.
Между тем, по информации Financial Times, сама Anthropic раскрыла случаи кибератак на её модели ИИ. Согласно компании, несколько китайских лабораторий ИИ — включая DeepSeek, Moonshot AI и MiniMax — якобы пытались осуществить так называемую «дистилляцию» моделей для извлечения данных для обучения своих собственных систем ИИ.
Anthropic утверждает, что в процессе было использовано около 24 000 фальшивых аккаунтов, что потенциально позволяло обходить экспортные ограничения США на передовые чипы, такие как Nvidia H200. Компания считает, что такие практики подрывают честную конкуренцию и создают риски для национальной безопасности, поскольку полученные системы ИИ могут не иметь мер предосторожности, предотвращающих разработку биологического оружия или кибератаки.
Аналитики рынка отмечают, что этот инцидент подчеркивает более широкое структурное изменение: инвесторы все чаще закладывают сценарий, при котором ИИ не просто дополняет традиционное корпоративное программное обеспечение, а кардинально меняет — а в некоторых случаях заменяет — его основные функции. Если эта тенденция продолжится, индустрия программного обеспечения может столкнуться с трансформацией масштаба, сопоставимой с революцией облачных вычислений начала 2010-х годов.
Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
Новые инструменты ИИ влияют на акции киберзащиты
(MENAFN- AzerNews) ** Автор: Алимат Алиева**
Презентация нового автоматизированного сервиса сканирования кода на базе искусственного интеллекта от Anthropic, поддерживаемого их чатботом Claude, вызвала резкое падение акций крупных американских компаний в сфере кибербезопасности. Инвесторы восприняли новый продукт как потенциальную угрозу конкуренции для традиционных решений в области программной безопасности, сообщает AzerNEWS.
За два торговых дня акции CrowdStrike и Zscaler снизились примерно на 10%, а Netskope и Tenable — более чем на 12%. Попытки успокоить инвесторов со стороны генерального директора CrowdStrike Джорджа Курца, который написал в LinkedIn, что автоматическое сканирование кода не может заменить комплексные платформы киберзащиты, не остановили распродажу.
Фонды, отслеживающие сектор кибербезопасности — iShares Cybersecurity and Tech ETF и Global X Cybersecurity ETF — опустились до многомесячных минимумов, отражая более широкую тревогу инвесторов.
Негативный настрой быстро распространился на более широкий сектор программного обеспечения и частные рынки капитала. Акции Salesforce, ServiceNow и Oracle снизились примерно на 4%, а IBM — на 13%, что стало их худшим показателем за более чем два десятилетия. Это уже вторая крупная распродажа в технологическом секторе за месяц, связанная с анонсами автоматизации рабочих процессов на базе ИИ.
Ситуацию усугубили комментарии Дженни Джонсон, генерального директора Franklin Templeton, которая предупредила, что корпоративное программное обеспечение рискует стать низкомаржинальным товаром на фоне быстрого развития технологий нейронных сетей. В результате крупные частные инвестиционные компании, такие как Blackstone, Apollo Global Management и KKR — все активные кредиторы технологического сектора — также оказались под давлением, их акции упали более чем на 5% из-за опасений замедления притока капитала, что аналитики называют «нарушением, вызванным ИИ».
По данным аналитиков Bank of America, новые инструменты Anthropic представляют собой прямую конкуренцию в основном для специализированных платформ, таких как GitLab и JFrog, которые сосредоточены на DevOps-рабочих процессах и управлении кодом.
Между тем, по информации Financial Times, сама Anthropic раскрыла случаи кибератак на её модели ИИ. Согласно компании, несколько китайских лабораторий ИИ — включая DeepSeek, Moonshot AI и MiniMax — якобы пытались осуществить так называемую «дистилляцию» моделей для извлечения данных для обучения своих собственных систем ИИ.
Anthropic утверждает, что в процессе было использовано около 24 000 фальшивых аккаунтов, что потенциально позволяло обходить экспортные ограничения США на передовые чипы, такие как Nvidia H200. Компания считает, что такие практики подрывают честную конкуренцию и создают риски для национальной безопасности, поскольку полученные системы ИИ могут не иметь мер предосторожности, предотвращающих разработку биологического оружия или кибератаки.
Аналитики рынка отмечают, что этот инцидент подчеркивает более широкое структурное изменение: инвесторы все чаще закладывают сценарий, при котором ИИ не просто дополняет традиционное корпоративное программное обеспечение, а кардинально меняет — а в некоторых случаях заменяет — его основные функции. Если эта тенденция продолжится, индустрия программного обеспечения может столкнуться с трансформацией масштаба, сопоставимой с революцией облачных вычислений начала 2010-х годов.