25 февраля Anthropic недавно скорректировал свою политику безопасности искусственного интеллекта, отменив первоначальное обещание запретить обучение современных систем искусственного интеллекта до полного внедрения мер безопасности. Это изменение даёт Anthropic большую гибкость в конкуренции с OpenAI, Google и xAI, а также вызывает обсуждения в отрасли о балансе между стремительным развитием искусственного интеллекта и гарантиями безопасности.
Главный научный сотрудник Anthropic, Джаред Каплан, отметил, что прекращение обучения на самом деле не решает проблемы безопасности, и одностороннее приостановка разработки неразумна, когда конкуренты быстро продвигаются. Компания подчёркивает, что повысит прозрачность, публикуя передовые дорожные карты безопасности и регулярные отчёты о рисках, а также задерживая разработку, если будут выявлены значительные риски катастроф.
Эдвард Гейст, старший исследователь политики корпорации RAND, отметил, что ранняя концепция безопасности ИИ возникла из акцента на конкретной группе мощных ИИ, и современные крупные языковые модели (LLM) переопределили эту концепцию. Изменение формулировки политики посылает инвесторам и политикам сигнал, что компании стремятся управлять рисками, оставаясь при этом экономически конкурентоспособными.
OpenAI также пересмотрела свою миссию в 2024 году, убрав слово «безопасность» и заявив цель как «обеспечение того, чтобы искусственный общий интеллект приносил пользу всему человечеству». Эта серия корректировок показывает, что лидеры отрасли смещаются в сторону более гибких и масштабируемых стратегий в плане политики и формулировок.
Anthropic недавно завершила финансирование на сумму 30 миллиардов долларов с оценкой около 380 миллиардов долларов; OpenAI также привлекает до 100 миллиардов долларов. В этом контексте компании в сфере ИИ сталкиваются с геополитической конкуренцией и государственными контрактами. Будет ли Министерство обороны США продолжать сотрудничать с Anthropic, пока не определено, что делает смену политики более разумной и стратегической.
В совокупности корректировки политики между Anthropic и OpenAI знаменуют новый этап в игре между быстрым развитием и регулированием безопасности в индустрии искусственного интеллекта, а также отражают стратегическую гибкость предприятий под влиянием стимулирования капитала и политического давления.