La popular plataforma de chatbot Claude de Anthropic ha estado lidiando con una interrupción prolongada desde la madrugada del lunes, con la compañía confirmando problemas y diciendo que está trabajando en una solución.
Los usuarios comenzaron a reportar problemas generalizados para conectarse a Claude poco después de las 6 a.m. ET, según Down Detector, y la página de estado de Claude mostró un reconocimiento de los problemas poco después. Según la última actualización, Anthropic escribió: “El problema ha sido identificado y se está implementando una solución.”
Decrypt contactó a Anthropic para comentar, pero no recibió respuesta de inmediato.
La interrupción prolongada ocurre justo días después de que el presidente Trump instruyera a las agencias gubernamentales de EE. UU. a dejar de usar la plataforma de IA, tras desacuerdos entre Anthropic y el Pentágono sobre cómo podría usarse el modelo en acciones de guerra.
“¡Estados Unidos de América nunca permitirá que una empresa radical de izquierda, woke, dicte cómo nuestro gran ejército pelea y gana guerras!”, escribió Trump en Truth Social el viernes. “Esa decisión corresponde a su comandante en jefe y a los líderes tremendos que nombro para dirigir nuestro ejército.”
El gobierno de EE. UU. tendrá seis meses para eliminar el software y en su lugar usar los modelos GPT de OpenAI, tras un acuerdo anunciado el viernes por la tarde. A pesar del conflicto, Claude de Anthropic fue utilizado durante los ataques de EE. UU. en Irán la madrugada del sábado, informó The Wall Street Journal.
Nota del editor: Esta historia está en desarrollo y se actualizará con más detalles.