Claude, el modelo de inteligencia artificial desarrollado por Anthropic, ha experimentado una interrupción global en sus servicios. Este incidente ocurre poco después de que el presidente estadounidense, Donald Trump, impusiera un veto al uso de la tecnología de Anthropic por parte del gobierno y las fuerzas armadas de Estados Unidos. La empresa informó sobre “errores frecuentes” en su plataforma tres días después de que se anunciara la restricción.
Problemas técnicos y respuesta de la empresa
En una actualización publicada en su sitio web, Anthropic señaló que su API de Claude está operando como se esperaba, pero hay problemas con las rutas de inicio y cierre de sesión de Claude.ai. Esta situación ha generado un incremento en los reportes de errores por parte de los usuarios. Según Downdetector, un sitio web que rastrea las interrupciones en servicios en línea, se registraron 1.854 incidentes reportados a las 13 horas.
Reacción del gobierno de Estados Unidos
El fallo técnico se produce poco después de que el presidente Trump decidiera bloquear el uso de la inteligencia artificial de Anthropic en la administración pública y el ejército. Esta medida fue una respuesta a la negativa de la empresa a permitir el uso de su tecnología para vigilancia social masiva y la creación de armas autónomas.
Ante la resistencia de Anthropic, el Departamento de Defensa, liderado por Pete Hegseth, ha buscado alternativas entre otros proveedores menos reticentes, como OpenAI. Claude había sido el único modelo de IA empleado por el ejército estadounidense para gestionar información clasificada.
Implicaciones militares
A pesar de la reciente prohibición, Claude fue utilizado en la planificación de una operación militar conjunta entre Estados Unidos e Israel contra Irán. Esta operación resultó en el asesinato del líder supremo iraní, Alí Jamenei. Anteriormente, el Pentágono también había empleado la tecnología de Anthropic en el secuestro del presidente venezolano, Nicolás Maduro.
Contexto y repercusiones
El veto de Trump subraya las crecientes tensiones entre el gobierno estadounidense y las empresas tecnológicas en torno al uso de la inteligencia artificial en aplicaciones militares. Mientras tanto, Anthropic continúa enfrentando desafíos técnicos y políticos en su esfuerzo por proteger el uso ético de su tecnología.
Comentarios
Todavía no hay comentarios. ¡Sé el primero en opinar!