El Departamento de Defensa de Estados Unidos ha incluido a la empresa de inteligencia artificial Anthropic en una lista que la considera un riesgo para la cadena de suministro, lo que implica que otros contratistas del ejército deberán cesar el uso de sus servicios. Hasta el momento, el Pentágono empleaba Claude, la avanzada herramienta de IA de Anthropic, para gestionar información clasificada. Sin embargo, la negativa de la empresa a utilizar su tecnología para la vigilancia masiva y la creación de armas autónomas ha desencadenado esta medida.
Restricciones en el uso de IA
Anthropic, una empresa emergente nacida de OpenAI, se ha centrado en desarrollar inteligencia artificial con un enfoque ético. Dario Amodei, director ejecutivo de Anthropic, ha insistido en que la utilización de IA para operar armas autónomas, capaces de identificar y atacar objetivos sin supervisión humana, representa un peligro significativo. El potencial de error en aplicaciones civiles de estos sistemas genera preocupación sobre su desempeño en situaciones de combate.
“El ejército no permitirá que un proveedor limite el uso legal de una capacidad crítica, poniendo en peligro a nuestros combatientes”, indicó el comunicado del Pentágono.
Impacto de la decisión
La inclusión de Anthropic en la lista negra supone la cancelación de un contrato de 200 millones de dólares con el gobierno estadounidense, además de prohibir el uso de Claude por parte de empresas que colaboran con el ejército. A pesar de esto, compañías estadounidenses podrán seguir utilizando la IA de Anthropic en proyectos no relacionados con el Departamento de Defensa.
“La decisión de la administración no es legalmente válida y no vemos otra opción que impugnarla ante los tribunales”, ha reiterado Anthropic.
Contexto y controversias
Especialistas han advertido que el uso de la IA “para todos los fines legales”, como exige el Pentágono, es un concepto amplio que carece de regulación clara, lo que podría llevar a aplicaciones preocupantes en entornos militares. Por otro lado, las leyes estadounidenses no permiten la vigilancia de ciudadanos, aunque agencias como el Servicio de Inmigración y Control de Aduanas (ICE) han recurrido a empresas de datos para obtener información de ciudadanos.
Reacciones y nuevas alianzas
Tras el distanciamiento con Anthropic, OpenAI ha firmado un acuerdo con el Pentágono para gestionar su información clasificada. A pesar de asegurar que no otorgará carta blanca al ejército, expertos han puesto en duda la efectividad de las medidas de seguridad anunciadas por la empresa. Sam Altman, director ejecutivo de OpenAI, ha logrado capitalizar la salida de su competidor Anthropic, mientras que Dario Amodei ha expresado críticas hacia OpenAI por participar en lo que considera un “teatro” de medidas de seguridad insuficientes.
La situación refleja una creciente tensión sobre el papel de la inteligencia artificial en aplicaciones militares, y destaca las diferencias en las políticas de las empresas tecnológicas respecto al uso ético de sus innovaciones.
Comentarios
Todavía no hay comentarios. ¡Sé el primero en opinar!