La inteligencia artificial Claude, desarrollada por la empresa Anthropic, ha sido el centro de una polémica reciente tras la negativa de la compañía a que su tecnología sea utilizada con fines militares. Esta decisión ha generado un fuerte enfrentamiento con el Pentágono y ha puesto en riesgo un contrato valorado en 200 millones de dólares. La situación se complicó aún más después de que el Departamento de Guerra estadounidense amenazara con aplicar una ley de la Guerra Fría que permitiría al gobierno obligar a la industria privada a priorizar las necesidades de seguridad nacional.
El conflicto con el Pentágono
El desencuentro entre Anthropic y el gobierno estadounidense surgió tras una operación militar en Caracas para capturar al líder venezolano Nicolás Maduro, en la que se utilizó tecnología avanzada de inteligencia artificial. Aunque el entonces presidente Donald Trump no mencionó detalles específicos, se sabe que las fuerzas especiales estadounidenses, como la Delta Force, contaron con la ayuda de Claude, un software de Anthropic similar a ChatGPT.
«Estas amenazas no cambian nuestra posición: no podemos, en conciencia, acceder a su solicitud», afirmó Dario Amodei, director ejecutivo de Anthropic, después de una reunión con el secretario de Guerra, Pete Hegseth.
El Pentágono ha manifestado su intención de utilizar el software de Anthropic para diversas aplicaciones, particularmente en vigilancia y control de armas autónomas letales como drones. Sean Parnell, portavoz de las Fuerzas Armadas de EE.UU., destacó la importancia de que los socios del Departamento de Guerra estén dispuestos a colaborar en la seguridad nacional.
La competencia en el campo de la inteligencia artificial
A pesar de que el ejército estadounidense mantiene relaciones con otras grandes compañías de inteligencia artificial como OpenAI, Google y Xai, ninguna parece ofrecer las capacidades específicas de Claude para los propósitos del gobierno de Trump. Según Eneko Agirre, director del Centro Vasco de Tecnología de la Lengua, Claude destaca por su capacidad en programación y en la ejecución de tareas de inteligencia artificial agéntica, características que le otorgan una ventaja sobre sus competidores.
En la operación de captura de Maduro, se utilizó tecnología de Palantir, una empresa conocida por sus fuertes vínculos con el gobierno estadounidense y su papel en operaciones de inteligencia. Fundada por Peter Thiel, Palantir ha estado involucrada en numerosos contratos militares y se especula sobre su participación en operaciones de gran envergadura como la captura de Osama Bin Laden.
La postura de Anthropic
Anthropic fue fundada en 2021 por los hermanos Dario y Daniela Amodei, antiguos miembros de OpenAI, quienes dejaron la empresa tras desacuerdos con su dirección. La misión de Anthropic es desarrollar inteligencia artificial que sea segura y beneficiosa para la humanidad. En su página web, la compañía expresa su deseo de que Claude sea un agente ético y virtuoso.
«Fundamos Anthropic porque creemos que el impacto de la IA podría ser comparable al de las revoluciones industrial y científica, pero no confiamos en que vaya bien», afirman los creadores de Claude.
El conflicto con el gobierno de Trump muestra los desafíos éticos y las tensiones que surgen cuando las empresas tecnológicas enfrentan presiones para adaptar sus innovaciones a usos militares. La situación sigue en desarrollo, y se espera que las conversaciones entre Anthropic y el Pentágono continúen en los próximos días.
Comentarios
Todavía no hay comentarios. ¡Sé el primero en opinar!