La administración de Estados Unidos, bajo la presidencia de Donald Trump, ha planteado la posibilidad de vetar a la start-up Anthropic debido a su negativa a permitir que su inteligencia artificial sea utilizada con fines militares y de espionaje. Esta medida podría impactar significativamente en la relación comercial que Anthropic mantiene con el Departamento de Defensa, encabezado por Pete Hegseth.
Restricciones en el uso de la inteligencia artificial
Anthropic, responsable del desarrollo del modelo de inteligencia artificial Claude, ha establecido restricciones claras sobre el uso de su tecnología. La compañía se opone a que su IA sea empleada para la vigilancia masiva de ciudadanos o para la creación de armas autónomas, conocidas como “robots asesinos”. Esta postura ha generado tensiones con el Pentágono, que considera estas limitaciones como un obstáculo para las operaciones militares de Estados Unidos.
Relación con el Departamento de Defensa
Hasta ahora, Claude ha sido el único modelo de inteligencia artificial generativa que el Pentágono utiliza para gestionar sistemas clasificados. Anthropic y el Departamento de Defensa habían mantenido una relación positiva, lo que se reflejó en la concesión de un contrato militar de 200 millones de dólares a la start-up. Sin embargo, las recientes restricciones impuestas por Anthropic han llevado a que el gobierno de Trump considere la posibilidad de romper este vínculo.
Consecuencias económicas y políticas
El posible veto a Anthropic podría tener consecuencias económicas significativas para la empresa, que genera ingresos anuales de aproximadamente 14.000 millones de dólares. De ser considerada un “riesgo para la cadena de suministro”, todas las empresas vinculadas al ejército estarían obligadas a dejar de utilizar Claude. Un funcionario del Departamento de Defensa expresó que esta situación sería compleja de resolver y aseguró que Anthropic podría enfrentar consecuencias por su postura.
“Será muy complicado desenredar todo esto, y nos aseguraremos de que paguen un precio por obligarnos a tomar esta medida”, señaló un funcionario del Departamento de Defensa.
Reacciones de otras empresas tecnológicas
Mientras tanto, el Pentágono ha asegurado acuerdos con otras grandes compañías tecnológicas como OpenAI, Google y xAI, de Elon Musk. Estas empresas han acordado eliminar ciertas salvaguardias para permitir que sus modelos de inteligencia artificial sean utilizados por el ejército para todos los casos de uso legales, aunque se especifica que ChatGPT, Gemini y Grok serán empleados solo en sistemas no clasificados.
Postura de Anthropic
Dario Amodei, director ejecutivo de Anthropic, ha expresado su preocupación sobre el potencial uso de la inteligencia artificial para la vigilancia masiva y la creación de armas autónomas, alertando sobre los riesgos que estos usos representan para los derechos humanos, y también ha denunciado casos de fraude de IA en China. Este enfoque ético de la compañía ha sido criticado por el gobierno de Trump, que lo considera excesivamente restrictivo.
“La posición de Anthropic es excesivamente restrictiva y podría comprometer las acciones del ejército estadounidense”, afirmó una fuente cercana al gobierno.
El futuro de la relación entre Anthropic y el gobierno de Estados Unidos permanece incierto, con implicaciones significativas para el sector tecnológico y el ámbito militar.
Comentarios
Todavía no hay comentarios. ¡Sé el primero en opinar!