Anthropic: la firma de IA ética que rechaza proyectos militares de EE.UU.

Anthropic, una empresa emergente de inteligencia artificial, se enfrenta a un posible veto del Pentágono este viernes por negarse a modificar sus modelos para permitir su uso con fines bélicos. La compañía, liderada por Dario Amodei, ha rechazado las demandas del Ejército de Estados Unidos de eliminar las restricciones de seguridad que impiden el espionaje masivo y la creación de armas autónomas, desatando una controversia que pone de relieve la creciente tensión entre la ética tecnológica y los intereses militares.

Anthropic, una destacada empresa de inteligencia artificial (IA), ha captado la atención no solo por el rendimiento de su modelo Claude, sino también por su postura ética frente al Departamento de Defensa de Estados Unidos. La compañía ha rechazado las solicitudes del Pentágono de modificar sus modelos para permitir su uso en espionaje masivo y creación de armas autónomas, generando tensiones con el gobierno de Donald Trump.

Conflicto con el Pentágono

El Pentágono ha amenazado con vetar a Anthropic, designándola como un “riesgo para la cadena de suministro”, una sanción utilizada generalmente contra adversarios extranjeros. Esta acción pondría en peligro un contrato de 200 millones de dólares y obligaría a proveedores militares a cortar relaciones con la start-up. La fecha límite para que Anthropic acepte las condiciones del gobierno es este viernes.

“Será muy complicado desenredar todo esto, y nos aseguraremos de que paguen un precio por obligarnos a tomar esta medida”, declaró un alto funcionario del Departamento de Defensa.

Orígenes y filosofía de Anthropic

Fundada en 2021 por exempleados de OpenAI, Anthropic se destaca por su enfoque en la ética de la IA. Dario Amodei, su director ejecutivo, es un ferviente defensor del Altruismo Eficaz, priorizando la mitigación de riesgos potencialmente catastróficos de la IA sobre la comercialización. Este enfoque contrasta con la estrategia de Sam Altman, director de OpenAI, centrada en el negocio.

Desarrollo y controversias

Con una valoración de 380.000 millones de dólares, Anthropic es conocida por su línea de modelos de lenguaje Claude, populares en Silicon Valley. Aunque la compañía se presenta como un defensor de la IA ética, ha enfrentado críticas. En septiembre, Anthropic pagó una multa de 1.500 millones de dólares por utilizar libros digitalizados sin permiso para entrenar sus modelos.

Futuro incierto

Anthropic ha publicado un marco que describe como su “Constitución”, diseñado para que su tecnología sea segura y cumpla con órdenes humanas. Sin embargo, han surgido dudas sobre si la empresa mantendrá su postura ética ante las presiones del gobierno estadounidense y la competencia en el sector de la IA.

Compartir
Carlos López

Sobre la autora / el autor

180 artículos publicados

Redactor con amplia trayectoria en medios informativos. Defensor del periodismo de servicio público, aborda todo tipo de noticias desde la política hasta la economía y los asuntos de sociedad.

Ver todos los artículos

Comentarios

Todavía no hay comentarios. ¡Sé el primero en opinar!

Deja un comentario

Los campos obligatorios están marcados con *. Tu dirección de correo no se publicará.