Anthropic, una destacada empresa de inteligencia artificial (IA), ha captado la atención no solo por el rendimiento de su modelo Claude, sino también por su postura ética frente al Departamento de Defensa de Estados Unidos. La compañía ha rechazado las solicitudes del Pentágono de modificar sus modelos para permitir su uso en espionaje masivo y creación de armas autónomas, generando tensiones con el gobierno de Donald Trump.
Conflicto con el Pentágono
El Pentágono ha amenazado con vetar a Anthropic, designándola como un “riesgo para la cadena de suministro”, una sanción utilizada generalmente contra adversarios extranjeros. Esta acción pondría en peligro un contrato de 200 millones de dólares y obligaría a proveedores militares a cortar relaciones con la start-up. La fecha límite para que Anthropic acepte las condiciones del gobierno es este viernes.
“Será muy complicado desenredar todo esto, y nos aseguraremos de que paguen un precio por obligarnos a tomar esta medida”, declaró un alto funcionario del Departamento de Defensa.
Orígenes y filosofía de Anthropic
Fundada en 2021 por exempleados de OpenAI, Anthropic se destaca por su enfoque en la ética de la IA. Dario Amodei, su director ejecutivo, es un ferviente defensor del Altruismo Eficaz, priorizando la mitigación de riesgos potencialmente catastróficos de la IA sobre la comercialización. Este enfoque contrasta con la estrategia de Sam Altman, director de OpenAI, centrada en el negocio.
Desarrollo y controversias
Con una valoración de 380.000 millones de dólares, Anthropic es conocida por su línea de modelos de lenguaje Claude, populares en Silicon Valley. Aunque la compañía se presenta como un defensor de la IA ética, ha enfrentado críticas. En septiembre, Anthropic pagó una multa de 1.500 millones de dólares por utilizar libros digitalizados sin permiso para entrenar sus modelos.
Futuro incierto
Anthropic ha publicado un marco que describe como su “Constitución”, diseñado para que su tecnología sea segura y cumpla con órdenes humanas. Sin embargo, han surgido dudas sobre si la empresa mantendrá su postura ética ante las presiones del gobierno estadounidense y la competencia en el sector de la IA.
Comentarios
Todavía no hay comentarios. ¡Sé el primero en opinar!