La empresa de inteligencia artificial Anthropic ha emitido una denuncia contra tres laboratorios de IA con sede en China: DeepSeek, Moonshot AI y MiniMax. Según la compañía, estas entidades están implicadas en una “campaña de ataques de destilación” para plagiar las capacidades de su modelo conocido como Claude. En un comunicado reciente, Anthropic ha detallado que estas prácticas fraudulentas involucran la extracción ilícita de capacidades de Claude para mejorar otros modelos de inteligencia artificial.
Acusaciones de uso indebido
Anthropic ha identificado que DeepSeek, Moonshot AI y MiniMax han mantenido más de 16 millones de interacciones con Claude mediante alrededor de 24.000 cuentas fraudulentas. Estas acciones, según la compañía, violan sus términos de servicio y las restricciones de acceso regionales impuestas para proteger sus desarrollos tecnológicos.
¿Qué son los “ataques de destilación”?
La técnica conocida como “destilación” se refiere al entrenamiento de un modelo menos complejo utilizando los resultados de uno más poderoso. Aunque es un método ampliamente aceptado y legítimo en el campo de la inteligencia artificial, Anthropic sostiene que en este caso se ha utilizado de manera ilícita. Los laboratorios chinos presuntamente emplearon cuentas fraudulentas y servicios de proxy para ocultar su ubicación y acceder al modelo Claude, lo que les permitió extraer sus capacidades sin ser detectados.
“El volumen, la estructura y el enfoque de los ‘prompts’ eran distintos de los patrones de uso normales, lo que refleja una extracción de capacidades deliberada en lugar de un uso legítimo”, señaló Anthropic en su comunicado.
Riesgos para la seguridad
El informe de Anthropic destaca que la destilación ilícita por parte de estos laboratorios podría tener implicaciones graves. Señala que los modelos destilados de manera ilegal carecen de las salvaguardas necesarias para prevenir el desarrollo de armas biológicas o actividades cibernéticas maliciosas, lo que representa un riesgo significativo para la seguridad nacional.
Además, menciona que DeepSeek, similar a OpenAI pero en China, habría utilizado esta técnica para crear “alternativas seguras a la censura para consultas políticamente sensibles”. Esto supone un uso que podría evadir controles importantes en ciertas jurisdicciones.
Repercusiones potenciales
Las acusaciones de Anthropic han generado preocupación en diversos sectores, especialmente en relación con el reciente caso de fraude de IA que involucra a DeepSeek, Moonshot AI y MiniMax., especialmente en cuanto a las implicaciones de seguridad global. La posibilidad de que modelos avanzados de IA sean utilizados sin las medidas de seguridad adecuadas podría desestabilizar las normas internacionales de uso de inteligencia artificial.
La controversia también subraya la creciente tensión entre Estados Unidos y China en el ámbito tecnológico, particularmente en el desarrollo y control de tecnologías avanzadas como la inteligencia artificial. Estos incidentes podrían influir en la regulación futura y en la cooperación internacional en el sector.
Conclusiones y seguimiento
Anthropic ha señalado que continuará investigando las actividades de DeepSeek, Moonshot AI y MiniMax para determinar el alcance completo de estas prácticas fraudulentas. Las medidas que la compañía pueda tomar en respuesta aún están por definirse, pero se espera que haya un seguimiento exhaustivo de estas acusaciones.
El caso resalta la importancia de establecer y mantener normas éticas y legales claras en el uso y desarrollo de la inteligencia artificial, para garantizar que estas tecnologías se utilicen de manera responsable y segura en todo el mundo.
Comentarios
Todavía no hay comentarios. ¡Sé el primero en opinar!