Anthropic denuncia fraude de IA china: DeepSeek, Moonshot AI y MiniMax

La compañía estadounidense de inteligencia artificial Anthropic ha acusado a los laboratorios chinos DeepSeek, Moonshot AI y MiniMax de realizar “campañas de ataques de destilación” para plagiar su modelo de IA, Claude. En un comunicado emitido recientemente, Anthropic revela que estas empresas habrían realizado más de 16 millones de interacciones fraudulentas para extraer capacidades de su tecnología, en una violación de los términos de servicio y restricciones de acceso regionales. La denuncia subraya el uso indebido de una técnica legítima de entrenamiento de modelos, generando preocupación en la industria tecnológica sobre la protección de propiedad intelectual.

La empresa de inteligencia artificial Anthropic ha emitido una denuncia contra tres laboratorios de IA con sede en China: DeepSeek, Moonshot AI y MiniMax. Según la compañía, estas entidades están implicadas en una “campaña de ataques de destilación” para plagiar las capacidades de su modelo conocido como Claude. En un comunicado reciente, Anthropic ha detallado que estas prácticas fraudulentas involucran la extracción ilícita de capacidades de Claude para mejorar otros modelos de inteligencia artificial.

Acusaciones de uso indebido

Anthropic ha identificado que DeepSeek, Moonshot AI y MiniMax han mantenido más de 16 millones de interacciones con Claude mediante alrededor de 24.000 cuentas fraudulentas. Estas acciones, según la compañía, violan sus términos de servicio y las restricciones de acceso regionales impuestas para proteger sus desarrollos tecnológicos.

¿Qué son los “ataques de destilación”?

La técnica conocida como “destilación” se refiere al entrenamiento de un modelo menos complejo utilizando los resultados de uno más poderoso. Aunque es un método ampliamente aceptado y legítimo en el campo de la inteligencia artificial, Anthropic sostiene que en este caso se ha utilizado de manera ilícita. Los laboratorios chinos presuntamente emplearon cuentas fraudulentas y servicios de proxy para ocultar su ubicación y acceder al modelo Claude, lo que les permitió extraer sus capacidades sin ser detectados.

“El volumen, la estructura y el enfoque de los ‘prompts’ eran distintos de los patrones de uso normales, lo que refleja una extracción de capacidades deliberada en lugar de un uso legítimo”, señaló Anthropic en su comunicado.

Riesgos para la seguridad

El informe de Anthropic destaca que la destilación ilícita por parte de estos laboratorios podría tener implicaciones graves. Señala que los modelos destilados de manera ilegal carecen de las salvaguardas necesarias para prevenir el desarrollo de armas biológicas o actividades cibernéticas maliciosas, lo que representa un riesgo significativo para la seguridad nacional.

Además, menciona que DeepSeek, similar a OpenAI pero en China, habría utilizado esta técnica para crear “alternativas seguras a la censura para consultas políticamente sensibles”. Esto supone un uso que podría evadir controles importantes en ciertas jurisdicciones.

Repercusiones potenciales

Las acusaciones de Anthropic han generado preocupación en diversos sectores, especialmente en relación con el reciente caso de fraude de IA que involucra a DeepSeek, Moonshot AI y MiniMax., especialmente en cuanto a las implicaciones de seguridad global. La posibilidad de que modelos avanzados de IA sean utilizados sin las medidas de seguridad adecuadas podría desestabilizar las normas internacionales de uso de inteligencia artificial.

La controversia también subraya la creciente tensión entre Estados Unidos y China en el ámbito tecnológico, particularmente en el desarrollo y control de tecnologías avanzadas como la inteligencia artificial. Estos incidentes podrían influir en la regulación futura y en la cooperación internacional en el sector.

Conclusiones y seguimiento

Anthropic ha señalado que continuará investigando las actividades de DeepSeek, Moonshot AI y MiniMax para determinar el alcance completo de estas prácticas fraudulentas. Las medidas que la compañía pueda tomar en respuesta aún están por definirse, pero se espera que haya un seguimiento exhaustivo de estas acusaciones.

El caso resalta la importancia de establecer y mantener normas éticas y legales claras en el uso y desarrollo de la inteligencia artificial, para garantizar que estas tecnologías se utilicen de manera responsable y segura en todo el mundo.

Compartir
Javier Rodríguez

Sobre la autora / el autor

174 artículos publicados

Redactor con experiencia en coberturas nacionales e internacionales. Defensor del periodismo de calidad y la verificación de fuentes, aborda la actualidad con análisis y perspectiva.

Ver todos los artículos

Comentarios

Todavía no hay comentarios. ¡Sé el primero en opinar!

Deja un comentario

Los campos obligatorios están marcados con *. Tu dirección de correo no se publicará.