Anthropic denuncia fraude de IA en China con DeepSeek, Moonshot AI y MiniMax

La compañía estadounidense de inteligencia artificial Anthropic ha acusado a los laboratorios chinos DeepSeek, Moonshot AI y MiniMax de emprender una campaña masiva de fraude mediante “ataques de destilación”. Según Anthropic, estas entidades habrían utilizado más de 24.000 cuentas fraudulentas para extraer ilegalmente capacidades de su modelo Claude, violando así los términos de servicio y restricciones de acceso. La denuncia subraya una creciente preocupación por el uso indebido de técnicas de IA en el ámbito internacional.

La compañía de inteligencia artificial Anthropic ha presentado una denuncia contra tres laboratorios de inteligencia artificial con sede en China: DeepSeek, Moonshot AI y MiniMax. La acusación se centra en que estas entidades estarían llevando a cabo lo que Anthropic describe como “campañas de ataques de destilación” para plagiar su modelo de IA, Claude.

Detalles de la Denuncia

Según el comunicado emitido por Anthropic, estas tres empresas chinas habrían realizado más de 16 millones de interacciones con Claude, utilizando unas 24.000 cuentas fraudulentas. Estas actividades, de acuerdo con la compañía, violan los términos de servicio y las restricciones de acceso regionales impuestas para proteger el modelo.

¿Qué son los “Ataques de Destilación”?

Anthropic explica que los ataques de destilación implican entrenar un modelo menos potente utilizando los resultados de uno más avanzado. Aunque la destilación es un método legítimo en el entrenamiento de IA, puede ser explotado de manera ilícita para obtener capacidades de otros laboratorios en menos tiempo y con menores costos.

“El volumen, la estructura y el enfoque de los ‘prompts’ eran distintos de los patrones de uso normales, lo que refleja una extracción de capacidades deliberada en lugar de un uso legítimo”, afirma Anthropic.

Implicaciones en la Seguridad

El informe de Anthropic advierte que los modelos creados a partir de destilaciones ilícitas carecen de las salvaguardas necesarias para prevenir el desarrollo de armas biológicas o actividades cibernéticas maliciosas. Esto representa un riesgo significativo para la seguridad nacional, según la compañía.

Posible Respuesta de Estados Unidos

La situación también ha suscitado la atención de las autoridades estadounidenses, quienes han considerado la posibilidad de imponer restricciones a Anthropic. Estas restricciones se discutirían si la compañía se niega a que su tecnología sea utilizada en espionaje o en la creación de armas autónomas.

Reacciones Internacionales

Las acusaciones han generado preocupación en la comunidad internacional, especialmente en lo que respecta a las implicaciones éticas y de seguridad en el uso de la inteligencia artificial, como se evidencia en el caso del fraude de IA china. Se espera que las autoridades pertinentes tomen medidas para investigar y, de ser necesario, sancionar a las entidades involucradas.

Próximos Pasos

  • Anthropic ha solicitado una investigación exhaustiva sobre las actividades de DeepSeek, Moonshot AI y MiniMax.
  • La compañía está fortaleciendo sus sistemas de seguridad para prevenir futuros intentos de plagio.
  • Se espera que las autoridades estadounidenses tomen decisiones sobre posibles sanciones en las próximas semanas.

La situación sigue desarrollándose, y se anticipan más actualizaciones a medida que las investigaciones avancen y se tomen decisiones a nivel gubernamental e internacional.

Compartir
Carlos López

Sobre la autora / el autor

180 artículos publicados

Redactor con amplia trayectoria en medios informativos. Defensor del periodismo de servicio público, aborda todo tipo de noticias desde la política hasta la economía y los asuntos de sociedad.

Ver todos los artículos

Comentarios

Todavía no hay comentarios. ¡Sé el primero en opinar!

Deja un comentario

Los campos obligatorios están marcados con *. Tu dirección de correo no se publicará.