DeepSeek y MiniMax: 16 millones de mensajes para «robar» la inteligencia de Claude

DeepSeek y MiniMax: 16 millones de mensajes para ‘robar’ la inteligencia de Claude

A medida que los modelos se vuelven más costosos de entrenar, surge un nuevo campo de batalla: la copia por «destilación», más rápida, menos costosa… y muy difícil de probar públicamente.

Este lunes, Anthropic afirma haber detectado campañas «a gran escala» llevadas a cabo por tres actores chinos — DeepSeek, MiniMax y Moonshot — con el objetivo de extraer capacidades de Claude para mejorar sus propios modelos.

Lo que Anthropic afirma haber observado

En su artículo, Anthropic dice haber identificado aproximadamente 24,000 cuentas fraudulentas, más de 16 millones de intercambios con Claude, todo ello en violación de sus condiciones de uso y restricciones de acceso regionales.

La empresa sitúa el problema más allá del simple «scrapeo»: se trata de una extracción estructurada de habilidades (razonamiento, código, uso de herramientas de agente, etc.) para transferirlas a sistemas competidores.

La destilación: técnica legítima, uso potencialmente ilícito

Anthropic reconoce que la destilación es un método común y legítimo: entrenar un modelo más pequeño para reproducir las salidas de un modelo más potente. El problema, según la compañía, no radica en la técnica en sí, sino en su uso no autorizado para «obtener capacidades» a un costo menor — y especialmente sin incorporar las protecciones y políticas de seguridad del modelo original.

Este es el centro del riesgo: los modelos «destilados» podrían recuperar rendimiento… sin la misma robustez en seguridad ni los mismos filtros (o al eludirlos).

DeepSeek, MiniMax, Moonshot: volúmenes y objetivos mencionados

Anthropic presenta elementos concretos:

  • DeepSeek habría realizado más de 150,000 intercambios con Claude, enfocándose especialmente en el razonamiento, y también habría buscado generar formulaciones «compatibles con la censura» en temas políticos sensibles.
  • Moonshot: más de 3.4 millones de intercambios.
  • MiniMax: más de 13 millones de intercambios.

Anthropic relaciona explícitamente la destilación ilícita con riesgos de seguridad: si capacidades «punteras» se extraen sin protecciones, podrían alimentar usos de vigilancia, desinformación o ciberataques.

Y la compañía presiona un palanca política que ya está en el centro del debate en EE. UU.: el acceso a chips avanzados. Anthropic sugiere que restricciones más estrictas sobre los chips podrían limitar tanto el entrenamiento directo como la industrialización de la destilación.

OpenAI también señala a DeepSeek: una convergencia de discursos del lado estadounidense

Esta declaración de Anthropic se inserta en una secuencia más amplia. Reuters informa que OpenAI ha acusado recientemente a DeepSeek, en un memo dirigido a legisladores estadounidenses, de «aprovecharse» y de esfuerzos para eludir las restricciones de acceso con el fin de obtener salidas de modelos estadounidenses destinadas a la destilación.

Este asunto muestra una transición clara: la competencia no se basa únicamente en «quién entrena el modelo más grande», sino también en quién protege mejor sus capacidades. La destilación ilegítima, si se normaliza, reduce la ventaja de los laboratorios que financian los entrenamientos más costosos. También coloca a las empresas ante un dilema: abrir (API, acceso amplio, pruebas) para crecer, o cerrar más sin riesgo de frenar la adopción. Finalmente, refuerza la idea de que la IA se ha convertido en un asunto donde la seguridad del software (antifraude, detección de abusos, huellas comportamentales) pesa tanto como la investigación.

Para Anthropic, el objetivo es doble: proteger a Claude — e instalar una doctrina industrial donde la extracción de capacidades se considere un «comportamiento hostil» tratado como tal. La pregunta que queda es: ¿qué medidas concretas (nube, KYC, cuotas, marcas de agua en las salidas, controles de uso) serán suficientes sin romper la accesibilidad que ha hecho explotar la IA en el ámbito público?


Scroll al inicio