Los ataques se basaron en servicios de proxy comerciales
Anthropic dijo el lunes que identificó "campañas a escala industrial" montadas por tres compañías de inteligencia artificial (IA), DeepSeek, Moonshot AI y MiniMax, para extraer ilegalmente las capacidades de Claude para mejorar sus propios modelos.
Los ataques de destilación generaron más de 16 millones de intercambios con su modelo de lenguaje grande (LLM) a través de aproximadamente 24.000 cuentas fraudulentas, lo que viola sus términos de servicio y restricciones de acceso regional. Las tres empresas tienen su sede en China, donde el uso de sus servicios está prohibido debido a riesgos legales, regulatorios y de seguridad.
La destilación se refiere a una técnica en la que un modelo menos capaz se entrena con los resultados generados por un sistema de IA más potente. Si bien la destilación es una forma legítima para que las empresas produzcan versiones más pequeñas y económicas de sus propios modelos de vanguardia, es ilegal que la competencia la aproveche para adquirir dichas capacidades de otras empresas de IA a una fracción del tiempo y el coste que les llevaría desarrollarlas por su cuenta.
"Los modelos destilados ilícitamente carecen de las salvaguardias necesarias, lo que genera importantes riesgos para la seguridad nacional", declaró Anthropic. "Es poco probable que los modelos creados mediante destilación ilícita conserven dichas salvaguardias, lo que significa que pueden proliferar capacidades peligrosas al eliminarse por completo muchas protecciones".
Las empresas extranjeras de inteligencia artificial que destilan modelos estadounidenses pueden utilizar estas capacidades desprotegidas para facilitar actividades maliciosas, cibernéticas o de otro tipo, sirviendo así como base para sistemas militares, de inteligencia y vigilancia que los gobiernos autoritarios pueden implementar para operaciones cibernéticas ofensivas, campañas de desinformación y vigilancia masiva.
Las campañas detalladas por AI Upstart implican el uso de cuentas fraudulentas y servicios proxy comerciales para acceder a Claude a gran escala, evitando ser detectados. Anthropic afirmó haber podido atribuir cada campaña a un laboratorio de IA específico basándose en metadatos de solicitudes, correlación de direcciones IP, metadatos de solicitudes e indicadores de infraestructura.
"El volumen, la estructura y el enfoque de las indicaciones eran distintos de los patrones de uso habituales, lo que reflejaba una extracción deliberada de capacidades en lugar de un uso legítimo", añadió Anthropic. "Cada campaña se centró en las capacidades más diferenciadas de Claude: razonamiento agente, uso de herramientas y programación".
La compañía también señaló que los ataques se basaron en servicios de proxy comerciales que revenden el acceso a Claude y otros modelos de IA de vanguardia a gran escala. Estos servicios se basan en arquitecturas de "clúster Hydra" que contienen redes masivas de cuentas fraudulentas para distribuir el tráfico a través de su API.








