I en omfattande analys har Anthropic identifierat tre storskaliga kampanjer för modelldistillering, utförda av utländska laboratorier. Genom att använda tiotusentals vilseledande konton har aktörerna systematiskt försökt extrahera proprietära förmågor från Claude-plattformen, vilket väcker frågor om både immateriella rättigheter och nationell säkerhet.
Anthropic har kartlagt vad som beskrivs som “industriella” kampanjer drivna av laboratorierna DeepSeek, Moonshot AI och MiniMax. Syftet med dessa operationer har varit att rikta in sig på Claude-plattformen för att utvinna logik relaterad till resonemang, mjukvaruutveckling och arbetsflöden för verktygsanvändning. Omfattningen av dessa aktiviteter har varit betydande, där de inblandade aktörerna genererat över 16 miljoner utbyten via cirka 24 000 vilseledande konton.
Avancerade metoder för att dölja trafik
För att genomföra dessa omfattande datainsamlingar och samtidigt undgå upptäckt har laboratorierna använt sig av sofistikerade tekniska lösningar. En central del i strategin har varit användandet av så kallade “hydra clusters” samt kommersiella proxytjänster. Dessa verktyg har haft till uppgift att maskera mönster i API-trafiken och kringgå regionala restriktioner som annars skulle ha blockerat åtkomsten.
Genom att dölja trafikens ursprung och struktur har aktörerna kunnat upprätthålla en hög volym av förfrågningar utan att omedelbart flaggas av säkerhetssystemen. Detta har möjliggjort en systematisk skörd av den underliggande logik som driver Claudes förmågor inom kodning och problemlösning.
Säkerhetsrisker och nationella hot
En av de mest kritiska aspekterna som Anthropic lyfter fram är konsekvenserna av denna typ av modelldistillering. De modeller som skapas genom denna process saknar ofta de säkerhetsspärrar som finns i originalet. Detta skapar potentiella risker för den nationella säkerheten, särskilt om de destillerade modellerna skulle komma att användas för militära ändamål eller övervakning.
När de inbyggda skyddsmekanismerna försvinner i överföringen, ökar risken för att teknologin kan missbrukas på sätt som ursprungsmodellen var designad att förhindra.
Defensiva åtgärder och verifiering
Som svar på dessa hot har en rad defensiva åtgärder detaljerats för att skydda plattformen. Dessa inkluderar beteendebaserad fingeravtrycksläsning (behavioral fingerprinting) och klassificerare för trafik, vilka syftar till att identifiera och isolera misstänkta mönster. Vidare används adaptiv innehållsvattenmärkning som en metod för att spåra och skydda materialet.
För att ytterligare stärka skyddet kring känsliga åtkomstvägar har verifieringsprocesserna för utbildnings- och forskningsändamål härdats. Genom att kombinera dessa tekniska och administrativa barriärer strävar man efter att försvåra framtida försök till otillåten extrahering av modellens kapacitet.
Sammanfattningsvis visar händelseförloppet på en pågående teknisk kapprustning där metoder för att dölja trafik, såsom hydra-kluster, ställs mot avancerade detektionssystem. Identifieringen av dessa kampanjer från DeepSeek, Moonshot AI och MiniMax understryker vikten av robusta säkerhetslager för att skydda proprietär AI-teknologi från att repliceras utan sina nödvändiga säkerhetsfunktioner.

