AI-bedrijf Anthropic zegt dat het doelwit is geweest van grootschalige ‘distillation’-aanvallen door drie Chinese AI-bedrijven. Volgens het bedrijf hebben DeepSeek, Moonshot en MiniMax samen ruim 16 miljoen interacties met chatbot Claude uitgevoerd via zo’n 24.000 frauduleuze accounts.

16 miljoen Claude-gesprekken

Anthropic stelt in een blogpost dat de drie bedrijven systematisch data hebben verzameld van Claude, het eigen grote taalmodel. Dat gebeurde via tienduizenden nepaccounts die samen meer dan 16 miljoen uitwisselingen genereerden.

Het doel zou zogeheten distillation zijn. Dat is een trainingsmethode waarbij een kleiner of minder krachtig model leert van de output van een sterker model. Alsof een leerling de antwoorden kopieert van de meester om zelf slimmer te worden.

“Distillation is een veelgebruikte en legitieme trainingsmethode. Zo destilleren toonaangevende AI-labs routinematig hun eigen modellen om kleinere, goedkopere versies voor hun klanten te maken,” schrijft Anthropic.

“Maar distillation kan ook worden gebruikt voor illegale doeleinden: concurrenten kunnen het inzetten om krachtige capaciteiten van andere labs over te nemen in een fractie van de tijd en tegen een fractie van de kosten die nodig zouden zijn om die zelfstandig te ontwikkelen,’’ wordt eraan toegevoegd.

Volgens Anthropic richtten de campagnes zich op de meest onderscheidende functies van Claude, waaronder agentisch redeneren, programmeerwerk, data-analyse en computervisie.

Anthropic is een Amerikaanse AI-ontwikkelaar en een directe concurrent van OpenAI. Eerder deze maand haalde Anthropic opnieuw groot nieuws met een geplande financieringsronde van ruim 20 miljard dollar, wat de waardering kan opstuwen tot circa 350 miljard dollar.

Geopolitieke zorgen nemen toe

De drie genoemde bedrijven zijn gevestigd in China en hebben miljardenwaarderingen. DeepSeek geniet internationaal de meeste bekendheid.

Anthropic zegt de betrokken partijen te hebben geïdentificeerd via IP-adrescorrelaties, metadata van verzoeken en infrastructuurkenmerken. Ook zouden industriepartners vergelijkbaar gedrag hebben waargenomen op hun platforms.

Het bedrijf trekt de kwestie breder dan alleen intellectueel eigendom. “Buitenlandse labs die Amerikaanse modellen destilleren, kunnen deze onbeschermde capaciteiten vervolgens voeden aan militaire, inlichtingen- en surveillancesystemen, waardoor autoritaire regeringen geavanceerde AI kunnen inzetten voor offensieve cyberoperaties, desinformatiecampagnes en massasurveillance,” aldus Anthropic.

Dat zijn stevige woorden. De vrees is dat geavanceerde Amerikaanse AI via een omweg terechtkomt in militaire of surveillancesystemen.

Anthropic zegt de beveiliging verder aan te scherpen, onder meer via strengere toegangscontroles en betere detectiesystemen. Ook roept het bedrijf Amerikaanse techbedrijven, cloudproviders en beleidsmakers op om gezamenlijk op te treden.

Altijd als eerste het laatste crypto nieuws?

Mis niets van de snel bewegende cryptomarkt met de gratis Newsbit-app. Of je nu onderweg bent of op de bank zit: met één tik krijg je real-time prijsalerts, koersupdates en exclusieve inzichten van experts over Bitcoin en altcoins.

Download de Newsbit-app nu – en blijf elke beweging in de markt voor.

Wees als eerste op de hoogte van het laatste Crypto Nieuws

Google

Google-handelsgeheimen doorgesluisd naar Iran: drie techingenieurs aangeklaagd

Google
AI agents te duur: techmiljonairs zetten vraagtekens bij digitale werknemers
Fed, Federal Reserve
Meer nieuws

Meest gelezen

trump
EU, europa, europese unie, ECB christine lagarde
iran khamenei
Newsbit
Bekijk de app
Bekijk