Newsbit
Bekijk de app
Bekijk

AI-bedrijf Anthropic zegt dat het doelwit is geweest van grootschalige ‘distillation’-aanvallen door drie Chinese AI-bedrijven. Volgens het bedrijf hebben DeepSeek, Moonshot en MiniMax samen ruim 16 miljoen interacties met chatbot Claude uitgevoerd via zo’n 24.000 frauduleuze accounts.

16 miljoen Claude-gesprekken

Anthropic stelt in een blogpost dat de drie bedrijven systematisch data hebben verzameld van Claude, het eigen grote taalmodel. Dat gebeurde via tienduizenden nepaccounts die samen meer dan 16 miljoen uitwisselingen genereerden.

Het doel zou zogeheten distillation zijn. Dat is een trainingsmethode waarbij een kleiner of minder krachtig model leert van de output van een sterker model. Alsof een leerling de antwoorden kopieert van de meester om zelf slimmer te worden.

“Distillation is een veelgebruikte en legitieme trainingsmethode. Zo destilleren toonaangevende AI-labs routinematig hun eigen modellen om kleinere, goedkopere versies voor hun klanten te maken,” schrijft Anthropic.

“Maar distillation kan ook worden gebruikt voor illegale doeleinden: concurrenten kunnen het inzetten om krachtige capaciteiten van andere labs over te nemen in een fractie van de tijd en tegen een fractie van de kosten die nodig zouden zijn om die zelfstandig te ontwikkelen,’’ wordt eraan toegevoegd.

Volgens Anthropic richtten de campagnes zich op de meest onderscheidende functies van Claude, waaronder agentisch redeneren, programmeerwerk, data-analyse en computervisie.

Anthropic is een Amerikaanse AI-ontwikkelaar en een directe concurrent van OpenAI. Eerder deze maand haalde Anthropic opnieuw groot nieuws met een geplande financieringsronde van ruim 20 miljard dollar, wat de waardering kan opstuwen tot circa 350 miljard dollar.

Geopolitieke zorgen nemen toe

De drie genoemde bedrijven zijn gevestigd in China en hebben miljardenwaarderingen. DeepSeek geniet internationaal de meeste bekendheid.

Anthropic zegt de betrokken partijen te hebben geïdentificeerd via IP-adrescorrelaties, metadata van verzoeken en infrastructuurkenmerken. Ook zouden industriepartners vergelijkbaar gedrag hebben waargenomen op hun platforms.

Het bedrijf trekt de kwestie breder dan alleen intellectueel eigendom. “Buitenlandse labs die Amerikaanse modellen destilleren, kunnen deze onbeschermde capaciteiten vervolgens voeden aan militaire, inlichtingen- en surveillancesystemen, waardoor autoritaire regeringen geavanceerde AI kunnen inzetten voor offensieve cyberoperaties, desinformatiecampagnes en massasurveillance,” aldus Anthropic.

Dat zijn stevige woorden. De vrees is dat geavanceerde Amerikaanse AI via een omweg terechtkomt in militaire of surveillancesystemen.

Anthropic zegt de beveiliging verder aan te scherpen, onder meer via strengere toegangscontroles en betere detectiesystemen. Ook roept het bedrijf Amerikaanse techbedrijven, cloudproviders en beleidsmakers op om gezamenlijk op te treden.

Altijd als eerste het laatste crypto en aandelen-nieuws?

Mis niets van de snel bewegende crypto en aandelenmarkt met de gratis Newsbit-app. Of je nu onderweg bent of op de bank zit: met één tik krijg je real-time prijsalerts, koersupdates en exclusieve inzichten van experts over Bitcoin en wereldwijde beurzen.

Download de Newsbit-app nu – en blijf elke beweging in de markt voor.

Wees als eerste op de hoogte van het laatste Crypto Nieuws

SBI

Van Ripple-partner tot durfkapitalist: SBI lanceert fonds van 100 miljoen dollar

SBI
unhappy banker
Tesla’s zelfrijdende software nu beschikbaar in Nederland: eerste land in Europa
Meer nieuws

Meest gelezen

stock market, beurs
Hormuz, oil tanker
macron