AI-bedrijf Anthropic, de maker van chatbot Claude, heeft een rechtszaak aangespannen tegen het Amerikaanse ministerie van Defensie. Het Pentagon wil Anthropic op een zwarte lijst plaatsen omdat het bedrijf weigert beperkingen op zijn AI te verwijderen. Anthropic trekt een harde grens: geen autonome wapens en geen surveillance van Amerikaanse burgers.

Pentagon straft Anthropic voor weigering

Defensieminister Pete Hegseth plaatste Anthropic vorige week formeel op een zwarte lijst voor de nationale veiligheidsketen. Daardoor kunnen Amerikaanse overheidsinstanties de technologie van het bedrijf nog maar beperkt gebruiken.

De aanleiding: Anthropic weigert zijn zogeheten guardrails aan te passen. Het bedrijf heeft ingebouwde beperkingen die voorkomen dat zijn AI wordt ingezet voor autonome wapens of grootschalige surveillance van burgers.

Volgens het Pentagon moeten private bedrijven het leger niet vertellen hoe het technologie mag gebruiken. Amerikaanse wetgeving bepaalt wat is toegestaan, niet de voorwaarden van een AI-bedrijf, aldus Defensie.

Anthropic stelt dat de maatregel onwettig is en grondrechten schendt.

Trump stopt samenwerking, OpenAI springt in het gat

President Trump gaf opdracht om de samenwerking met Anthropic volledig stop te zetten. Er komt een overgangsperiode van zes maanden om lopende projecten af te bouwen. Dat raakt Anthropic hard: het Pentagon sloot het afgelopen jaar deals van maximaal 200 miljoen dollar met meerdere AI-bedrijven, waaronder Anthropic, OpenAI en Google.

De timing van wat daarna gebeurde is veelzeggend. Kort na de beslissing maakte OpenAI bekend dat zijn technologie juist breder zal worden ingezet binnen het Amerikaanse defensienetwerk. CEO Sam Altman zei dat OpenAI het principe deelt dat mensen altijd toezicht moeten houden op wapensystemen, maar het bedrijf trekt duidelijk niet dezelfde harde grenzen als Anthropic.

Wie bepaalt hoe AI in oorlog wordt gebruikt?

De rechtszaak raakt een fundamentele vraag. Mogen techbedrijven grenzen stellen aan hoe hun eigen technologie militair wordt ingezet? Of bepaalt de overheid dat?

Anthropic vindt dat huidige AI-systemen niet betrouwbaar genoeg zijn voor volledig autonome wapens. Het risico op ongecontroleerde escalaties is te groot. Het bedrijf trekt ook een harde lijn bij binnenlandse surveillance: AI inzetten om Amerikaanse burgers te monitoren is volgens Anthropic een schending van fundamentele rechten.

Het Pentagon wil maximale flexibiliteit en vindt dat een privaat bedrijf die keuze niet mag maken. De zaak, aangespannen bij een federale rechtbank in Californië, kan bepalen hoeveel macht techbedrijven houden over hun eigen technologie zodra die in militaire handen belandt.

Altijd als eerste het laatste crypto en aandelen-nieuws?

Mis niets van de snel bewegende crypto en aandelenmarkt met de gratis Newsbit-app. Of je nu onderweg bent of op de bank zit: met één tik krijg je real-time prijsalerts, koersupdates en exclusieve inzichten van experts over Bitcoin en wereldwijde beurzen.

Download de Newsbit-app nu – en blijf elke beweging in de markt voor.

Wees als eerste op de hoogte van het laatste Crypto Nieuws

Bitcoin koers stijgt 5% terwijl goud, zilver en aandelen dalen

Bitcoin koers stijgt 5% terwijl goud, zilver en aandelen dalen

Bitcoin koers stijgt 5% terwijl goud, zilver en aandelen dalen
Beurscrash, crash
aanval, oorlog
Meer Beurs nieuws

Meest gelezen

Amerika, Capitol
China, XI,
Bitcoin crash
Newsbit
Bekijk de app
Bekijk