Maak een account op Bitvavo en krijg €20 aan Bitcoin gratis!
Bitvavo: Ontvang
€20 aan BTC gratis!
AI-bedrijf Anthropic, de maker van chatbot Claude, heeft een rechtszaak aangespannen tegen het Amerikaanse ministerie van Defensie. Het Pentagon wil Anthropic op een zwarte lijst plaatsen omdat het bedrijf weigert beperkingen op zijn AI te verwijderen. Anthropic trekt een harde grens: geen autonome wapens en geen surveillance van Amerikaanse burgers.
Defensieminister Pete Hegseth plaatste Anthropic vorige week formeel op een zwarte lijst voor de nationale veiligheidsketen. Daardoor kunnen Amerikaanse overheidsinstanties de technologie van het bedrijf nog maar beperkt gebruiken.
De aanleiding: Anthropic weigert zijn zogeheten guardrails aan te passen. Het bedrijf heeft ingebouwde beperkingen die voorkomen dat zijn AI wordt ingezet voor autonome wapens of grootschalige surveillance van burgers.
Volgens het Pentagon moeten private bedrijven het leger niet vertellen hoe het technologie mag gebruiken. Amerikaanse wetgeving bepaalt wat is toegestaan, niet de voorwaarden van een AI-bedrijf, aldus Defensie.
Anthropic stelt dat de maatregel onwettig is en grondrechten schendt.
President Trump gaf opdracht om de samenwerking met Anthropic volledig stop te zetten. Er komt een overgangsperiode van zes maanden om lopende projecten af te bouwen. Dat raakt Anthropic hard: het Pentagon sloot het afgelopen jaar deals van maximaal 200 miljoen dollar met meerdere AI-bedrijven, waaronder Anthropic, OpenAI en Google.
De timing van wat daarna gebeurde is veelzeggend. Kort na de beslissing maakte OpenAI bekend dat zijn technologie juist breder zal worden ingezet binnen het Amerikaanse defensienetwerk. CEO Sam Altman zei dat OpenAI het principe deelt dat mensen altijd toezicht moeten houden op wapensystemen, maar het bedrijf trekt duidelijk niet dezelfde harde grenzen als Anthropic.
De rechtszaak raakt een fundamentele vraag. Mogen techbedrijven grenzen stellen aan hoe hun eigen technologie militair wordt ingezet? Of bepaalt de overheid dat?
Anthropic vindt dat huidige AI-systemen niet betrouwbaar genoeg zijn voor volledig autonome wapens. Het risico op ongecontroleerde escalaties is te groot. Het bedrijf trekt ook een harde lijn bij binnenlandse surveillance: AI inzetten om Amerikaanse burgers te monitoren is volgens Anthropic een schending van fundamentele rechten.
Het Pentagon wil maximale flexibiliteit en vindt dat een privaat bedrijf die keuze niet mag maken. De zaak, aangespannen bij een federale rechtbank in Californië, kan bepalen hoeveel macht techbedrijven houden over hun eigen technologie zodra die in militaire handen belandt.
De Iraanse minister van Buitenlandse Zaken ontmoet Poetin nu de gesprekken met de VS vastlopen. Iran stelt een tussenoplossing voor om Hormuz te heropenen.
Zilver heeft een historische rally doorgemaakt, maar de afgelopen maanden is de koers ook weer hard gedaald. Hoe nu verder?
Beleggers maken zich op voor een golf aan kwartaalrapportages van techreuzen die samen de markt kunnen maken of breken.
Heeft China lak aan de Amerikaanse blokkade van de Straat van Hormuz? Wat heeft dit te betekenen voor het conflict en de markten?
De scheepvaart door Hormuz is opnieuw tot stilstand gekomen nadat de VS voor het eerst een Iraans schip in beslag namen. De olieprijs stijgt.
Iraanse schepen omzeilen de Amerikaanse blokkade van Hormuz via een nieuwe route langs de VAE. De doorvoer is sterk afgenomen maar niet stilgevallen.