Maak een account op Bitvavo en krijg 10 XRP gratis!
Bitvavo: Ontvang 10
XRP Welkomstbonus!
AI-bedrijf Anthropic, de maker van chatbot Claude, heeft een rechtszaak aangespannen tegen het Amerikaanse ministerie van Defensie. Het Pentagon wil Anthropic op een zwarte lijst plaatsen omdat het bedrijf weigert beperkingen op zijn AI te verwijderen. Anthropic trekt een harde grens: geen autonome wapens en geen surveillance van Amerikaanse burgers.
Defensieminister Pete Hegseth plaatste Anthropic vorige week formeel op een zwarte lijst voor de nationale veiligheidsketen. Daardoor kunnen Amerikaanse overheidsinstanties de technologie van het bedrijf nog maar beperkt gebruiken.
De aanleiding: Anthropic weigert zijn zogeheten guardrails aan te passen. Het bedrijf heeft ingebouwde beperkingen die voorkomen dat zijn AI wordt ingezet voor autonome wapens of grootschalige surveillance van burgers.
Volgens het Pentagon moeten private bedrijven het leger niet vertellen hoe het technologie mag gebruiken. Amerikaanse wetgeving bepaalt wat is toegestaan, niet de voorwaarden van een AI-bedrijf, aldus Defensie.
Anthropic stelt dat de maatregel onwettig is en grondrechten schendt.
President Trump gaf opdracht om de samenwerking met Anthropic volledig stop te zetten. Er komt een overgangsperiode van zes maanden om lopende projecten af te bouwen. Dat raakt Anthropic hard: het Pentagon sloot het afgelopen jaar deals van maximaal 200 miljoen dollar met meerdere AI-bedrijven, waaronder Anthropic, OpenAI en Google.
De timing van wat daarna gebeurde is veelzeggend. Kort na de beslissing maakte OpenAI bekend dat zijn technologie juist breder zal worden ingezet binnen het Amerikaanse defensienetwerk. CEO Sam Altman zei dat OpenAI het principe deelt dat mensen altijd toezicht moeten houden op wapensystemen, maar het bedrijf trekt duidelijk niet dezelfde harde grenzen als Anthropic.
De rechtszaak raakt een fundamentele vraag. Mogen techbedrijven grenzen stellen aan hoe hun eigen technologie militair wordt ingezet? Of bepaalt de overheid dat?
Anthropic vindt dat huidige AI-systemen niet betrouwbaar genoeg zijn voor volledig autonome wapens. Het risico op ongecontroleerde escalaties is te groot. Het bedrijf trekt ook een harde lijn bij binnenlandse surveillance: AI inzetten om Amerikaanse burgers te monitoren is volgens Anthropic een schending van fundamentele rechten.
Het Pentagon wil maximale flexibiliteit en vindt dat een privaat bedrijf die keuze niet mag maken. De zaak, aangespannen bij een federale rechtbank in Californië, kan bepalen hoeveel macht techbedrijven houden over hun eigen technologie zodra die in militaire handen belandt.
Terwijl traditionele markten dalen door de oorlog in het Midden-Oosten, stijgt Bitcoin juist hard. En dat is niet voor het eerst.
Olieprijzen stijgen hard en de vrees voor een beurscrash neemt toe. Wat betekent dat voor Bitcoin en andere risicovolle beleggingen?
IMF waarschuwt dat oorlog in het Midden-Oosten inflatie kan verhogen en economische groei kan schaden. Landen moeten zich voorbereiden op onverwachte schokken.
Amerikaanse economie verrast met onverwacht banenverlies terwijl groei werd verwacht. Nieuwe zorgen ontstaan over economische kracht en mogelijke impact op markten.
China stopt per direct export van diesel en benzine door conflict in de Perzische Golf, terwijl Aziatische landen hun energievoorraden veiligstellen.
Zit Bitcoin aan het einde van de bearmarkt en is de bodem bereikt? Als we de data mogen geloven zou dat laatste zomaar het geval kunnen zijn.