Maak een account op Bitvavo en krijg 10 XRP gratis!
Bitvavo: Ontvang 10
XRP Welkomstbonus!
De Amerikaanse defensietop en AI-bedrijf Anthropic liggen met elkaar overhoop over het gebruik van kunstmatige intelligentie binnen het leger. Onderhandelingen over een verlenging van een contract zijn vastgelopen, omdat Anthropic extra beperkingen wil opleggen aan zijn AI-model Claude. Het Pentagon wil juist meer ruimte om de technologie in te zetten, zolang dat binnen de wet gebeurt.
De discussie raakt aan een gevoelige vraag: hoe ver mag de overheid gaan met krachtige AI-systemen die kunnen worden ingezet voor surveillance en militaire toepassingen?
Volgens ingewijden wil Anthropic expliciete beperkingen inbouwen in zijn AI-model Claude. Het bedrijf wil voorkomen dat de technologie wordt ingezet voor massasurveillance van Amerikaanse burgers of voor de ontwikkeling van wapens die zonder menselijke tussenkomst kunnen opereren.
Daarmee botst het met het Pentagon. Het Amerikaanse ministerie van Defensie wil Claude zo breed mogelijk kunnen gebruiken, zolang de inzet binnen de wettelijke kaders blijft. Over dat meningsverschil berichtte Axios eerder.
Anthropic positioneert zich als een AI-bedrijf dat veiligheid en ethiek vooropstelt. Het wil krachtige modellen beschikbaar maken voor overheden, maar alleen onder strikte voorwaarden. Vanuit die gedachte ontwikkelde het Claude Gov, een speciale versie voor de Amerikaanse nationale veiligheidsdiensten.
Claude Gov is ontworpen om gevoelige informatie te verwerken, zoals geheime documenten, inlichtingenrapporten en complexe cybersecuritydata. Volgens Anthropic moet ook deze overheidsvariant voldoen aan de eigen veiligheidsprincipes van het bedrijf.
Een woordvoerder van Anthropic benadrukt dat het bedrijf “toegewijd is aan het inzetten van geavanceerde AI ter ondersteuning van de nationale veiligheid van de VS” en spreekt van “constructieve gesprekken in goed vertrouwen” met het ministerie van Defensie.
Pentagon-woordvoerder Sean Parnell laat in een schriftelijke verklaring weten dat de relatie met Anthropic wordt herzien. Volgens hem vereist de nationale veiligheid dat partners bereid zijn om Amerikaanse militairen in elke situatie te ondersteunen.
Binnen defensiekringen zou Anthropic inmiddels worden gezien als een mogelijk risico in de toeleveringsketen. Het ministerie van Defensie zou leveranciers zelfs kunnen verplichten te verklaren dat zij geen gebruikmaken van de modellen van het bedrijf.
Dat kan kansen bieden voor concurrenten. Andere AI-bedrijven, waaronder OpenAI met ChatGPT, Google met Gemini en xAI met Grok, werken volgens bronnen samen met het Pentagon om hun modellen geschikt te maken voor legaal gebruik binnen defensie.
Anthropic sloot vorig jaar een tweejarige overeenkomst met het Pentagon voor een prototype van Claude Gov en Claude for Enterprise. De uitkomst van de huidige onderhandelingen kan richtinggevend zijn voor toekomstige gesprekken met andere AI-aanbieders.
Amerikaanse banencijfers verrassen, maar dalende participatie en zwakke loongroei zorgen voor twijfel over de kracht van de economie.
Iran viel opnieuw olie-infrastructuur aan in Koeweit en Abu Dhabi. Ondertussen overleggen meer dan 40 landen over het heropenen van de Straat van Hormuz.
Drie tankers lijken via een nieuwe route langs Oman de Straat van Hormuz binnen te varen. Het zou de eerste doorbraak zijn sinds de blokkade.
Warren Buffett verdient miljarden met olie. Zijn strategie toont waarom spreiding beleggers beschermt tegen onverwachte marktschokken.
Vermogensbeheerder Bernstein denkt dat Bitcoin al de bodem van de bearmarkt heeft gezien en verwacht een stijging naar $150.000. Realistisch?
Robert Kiyosaki waarschuwt voor een megacrash in 2026 en onthult zijn strategie: goud, zilver, Bitcoin en Ethereum kopen en nooit verkopen.