De Amerikaanse defensietop en AI-bedrijf Anthropic liggen met elkaar overhoop over het gebruik van kunstmatige intelligentie binnen het leger. Onderhandelingen over een verlenging van een contract zijn vastgelopen, omdat Anthropic extra beperkingen wil opleggen aan zijn AI-model Claude. Het Pentagon wil juist meer ruimte om de technologie in te zetten, zolang dat binnen de wet gebeurt.

De discussie raakt aan een gevoelige vraag: hoe ver mag de overheid gaan met krachtige AI-systemen die kunnen worden ingezet voor surveillance en militaire toepassingen?

Anthropic wil grenzen stellen aan militair gebruik van AI

Volgens ingewijden wil Anthropic expliciete beperkingen inbouwen in zijn AI-model Claude. Het bedrijf wil voorkomen dat de technologie wordt ingezet voor massasurveillance van Amerikaanse burgers of voor de ontwikkeling van wapens die zonder menselijke tussenkomst kunnen opereren.

Daarmee botst het met het Pentagon. Het Amerikaanse ministerie van Defensie wil Claude zo breed mogelijk kunnen gebruiken, zolang de inzet binnen de wettelijke kaders blijft. Over dat meningsverschil berichtte Axios eerder.

Anthropic positioneert zich als een AI-bedrijf dat veiligheid en ethiek vooropstelt. Het wil krachtige modellen beschikbaar maken voor overheden, maar alleen onder strikte voorwaarden. Vanuit die gedachte ontwikkelde het Claude Gov, een speciale versie voor de Amerikaanse nationale veiligheidsdiensten.

Claude Gov is ontworpen om gevoelige informatie te verwerken, zoals geheime documenten, inlichtingenrapporten en complexe cybersecuritydata. Volgens Anthropic moet ook deze overheidsvariant voldoen aan de eigen veiligheidsprincipes van het bedrijf.

Een woordvoerder van Anthropic benadrukt dat het bedrijf “toegewijd is aan het inzetten van geavanceerde AI ter ondersteuning van de nationale veiligheid van de VS” en spreekt van “constructieve gesprekken in goed vertrouwen” met het ministerie van Defensie.

Pentagon-woordvoerder Sean Parnell laat in een schriftelijke verklaring weten dat de relatie met Anthropic wordt herzien. Volgens hem vereist de nationale veiligheid dat partners bereid zijn om Amerikaanse militairen in elke situatie te ondersteunen.

Pentagon kijkt ook naar ChatGPT en andere AI-modellen

Binnen defensiekringen zou Anthropic inmiddels worden gezien als een mogelijk risico in de toeleveringsketen. Het ministerie van Defensie zou leveranciers zelfs kunnen verplichten te verklaren dat zij geen gebruikmaken van de modellen van het bedrijf.

Dat kan kansen bieden voor concurrenten. Andere AI-bedrijven, waaronder OpenAI met ChatGPT, Google met Gemini en xAI met Grok, werken volgens bronnen samen met het Pentagon om hun modellen geschikt te maken voor legaal gebruik binnen defensie.

Anthropic sloot vorig jaar een tweejarige overeenkomst met het Pentagon voor een prototype van Claude Gov en Claude for Enterprise. De uitkomst van de huidige onderhandelingen kan richtinggevend zijn voor toekomstige gesprekken met andere AI-aanbieders.

Altijd als eerste het laatste crypto nieuws?

Mis niets van de snel bewegende cryptomarkt met de gratis Newsbit-app. Of je nu onderweg bent of op de bank zit: met één tik krijg je real-time prijsalerts, koersupdates en exclusieve inzichten van experts over Bitcoin en altcoins.

Download de Newsbit-app nu – en blijf elke beweging in de markt voor.

Wees als eerste op de hoogte van het laatste Crypto Nieuws

koers crasht, koers crash

Analist slaat alarm: aandelenmarkt kan heel 2026 blijven dalen

koers crasht, koers crash
Amerika, ETF, Crash
goud, gold
Meer Beurs nieuws

Meest gelezen

Charles Hoskinson
blackrock
XRP token, Ripple
Newsbit
Bekijk de app
Bekijk