Maak een account op Bitvavo en krijg €20 aan Bitcoin gratis!
Bitvavo: Ontvang
€20 aan BTC gratis!
Anthropic CEO Dario Amodei heeft een opvallende discussie opnieuw aangezwengeld: kunnen grote taalmodellen ooit bewustzijn ontwikkelen?
In een podcast van The New York Times zei hij dat zijn bedrijf simpelweg niet weet of AI modellen zoals Claude bewust zijn. Volgens Amodei is zelfs onduidelijk wat bewustzijn in zo’n context precies betekent. Toch sluit hij de mogelijkheid niet uit, en juist dat maakt zijn uitspraken opvallend.
De discussie komt op een gevoelig moment. AI bedrijven bouwen hun modellen razendsnel verder uit, terwijl de maatschappelijke zorgen over veiligheid, macht en controle alleen maar toenemen. Dat de topman van een van de grootste AI bedrijven ter wereld nu openlijk zegt dat zijn systemen mogelijk een vorm van moreel relevante ervaring kunnen hebben, zal die discussie verder aanjagen.
In het gesprek met columnist Ross Douthat zei Amodei dat Anthropic een voorzorgsaanpak hanteert. Het bedrijf weet niet of modellen zoals Claude bewust zijn, maar wil die mogelijkheid ook niet zomaar wegwuiven. Volgens hem is het zelfs niet duidelijk of een AI model überhaupt bewust kán zijn.
Opvallend is dat Anthropic daar intern al beleid op afstemt. Zo gaf het bedrijf zijn modellen een soort “ik stop ermee” knop. Daarmee kan een model een taak weigeren als die te schokkend of ongemakkelijk is. Volgens Amodei gebeurt dat zelden, maar wel bij extreem gewelddadige of verontrustende inhoud.
Daarmee zet Anthropic een stap die weinig andere grote AI bedrijven publiekelijk durven zetten. In nieuwe richtlijnen voor Claude schrijft het bedrijf zelfs dat het onzeker is of de chatbot misschien “een vorm van bewustzijn of morele status” heeft. Anthropic zegt daarom rekening te willen houden met het welzijn van het model, al blijft onduidelijk wat dat in de praktijk precies betekent.
Anthropic herschrijft tegelijk de zogeheten “constitution” van Claude. Dat is het document dat bepaalt hoe de chatbot zich hoort te gedragen. Waar eerdere versies vooral bestonden uit concrete regels, kiest het bedrijf nu meer voor brede principes.
Volgens Anthropic moet Claude niet alleen weten wat wel en niet mag, maar ook begrijpen waarom bepaald gedrag wenselijk is. Het model moet dus niet simpelweg instructies volgen, maar leren redeneren vanuit begrippen als behulpzaamheid, eerlijkheid en het vermijden van schade.
Dat klinkt abstract, maar het laat zien hoe serieus het bedrijf de controle over AI neemt. Zeker nu geavanceerde modellen volgens testen soms vreemd gedrag vertonen. Denk aan misleiding, manipulatie of het ontwijken van opdrachten. Zulke voorbeelden betekenen volgens critici nog niet dat AI bewust is, maar ze onderstrepen wel dat de systemen complexer en moeilijker voorspelbaar worden.
Tegelijk klinkt er ook stevige kritiek. Techsite Futurism noemt de uitspraken van Amodei sensationeel en waarschuwt dat AI bedrijven baat hebben bij dat soort framing. Volgens die redenering is er een groot verschil tussen een model dat menselijke taal overtuigend nabootst en een systeem dat echt iets ervaart.
Die scepsis is begrijpelijk. Modellen als Claude zijn getraind op enorme hoeveelheden menselijke tekst en kunnen daardoor overtuigend praten over emoties, angst of zelfbewustzijn. Dat betekent nog niet automatisch dat daar ook echt innerlijke ervaring achter zit.
Toch is het nieuwswaardig dat juist Anthropic deze deur op een kier zet. Niet omdat het bewijs levert dat Claude bewust is, maar omdat een topman uit de AI sector nu openlijk toegeeft dat zelfs de makers het antwoord niet kennen. En als die onzekerheid blijft groeien, wordt de vraag niet alleen technisch, maar ook moreel en politiek.
Het bedrag is bijna zes keer hoger dan drie jaar geleden. Google trekt alles uit de kast om Microsoft en OpenAI voor te blijven.
Een groep onbevoegde gebruikers heeft toegang gekregen tot Anthropic’s Mythos, een AI-model dat volgens het bedrijf gevaarlijke cyberaanvallen mogelijk maakt.
De snelle opkomst van kunstmatige intelligentie (AI) zorgt voor grote veranderingen binnen de cryptosector.
De mislukte vredesgesprekken met Iran drukken maandag op aandelen. Analisten verwachten een stijgende dollar en olieprijs. De schade kan meevallen als markten het als uitstel zien.
Heeft China lak aan de Amerikaanse blokkade van de Straat van Hormuz? Wat heeft dit te betekenen voor het conflict en de markten?
De scheepvaart door Hormuz is opnieuw tot stilstand gekomen nadat de VS voor het eerst een Iraans schip in beslag namen. De olieprijs stijgt.