De illusie van “AI”-kennis
“Zweedse premier onder vuur omdat hij ChatGPT gebruikt: ‘Kristersson is gevallen voor AI-psychose’”, aldus NRC vandaag. Niet alleen de premier van Zweden gebruikt ChatGPT om ‘kennis’ te vergaren. Large Language Models (zogenaamde “kunstmatige intelligentie”) wordt steeds breder gebruikt. Zorgwekkend, want het laat zien dat mensen ChatGPT fundamenteel niet begrijpen.
Net als de Zweedse premier gebruiken veel mensen Large Language Models (LLM’s) voor “second opinions” (of zelfs voor “first opinions”). In de ergste gevallen zijn ze op zoek naar advies over wat ze wél en niet moeten doen, of wat voor mening ze over een onderwerp moeten hebben.
Dit is zorgwekkend, want LLM’s kunnen geen advies geven of meningen hebben. LLM’s zijn kansberekenende algoritmen die op basis van een input uitrekenen van een output zou kunnen zijn. In andere woorden: het is een krachtigere versie van autocorrect.
Zonder té filosofisch te worden: intelligentie wordt vaak omschreven als het vermogen om te kunnen redeneren, problemen te doorgronden en op te lossen, te leren uit ervaring, en je aan te kunnen passen aan nieuwe situaties. Dat kunnen LLM’s dus niet.
Intelligentie is, in tegenstelling tot wat veel mensen denken, geen puur reactief proces, maar een creatief proces. Het is veel complexer dan alleen maar herinneren en combineren van feiten, maar zelfs dat kan een LLM niet. Een LLM “snapt” de informatie niet die het overdraagt.
Een LLM, zoals ChatGPT, Grok, Gemini, Copilot of Claude, is dus niet intelligent. Het is geen kunstmatige intelligentie, het creëert alleen die illusie. Waarom vallen we voor die illusie? Dat heeft drie redenen: een psychologische, een economische en een cultureel-politieke.
De psychologische reden is dat mensen geneigd zijn om te “antropomorfiseren”, dus om menselijke eigenschappen te plakken op dieren, planten, objecten, of zelfs abstracte concepten als een algoritme of natuurfenomenen.
Dat neemt zulke ernstige vormen aan dat mensen, deels vanwege de eenzaamheidsepidemie in de samenleving, denken relaties op te bouwen met chatbots. Terwijl: ze worden eigenlijk verliefd op ’s werelds meest complexe echoput.
Dat mensen LLM’s antropomorfiseren is echter geen toeval, er zit een economische reden achter. Bedrijven willen deze chatbots marketen als intelligent, als AI. AI voelt futuristisch, want het zit in sci-fi-boeken en -films. Het is moderne magie.
Een LLM die een tekst uitpoept is in feite niets anders dan een goochelaar die een konijn uit een hoge hoed tovert, en het voordoet als magie. Dat is niet schadelijk in een show die voor entertainment bedoeld is. Het wordt schadelijk als mensen goochelarij serieus gaan nemen.
Zoals bijvoorbeeld SaaStr, een bedrijf dat de LLM-tool Replit gebruikte om computers te programmeren. Nadat het de “opdracht” had gekregen om niets meer aan de code van het bedrijf te veranderen, heeft Replit de hele database van het bedrijf gewist.
De eigenaar van SaaStr, Jason Lemkin, deelde zijn ervaring op Twitter, waar je kan zien dat Replit niet alleen bevelen negeerde, maar ook nog eens “loog” over wat er was gebeurd en wat er precies verwijderd was. Omdat LLM’s taal niet begrijpen.
En toch blijven LLM-bedrijven hun product marketen alsof het een revolutie is, vergelijkbaar met de stoommachine en het internet. Alleen zo kunnen ze investeringen binnen blijven harken voor een product dat, zoals gezegd, feitelijk autocorrect is.
Onderdeel van die strategie is “glazing”, een neiging van LLM’s om taal te reproduceren die positief is naar hun gebruikers toe. GPT4 gebruikt zelfs sektarische taal om te vieren dat gebruikers hun medicatie niet meer slikken.
Dit gaat zelfs zo ver dat LLM’s mensen overtuigen dat ze spirituele gaven hebben, dat ze het doelwit zijn van een complot, en dat ze belangrijke ontdekkingen aan het doen zijn. Allemaal hallucinaties die niet zouden misstaan in een sekte.
En dit alles is niet vreemd, want mensen als Elon Musk (die zelf LLM-producten verkoopt) hebben het allemaal over hoe “slim” hun LLM-producten zijn. Maar deze marketing-truc staat niet op zichzelf. Het speelt in op bestaande cultuur en politiek.
Onze cultuur is namelijk geobsedeerd met “intelligentie”: als een objectief meetbaar gegeven waarmee je mensen kan rangschikken, maar ook als basis voor hiërarchie. In kapitalisme, zo wordt gezegd, drijven de “slimste” mensen naar boven.
Dat idee klopt al niet omdat intelligentie niet objectief meetbaar is. Verschillende mensen hebben verschillende vaardigheden die niet meetbaar zijn op één cognitief spectrum. En onder kapitalisme is hebzucht, niet intelligentie, belangrijk.
En toch is dat idee wijdverspreid. Niet alleen als het gaat om kapitalisme, maar ook als je het hebt over parlementaire democratie: blijkbaar is er een “bestuurlijke elite” nodig (meestal van universitair geschoolden) om een land te besturen.
Of denk aan hoe we onderwijs onderverdelen in “laagopgeleid” en “hoogopgeleid”, in plaats van “praktisch geschoold” en “abstract geschoold”, wat feitelijk het onderscheid is. Ook daaruit blijkt een bepaalde hiërarchie.
Ook in zaken als economie zien we dit. Als werkenden meer betaald willen worden, komt er altijd een econoom op de proppen om uit te leggen dat het “objectief” beter is als de rijken rijker worden, en de armen armer. Dat is “wetenschap”.
Het is dit culturele begrip, gekneed vanuit kapitalisme, dat het voor de “tech bros” als Musk mogelijk maakt om te stellen dat algoritmen en programmeurs de wereld kunnen en moeten regeren. Als intelligentie objectief is, is het programmeerbaar.
En ook dit heeft weer gevolgen, want door deze combinatie van marketing en cultureel-politieke ideologie gebruiken veel mensen LLM’s als een soort profeten of politieke duiders. Niet eens om bronnen te vinden of onderzoek te doen, maar om een hapklare mening te genereren.
Hier speelt glazing dus een rol (de posters worden soms ernstig naar de mond gepraat). Maar het is ook bekend dat Musk zijn LLM heeft geprogrammeerd om met extreem-rechtse of fascistische meningen te komen, zoals over ‘genocide’ in Zuid-Afrika of zijn liefde voor nazi’s.
En dan zijn er nog de gevaren voor daadwerkelijke intelligentie, zoals de mogelijkheid om kritisch na te denken. Mensen die LLM’s voor zich laten denken verliezen de mogelijkheid om bronnen te onderzoeken en onderscheid te maken in wat relevant of waar is.
Dit alles laat zien dat misbruik van LLM’s niet puur een probleem is van technologische ontwikkeling of verkeerd gebruik. Er zijn economische en politieke redenen die mensen ertoe aanzetten om LLM’s te zien als intelligent en ze te vertrouwen beslissingen te nemen.
Wie wil strijden tegen de uitwassen van LLM’s moet daarom ook de strijd aangaan met de onderliggende logica van politiek-bestuurlijke technocratie, tech-utopisme, PR-macht en ook kapitalisme. Anders lopen we grotere risico’s dan dat een paar databases worden gewist.
Bo Salomons
(Dit artikel verscheen eerder als draadje op Twitter.)
Meer over ‘AI-kennis’ op onze website:
“Het eenvoudigste antwoord ligt in de structuur van AI machine learning, dat technisch gezien een herhaling van het verleden is. Het werkt op basis van een post-histoire epistemologie (het filosofische idee dat we de geschiedenis achter ons hebben gelaten en dat er niets meer zal veranderen), volgens welke het heden en de toekomst kunnen worden afgeleid en voorspeld op basis van gegevens uit het verleden. Dit doet een machine learning systeem omdat het alléén maar data uit het verleden gebruikt om in het heden te werken en ook voorspellingen over de toekomst te maken (bijvoorbeeld in “predictive policing,” de voorspelling van toekomstige “crime sites” door AI). Dit betekent op zijn beurt dat het heden en de toekomst, tenminste voor zover ze bestaan als werkelijkheid binnen het computationele systeem, niet kunnen bestaan buiten de grenzen van die retrospectieve systeemwerkelijkheid.” In: “De illusie van controle”, Florian Cramer.
“Chatbots worden ook dommer naarmate ze verder komen. Dat komt deels doordat ze tijdens het machinaal leren ook gevoed worden met producten van andere chatbots, en deels doordat slecht betaalde clickwerkers soms zelf ChatGPT gebruiken voor fine-tuning, om zogenaamd handgeschreven teksten sneller te genereren. Slechts zes maanden na de release begonnen de klachten zich op te stapelen dat de prestaties van ChatGPT steeds meer fouten bevatten en slechter werden.” In: “Kapitalistische Intelligentie?”, Wildcat
Reacties (0)
Voeg nieuwe reactie toe
Wij tolereren geen: racisme, seksisme, transfobie, antisemitisme, ableisme enz.