Hoe AI toonde dat we ons eigen handelen niet echt begrijpen






Moderne kunstmatige intelligentie klinkt vreselijk ingewikkeld. Iets met neurale netwerken, leren van data, heel veel rekenkracht. De technologie voelt daardoor voor mensen snel abstract. Waarom doen AI-onderzoekers zo ingewikkeld bij het maken van slimme computers? Kan dat niet op een intuïtievere manier, die we allemaal goed kunnen begrijpen?


Nu maken AI-onderzoekers de technologie natuurlijk niet voor de lol ingewikkeld – het is pure noodzaak. Die noodzaak moeten we allemaal begrijpen. Niet alleen om te snappen waarom AI werkt zoals zij werkt, maar ook omdat hieronder de grootste les van een kleine eeuw AI-onderzoek verstopt zit.  


Een voorbeeld maakt dit snel duidelijk. Stel dat jij een AI-onderzoeker bent halverwege de 20e eeuw. De computer is net ontwikkeld, en jij krijgt de eer om deze intelligent te maken. Ik geef je een computer en een programmeur ter beschikking, en jij hoeft alleen de instructies te geven om de computer slim te maken. Nu gedraag je jezelf gelukkig de hele dag intelligent, en zo moeilijk moet dat dus niet zijn. 


Ik denk dat iedereen zich deze vraag een keer in zijn leven gesteld moet hebben: hoe zou jij een computer intelligent maken? Denk er vooral even over na. Ik schat in dat je daarna met het volgende antwoord komt: laten we eerst proberen (in regels) te beschrijven hoe we zelf denken, en die vervolgens in een computer programmeren. 



Beslisregels

Dat is precies de benadering die de vroegste AI-onderzoekers kozen. Het duidelijkste voorbeeld hiervan was logisch redeneren, gebaseerd op ‘als-dan-regels’. Als je bijvoorbeeld in het verkeer een auto van rechts ziet komen, dan moet je remmen. Zo’n ‘als-dan-regel’ specificeert een vorm van intelligentie: op basis van zo’n regel kunnen we tot slimme conclusies komen. En zo’n redenering kan via andere regels op elkaar voortbouwen: als je immers op je rem trapt, dan moet je ook in je spiegel kijken of er niet iemand tegen je aanrijdt. 


AI-onderzoekers gingen daarom gigantische kennisbanken bouwen van logische ‘als-dan-regels’ – soms met miljoenen regels. Door dit soort kennisbanken werden computers in de loop van de 20e eeuw inderdaad steeds slimmer. Eind 20e eeuw loopt de vooruitgang echter vast. Op zeker moment bleken AI-onderzoekers niet meer te overzien welke regels exact nodig waren en hoe alles moest worden verbonden. Misschien moet je wel helemaal niet remmen bij een auto van rechts als je op een rotonde rijdt, je stoplicht op groen staat, of de andere auto haaientanden heeft. Het aantal regels en uitzonderingen bleek te complex, en de gigantische kennisbanken bleken niet tot gevorderde intelligentie te leiden.


Het vastlopen van de klassieke AI-benadering leidde (tweemaal) tot een AI-winter, waarin de investering in het veld fors terugliepen. Dat was echter niet voor niks: achteraf is het denk ik de grote les die we over intelligentie moesten leren. Initieel dachten we dat we de stappen van intelligentie zelf moesten doorgronden, maar dat bleek helemaal niet mogelijk. We kunnen als mensen van alles, maar we kunnen niet precies uitleggen hoe we het doen – in ieder geval niet in zoveel detail dat we het in een computer kunnen nabouwen. Ik kan bijvoorbeeld een kopje oppakken van tafel, maar ik kan met geen mogelijkheid beschrijven welke krachten daar exact voor nodig zijn op alle spieren in mijn arm. Dat is natuurlijk een pijnlijke conclusie, maar op zeker moment konden AI-onderzoekers er niet meer omheen. 



De kat en z'n staart

Maar wat dan? De oorzaak van ons probleem ligt in ons eigen brein – de plek die onze intelligentie mogelijk maakt. Dit brein blijkt een gigantisch complex systeem, opgebouwd uit zo’n honderd miljard zenuwcellen (‘neuronen’). Al die zenuwcellen geven elkaar informatie door, en die complexiteit blijkt nodig om tot gevorderde intelligentie te komen. En ook in computers blijkt die complexiteit absoluut noodzakelijk. Dát is de reden dat moderne kunstmatige intelligentie (ook) gebaseerd wordt op grote netwerken van (digitale) neuronen – die wel steeds beter in staat blijken om gevorderde aspecten van menselijke intelligentie na te bootsen.


Wat mij betreft zit er wel een mooie ironie in deze geschiedenis verstopt. Die werd ooit prachtig verwoord door natuurkundige Emerson Pugh: “If the human brain were so simple that we could understand it, we would be so simple that we couldn’t.” Dit is precies waar de schoen wringt. Intelligentie vraagt een mate van complexiteit die zichzelf onmogelijk volledig kan overzien. Wat betreft ons brein zijn we een soort kat die achter haar eigen staart aan rent – die krijg je ook nooit te pakken. Dat lijkt een pijnlijke conclusie, maar is ook een reden voor bewondering – voor dat gigantisch complexe bouwwerk aan de binnenkant van onze schedel.


En, interessant genoeg: AI biedt de kat mogelijk een ontsnapping. Ook in computers kunnen we niet uitleggen wat de bijdrage is van elk neuron in zo'n groot netwerk, maar we snappen wel het proces (leren van ervaring/data) dat tot die complexiteit kan leiden. Zo biedt AI een haakje waardoor de kat met wat uitstrekken toch gevaarlijk dichter bij zijn eigen staart begint te komen maar dat is een verhaal voor een andere keer.