De drijvende krachten van kunstmatige intelligentie





Kunstmatige intelligentie komt de laatste jaren in hoog tempo onze samenleving binnen. Dat biedt interessante mogelijkheden, maar roept ook vragen op, bijvoorbeeld over de toekomst: waar gaat dit heen? Het publieke AI-debat op dit onderwerp voelt echter vaak als een pingpongwedstrijd: de ene expert roept dat we over twee jaar AI op menselijk niveau (‘AGI’) zullen hebben, waarna een ander stelt dat dit onzin is en we er nog mijlenver vandaan zitten. Zelfs de absolute toponderzoekers in de AI zijn het wat betreft de toekomst behoorlijk met elkaar oneens.


Interessant genoeg is deze situatie niet nieuw. Vanaf het begin van het AI-onderzoek, midden 20e eeuw, hebben wetenschappers geprobeerd de toekomst van AI te voorspellen. En in alle eerlijkheid: doorgaans zaten we ernaast. Een mooi voorbeeld komt uit de eerste AI-workshop ooit, in 1956, waar een groep van tien top AI-onderzoekers voorspelde het probleem grotendeels op te kunnen lossen in een zomervakantie. Dat bleek achteraf zeker niet de eerste misrekening, en enige terughoudendheid over de glazen bol van AI-onderzoekers is op zijn plaats.


Maar wat moeten we dan? Als we boude uitspraken over de toekomst van AI met een korreltje zout moeten nemen, waar kunnen we dan wel op vertrouwen? Ik denk dat er zoals altijd maar een oplossing is: om iets te kunnen zeggen over de toekomst, moet je kijken naar het verleden. De vraag is vooral: wat waren de factoren die vooruitgang van AI mogelijk hebben gemaakt, en hoe zouden die zich verder kunnen ontwikkelen? 



Algoritmen

De eerste drijvende kracht van kunstmatige intelligentie zijn leeralgoritmen: recepten om een computer slimmer te maken op basis van data. Voor veel mensen voelt dit abstract: hoe kun je nu slimmer worden van data? Maar eigenlijk is dat precies wat wij zelf ons hele leven doen. Een baby is immers nog tot weinig intelligent gedrag in staat, maar tijdens ons leven leren we zoveel. En wat je daarbij aanleert is sterk afhankelijk van wat je meemaakt: als je opgroeit in Nederland leer je Nederlands spreken, maar verhuis je als kind naar Japan, dan leer je net zo makkelijk Japans. Ook mensen leren voortdurend van data – alleen noemen we het dan ervaring


In ons brein moet dus eigenlijk ook een leeralgoritme verstopt zitten, maar waar komt dat vandaan? Het antwoord op deze vraag ligt besloten in evolutie. Intelligentie en leren laten je namelijk beter overleven. Gedurende miljoenen jaren zijn onze voorouders daardoor steeds slimmer geworden, steeds beter geworden in leren van data. Zo werd in ons DNA een prachtig leeralgoritme afgesteld, wat ons in staat stelt tijdens ons leven zoveel vaardigheden op te doen. 


In zekere zin proberen we dat proces nu in computers na te bootsen, maar daarbij zitten AI-onderzoekers aan de knoppen. Die proberen – geholpen door inzichten uit de psychologie, neurowetenschap en wiskunde – de leeralgoritmen in computers steeds beter af te stellen. Bij elke wijziging kijken ze vervolgens of de computer inderdaad tot betere prestaties komt. Zo spelen AI-onderzoekers in computers de rol die evolutie voor ons speelde in de natuur: dit keer stellen wij de leeralgoritmen af die nodig zijn voor gevorderde intelligentie. 


In dit proces hebben AI-onderzoekers ontzettend veel ontdekt over de mechanismen van leren – dat zien we duidelijk terug in de prestaties van de huidige AI-modellen. Tegelijkertijd moeten we de grootte van onze evolutionaire geschiedenis niet onderschatten. Er is meer dan een half miljard jaar geschaafd aan de zenuwstelsels van onze voorouders, en ons biologische leeralgoritme is ongekend verfijnd afgesteld. Die gigantische evolutionaire geschiedenis is onze grote voorsprong op kunstmatige intelligentie, en het blijft ook voor AI-onderzoekers lastig inschatten hoe groot dit (algoritmisch) gat nog is. 






Data

De tweede drijvende kracht van kunstmatige intelligentie is data. Data lijkt in deze tijd soms op het nieuwe goud, maar we benoemen niet altijd waarom het zo bepalend is. Zo is de huidige kunstmatige intelligentie relatief goed in taal – in veel hogere mate dan bijvoorbeeld in beweging. Dat komt echter niet doordat AI-onderzoekers hebben uitgevogeld hoe taal werkt – taalmodellen gebruiken dezelfde principes van leren die we ook voor beweging gebruiken. De daadwerkelijke reden dat AI zo goed is in taal is het internet


De laatste decennia zijn we in onze digitaliserende wereld immers massaal teksten op het internet gaan slingeren: websites, fora, e-books, social media. AI-onderzoekers trekken deze teksten weer van het internet, zogeheten ‘web scraping’. Zo hebben ze toegang tot ongekend veel voorbeelden van goede tekst om hun taalmodellen te trainen. Dat AI relatief goed is in taal, komt dus vooral door de beschikbare data. Dat verklaart meteen waarom AI bijvoorbeeld meer moeite heeft met beweging: robots hebben een andere belichaming dan mensen, en dus hebben we minder goede voorbeelden. 


De toekomst van AI zal daarmee ook afhangen van de toekomst van data. Dat proces hangt interessant genoeg grotendeels af van maatschappelijke factoren. Blijft de digitalisering van onze samenleving bijvoorbeeld doorzetten? Wat voor extra sensoren, zoals de ‘smartglass’, zijn mensen bereid te gaan gebruiken? En welke juridische kaders ontwikkelen we rondom het verzamelen van data? Uiteindelijk zijn mensen (voorlopig) de verzamelaars van data, en daarmee ligt de toekomst van AI indirect in al onze handen. 






Rekenkracht

De laatste drijvende kracht van kunstmatige intelligentie is rekenkracht. Gevorderde AI moet namelijk langdurig leren van beschikbare data, waarbij we steeds weer nieuwe voorbeelden aanbieden. Dat voelt misschien abstract, maar vergeet niet dat een mens ook zo’n 20 jaar nodig heeft om tot volwassen intelligentie te komen. Zo staan computers in al die datacentra in onze polders soms maandenlang te leren van voorbeelden, en de resulterende AI is zo ook een gevolg van de beschikbare rekenkracht. 


Nu hebben we allemaal wel gemerkt dat de rekenkracht van computers over de jaren is gegroeid, maar we realiseren ons zelden hoe snel deze groei verloopt. Zo is de snelste computer ter wereld sinds het jaar 2000 al zo’n honderdduizend keer sneller geworden – een ongekende toename. Die ontwikkeling ligt echter volledig buiten de handen van AI-onderzoekers. Het zijn de chipfabrikanten, zoals NVIDIA, en de producenten van chipmachines, zoals ASML, die dit proces voortstuwen. Maar wat maakt deze continue groei van rekenkracht mogelijk? 


De belangrijkste onderliggende verklaring is dat we de schakelingen op computerchips steeds kleiner hebben weten te maken. Hierdoor pasten er steeds weer meer schakelingen op een chip, en daardoor konden we er sneller mee rekenen. Dat proces zet nog altijd voort, maar begint ook langzaam tegen grenzen aan te lopen: we kunnen de draadjes op een chip niet eindeloos kleiner blijven maken. Daarom werkt de chipindustrie ook aan andere verbeteringen, bijvoorbeeld via specialisatie van chips (zoals GPU’s) of compleet nieuwe vormen van rekenen (zoals ‘quantum computing’). De toekomst van AI zal zonder twijfel ook van deze ontwikkeling afhangen: hoeveel extra rekenkracht kunnen we als mensheid blijven ontsluiten?



Samengevat is de vooruitgang van AI een gevolg van drie factoren: algoritmen, data en rekenkracht. Elk van deze factoren was noodzakelijk: als er een was stilgevallen, zouden we nooit de AI van vandaag de dag hebben gehad. Elk van deze processen zal verder doorzetten, maar bevat voor de toekomst ook haar eigen onzekerheden. We zouden er goed aan doen dat te onderkennen – en zo iets terughoudender te worden met AI-waarzeggerij. 



Verantwoording: Dit artikel verschijnt ook in Baaz Magazine.

Reacties