We overschatten wat we met AI volgend jaar kunnen doen, maar onderschatten langere termijneffecten
De quote “Wij overschatten altijd de veranderingen die in de komende twee jaar zullen plaatsvinden en onderschatten de veranderingen die in de komende tien jaar zullen plaatsvinden” van Bill Gates is natuurlijk ook van toepassing op Kunstmatige Intelligentie (AI). In 2015 verklaarde Elon Musk: “De Tesla die momenteel in productie is, heeft de mogelijkheid om zelf te sturen op de snelweg. Dat wordt momenteel in bèta getest en zal begin volgende maand breed worden uitgerold. Dus we zijn waarschijnlijk slechts een maand verwijderd van autonoom rijden, althans voor snelwegen en relatief eenvoudige wegen. Mijn schatting voor wanneer auto’s volledig autonoom kunnen rijden, is ongeveer drie jaar.” In 2016 verklaarde Turing Award-winnaar Geoffrey Hinton dat “het vrij duidelijk is dat we moeten stoppen met het opleiden van radiologen”, in de verwachting dat beeldherkenningsalgoritmen mensen snel zouden overtreffen. Echter, we rijden nog steeds zelf in onze auto’s, en er is nog steeds een tekort aan menselijke radiologen. Veranderingen zijn gradueel, waarbij menselijke intelligentie en machine intelligentie elkaar lange tijd aanvullen. Het idee van een zelfrijdende auto is al bijna 100 jaar oud, maar is alleen mogelijk onder zeer specifieke omstandigheden (bijvoorbeeld in de file op de snelweg).
De aandacht voor ChatGPT en andere generatieve AI-systemen geeft het gevoel dat er nu sprake is van een fundamentele verandering. Er zijn echter twee wetmatigheden die veel mensen uit het oog verloren hebben. Generatieve AI, hoewel indrukwekkend in zijn mogelijkheden om teksten, beelden en andere inhoud te creëren, verandert de complexiteitsklasse van bestaande problemen niet. Denk bijvoorbeeld aan het handelsreizigersprobleem waar iemand een aantal steden moet bezoeken, waarbij hij elke stad precies één keer bezoekt en vervolgens terugkeert naar zijn startpunt. De uitdaging is om de kortste mogelijke route te vinden die alle steden omvat. Dit is een zogenaamd NP-hard probleem waardoor er geen algoritme bestaat dat voor elk mogelijk geval binnen een redelijke tijd de optimale oplossing kan vinden. De andere wetmatigheid is dat AI alleen kan leren als er genoeg voorbeelden zijn om te trainen. Denk aan de effecten van corona en de oorlog in de Oekraïne op logistieke processen. Op het moment dat er sprake is van een compleet nieuwe situatie, heeft AI het lastig. Toch verwachten sommige gebruikers dat ChatGPT antwoorden op vragen kan geven zonder zelfs de context mee te geven. ChatGPT heeft bijvoorbeeld geen toegang tot de gegevens in de informatiesystemen van een organisatie zonder dit expliciet in de prompt mee te geven.
Deze wetmatigheden zijn wellicht geruststellend. Ook AI heeft zijn grenzen als het gaat om de complexiteit van problemen en de beschikbaarheid van representatieve voorbeelden. Echter op langere termijn zullen de effecten nog steeds verbluffend zijn.