AI met voorbedachten rade*
AI kent eindeloze toepassingsmogelijkheden en is al binnengedrongen in vele bedrijfstakken. Om AI succesvol in de praktijk toe te passen, zie ik twee uitdagingen. De eerste is herkennen in welk proces en in welke vorm AI het best toegepast kan worden. De tweede is AI daadwerkelijk aan de intenties en verwachtingen te laten voldoen. Hierom pleit ik voor ‘AI met voorbedachten rade’.
De term ‘met voorbedachten rade’ kennen we uit het strafrecht en wijst op ‘met kalm beraad en rustig overleg handelen’. Mijns inziens moeten we dit ‘kalm beraad en rustig overleg’ ook over AI voeren. Enerzijds met de gehele samenleving om te bepalen welk gedrag moreel acceptabel is in welke situatie, en aan welke normen en waarden AI zich moet houden. Anderzijds met een selecte groep betrokkenen over een specifieke toepassing van AI. Wat is nodig om de radioloog zo optimaal mogelijk te ondersteunen bij het diagnosticeren van kanker? Hoe kan AI de assemblagelijn van die fabriek efficiënter maken? Waarmee kan de administratielast van de monteur verminderd worden?
Een AI-implementatieproject moet beginnen met kennisuitwisseling tussen specifieke betrokkenen, waaronder een beoogde eindgebruiker, een domeinexpert en een AI-specialist. De groep kan eventueel nog uitgebreid worden met bijv. een data engineer, jurist of privacy officer. Door kennis te delen over de huidige werkwijze inclusief tekortkomingen kan een AI-specialist de vertaalslag maken van real-life uitdagingen naar technische oplossingen. Samen gaan ze grenzen verkennen én de juiste grenzen stellen. Door vooraf na te denken over mogelijke risico’s en de gewenste redenaties die AI erop na mag houden, wordt de kans op onbedoelde discriminatie, onjuistheden of hallucinaties verminderd.
Vervolgens moet het besproken gewenste gedrag in een AI-systeem vastgelegd worden. Als blijkt dat een complexere AI-oplossing nodig is dan duidelijke if-else-regels, is dit besproken gedrag vastleggen nog niet zo simpel. Mensen, zelfs AI-ontwikkelaars, weten namelijk niet precies wat een AI-systeem leert. Ontwikkelaars trainen AI aan de hand van voorbeelden: bij deze input zou je deze output moeten geven. Die vertaalstap van input naar output wordt gedaan via miljarden getallen die het AI-systeem zelf bepaalt, waardoor de AI een ‘zwarte doos’ (black box) wordt. Na het trainingsproces kan via een reverse-engineering aanpak van fictieve input-output-scenario’s getest worden in hoeverre het geleerde gedrag overeenkomt met intenties en verwachtingen.
In plaats van achteraf raden wat een AI-model geleerd heeft, is mijn ultieme ‘AI met voorbedachten rade’ een AI-systeem dat mensen kunnen interpreteren, controleren, aanpassen en goedkeuren. Dit zie ik voor me als een modulair aanpasbaar systeem, met AI-legoblokjes die naar wens kunnen worden weggehaald, toegevoegd en aangepast. Net alsof de mens een chirurg is en zelf draadjes kan verleggen in een artificieel brein. Dit klinkt misschien als onhaalbare toekomstmuziek maar er zijn al veelbelovende stappen in deze richting gezet.
Daarom roep ik iedereen die betrokken is bij een AI-implementatieproject op: zorg voor ‘AI met voorbedachten rade’. Kom vooraf bij elkaar, houd samen een multidisciplinair dialoog over doeltreffend en acceptabel gedrag van AI en controleer of het ontwikkelde AI-systeem hieraan voldoet. En een oproep aan AI-specialisten om AI te ontwikkelen die zoveel mogelijk inzichtelijk en controleerbaar is. Zo bereiken we samen effectieve en verantwoorde AI.
* Met de gestegen bekendheid en inzet van AI is betrouwbare AI des te relevanter geworden. Daarom dat dit artikel, reeds ingediend als antwoord op de ‘jaarlijkse vraag’ van 2023, in een vernieuwd jasje is gestoken om het opnieuw de aandacht te geven die het verdient.