Eerst komt de techniek, dan de moraal?

Op het moment dat ik dit schrijf – eind 2024 – roept de huidige minister van VWS, mw. Agema, dat AI de oplossing gaat worden voor de grote capaciteitsproblemen in de gezondheidszorg. Daardoor kan de zorg bijvoorbeeld goedkoper worden. Op zichzelf is daar natuurlijk niets mis mee, hoewel de uitspraak wel een hoog gehalte aan mode- en wensdenken bezit. En een hoop techbedrijven zullen er ongetwijfeld aan gaan verdienen.  Wat ik veel interessanter en spannender vind is de vraag wat AI inhoudelijk voor mijn vakgebied, de klinische neurologie, zal gaan betekenen.

Een dagelijkse uitdaging voor iedere neuroloog is het stellen van een diagnose. Uit een grote hoeveelheid informatie die de patiënt en diens naasten ons geven, en onze bevindingen bij en interpretatie van het neurologisch onderzoek, moeten we een lijst met mogelijke diagnoses opstellen: de differentiële diagnose – DD in het jargon. Dit is feitelijk de moeilijkste, meest cruciale stap op weg naar de uiteindelijke, hopelijk juiste, diagnose. Ze bepaalt welk aanvullend onderzoek we aanvragen (laboratoriumonderzoek, MRI-scan).  Misschien nog wel belangrijker: zo proberen we een al te snel opdoemende tunnelvisie te vermijden. Onderzoek alles, behoud het goede (Paulus, Thessalonicenzen 5:21).

Ik ben ervan overtuigd dat AI ons zal kunnen helpen om een relevante DD op te stellen, nuttig (en geen overbodig) aanvullend onderzoek te kiezen, en tot een juiste uiteindelijke diagnose te komen, die leidt tot een juiste behandeling.

Maar wat is een juiste behandeling? Dat is soms ook niets doen. De vraag kan opkomen in het geval van bijvoorbeeld chronische of levensbedreigende aandoeningen. Dan gaan morele en ethische overwegingen meespelen, naast kennis van de ziekte, de epidemiologie, de toestand van de betrokkene. Kan AI zulke overwegingen aan?

Recent sprak ik een filosoof die geïnteresseerd is in de vraag hoe AI kan ondersteunen in het nemen van moeilijke beslissingen met normatieve, morele en ethische dimensies, bijvoorbeeld door artsen of rechters. Zij wees mij op het bestaan van Moral Decision Making AI (MDMAI) een onderwerp dat zij in haar master’s thesis verder heeft onderzocht. Zulke systemen kunnen gebaseerd zijn op morele regels, op deep learning, of ze zijn van hybride aard.

Veel AI-ontwikkelingen lijken plaats te vinden omdat het kan en omdat het reuze interessant is. Maar hebben we MDMAI ook nodig? Wat is het verschil met het gebruik van jurisprudentie of van richtlijnen? Hoe acceptabel zal een advies van zo’n systeem zijn voor de arts of rechter die ervan gebruik maakt? Zij blijven eindverantwoordelijk voor een beslissing. Hoe transparant is het proces van generatie van die adviezen? Genereert MDMAI acceptabele en begrijpbare argumenten? Zijn het argumenten die in de Nederlandse of Europese cultuur passen, of zijn ze gebaseerd op Angelsaksische, of, later wellicht, op Chinese normen en regels? Op de opvattingen van Elon Musk? Kun je dit eigenlijk wel overlaten aan de markt die momenteel de AI ontwikkeling domineert?

En de belangrijkste vraag: hoe acceptabel is het gebruik van AI voor diegene over wie beslist moet worden? Maakt het uit of de veroordeelde weet dat AI meebeslist heeft over het rechterlijk vonnis? Ik denk dan aan de ophef die ontstond toen bekend werd hoe de Belastingdienst ‘algoritmen’  gebruikt.

Is er een Turingtest voor ‘morele artificiële intelligentie’? Zullen we MDMAI accepteren als het advies in niets meer te onderscheiden is van menselijke oordelen? Maar waarom is er dan nog een moreel AI-systeem nodig? Moeilijke beslissingen kan ik toch ook in overleg met mijn collega’s nemen?

En wat gebeurt er met ons individuele denken en onze eigen opvattingen, onze eigen morele intelligentie, wanneer we de suggestie aangereikt krijgen dat de ‘artificiële morele intelligentie’ het wel weet? Moeten ingrijpende beslissingen over mensen niet gewoon door mensen overdacht en overwogen worden? Laten we, om Bertolt Brecht te parafraseren, oppassen dat we niet in een situatie komen waarin geldt:  Erst kommt die Maschine, dann kommt die Moral.

 

Referentie:

Vierhout, E. (2024) The Possibility of Normative Moral Decision Making Artificial Intelligence and its Effects on the Practical Nature of Morality. Master’s thesis, University of Wales Trinity Saint David. https://repository.uwtsd.ac.uk/id/eprint/3179/

 

Deel via: