AI in het Wilde Westen
ChatGPT sloeg in als een bom eind 2022. De combinatie van exponentieel groeiende rekenkracht van supercomputers, een massale hoeveelheid digitaal beschikbare data, en heel performante machine learning algoritmes gebaseerd op neurale netwerken, zorgde ervoor dat een natuurlijke conversatie met een chatbot opeens mogelijk werd.
Deze generatieve systemen zorgden ook voor een echte paradigmashift in het onderzoeksdomein van de natuurlijke taalverwerking. De performantie van uiteenlopende taaltechnologische toepassingen werd in een klap veel beter, en zelfs complexe taken zoals het opbouwen van argumentatie worden steeds beter uitgevoerd. Hierbij moeten we wel de kanttekening plaatsen dat dit waarschijnlijk eerder te wijten is aan het immense parametrische geheugen van de taalmodellen, dan aan een inherente logica of redeneervermogen. Tegelijkertijd stelden zich onmiddellijk drie grote uitdagingen voor het onderzoeksveld.
Ten eerste, het betrouwbaar meten van de accuraatheid van deze modellen. Grote taalmodellen worden immers getraind op alle data die te vinden is op het www, inclusief de evaluatiesets waarop systemen beoordeeld worden. Deze datacontaminatie zorgt voor waardeloze experimentele resultaten.
Ten tweede degradeert onderzoek in natuurlijk taalverwerking vandaag tot engineering, namelijk het trainen en fine-tunen van gigantische taalmodellen. Hiervoor is ontzettend veel rekenkracht nodig, en infrastructuur waar veel onderzoeksgroepen geen toegang tot hebben. Los van de dramatische ecologische voetafdruk, is het efficiënt trainen van deze modellen een strijd die niet gewonnen kan worden van de grote Amerikaanse technologiebedrijven, die over ongelimiteerde data en serverparken beschikken. Erger nog, dit soort onderzoek brengt weinig nieuwe wetenschappelijke inzichten. Daarom een warm pleidooi om weer meer te focussen op de moeilijke onderzoeksvragen en het waarom in plaats van het hoe.
Ten derde zijn deze modellen niet transparant en volledig afhankelijk van de beschikbare data waarop ze getraind worden. Dit zorgt voor bias of vooringenomenheid op verschillende niveaus. Zo werken deze modellen beter voor het Engels en andere ‘grotere’ talen die beter gerepresenteerd zijn op het www, terwijl ze ook tekst produceren die vooringenomenheid of haatspraak bevat, want het internet – waar de trainingsdata gecrawld worden – is allesbehalve een beschaafde en respectvolle plek.
Deze bias vormt ook een reëel gevaar voor het massaal inzetten van generatieve AI in de maatschappij: je wil immers niet dat een Aziatische man niet herkend wordt door de gezichtsherkenningssoftware in de luchthaven omdat het algoritme vooral getraind werd op witte westerse mensen.
Zelf geloof ik sterk in het enorme potentieel van deze technologie om ons te ondersteunen bij onze job, en ja, ook om van onze wereld een betere plek te maken. Denken we maar aan de vele medische toepassingen, zoals het sneller en accurater opsporen van tumoren, of de creatie van gepersonaliseerd leermateriaal, waardoor onderwijs inclusiever en efficiënter kan worden. Maar de grote uitdaging zal erin bestaan om de technologie transparant en fair te maken, en op een verantwoordelijke manier in te zetten. Met de Europese AI Act als leidraad, zullen wetenschappers, beleidsmakers en burgers samen moeten waken over een verantwoord en inclusief gebruik, dat overeenstemt met onze menselijke behoeften, waarden en welzijn. Hopelijk komt er dan ook wat schot in de wettelijke regulatie voor het gebruik van generatieve AI, denk aan aansprakelijkheid of auteursrecht, want vandaag vertoeven we op dat vlak toch nog een beetje in het Wilde Westen.