AI in de journalistiek: tussen verlengstuk en efficiëntiedwangbuis

Als journalistiek researcher wordt mijn werk – net zoals dat van journalisten – steeds meer ondersteund door AI-technologieën om materiaal te vinden, data te analyseren, en patronen te herkennen die eerder moeilijk identificeerbaar waren. Literatuurzoektools zoals Elicit en Consensus helpen bijvoorbeeld om dat ene paper te vinden dat je rond jouw thema net niet scherp had, of net niet had kunnen vinden via grondig onderzoek of via een database zoals Google Scholar. En snel dat het gaat! Binnen vijftien minuten was de leeslijst van mijn pas gestarte promotietraject weer enkele papers langer – al kan dit natuurlijk ook liggen aan de overvloed aan academische literatuur over het onderwerp AI en journalistiek.

In de onderzoeksjournalistiek biedt AI-technologie journalisten de mogelijkheid om grote datasets te analyseren. Zo identificeerden journalisten van Pointer – na eerst de ‘wereldkampioen’ Tinderen aan boord te krijgen – via beeldanalyse nepprofielen op de datingapp en openbaarden journalisten en datawetenschappers van de NOS meerdere keren misstanden op de berichtenapplicatie Telegram. Deze AI-gedreven methodes zijn niet nieuw voor wetenschappers, ook niet in de hoek van Journalism-Studies. Door de toenemende rekenkracht van LLM’s gaan we wel een nieuw pad in, waarbij nog meer kritische checks op de data nodig zullen zijn. AI-wetenschapper Nick Diakopoulos liet in een recente blogpost zien hoe de tool LLooM van Stanford University ingezet kan worden voor thematische analyse. Het is verbluffend hoe de tool – als menselijk verlengstuk – 872 scenario’s transparant en robuust analyseerde.

Die transparantie én reflectie over werkzaamheden met AI zijn essentieel. Want het gevaar is dat we – mede door de PR van nieuwe wetenschappelijke AI-tools – in een efficiëntiedwangbuis terechtkomen. De ene tool doet jouw werk ‘in seconden’; de ander maakt een ‘supermenselijk snelle’ wetenschapper van je. Maar moeten we dat willen en meegaan in die marketing-speak?

LLM’s zijn – zo weten we inmiddels door schade en schande – inherent feilbaar en ‘wispelturig’. Ze ‘praten’ op dit moment zonder bewustzijn en draaien vaak op oude data. Hiermee zijn de meest geavanceerde AI-systemen van tegenwoordig gebouwd als immense spiegels van menselijke intelligentie, stelt filosoof Shannon Vallor in haar boek ‘The AI Mirror’. De AI-spiegel toont ons een reflectie van onze eigen intelligentie die versterkt wordt door AI-tools, maar we moeten oppassen dat we ons niet blindstaren op deze reflectie en onze eigen menselijke capaciteiten onderwaarderen. We maken als menselijke onderzoekers fouten, maar ons abstractievermogen is nu nog superieur aan dat van beschikbare AI-tools. Ondanks de kansen moeten we – zeker als wetenschappers – vanuit een blik in de (AI-)spiegel constant een afweging maken of de inzet van AI wel terecht is, en welke mogelijke afhankelijkheid we kweken als we toch even die wetenschappelijke tekst laten tegenlezen door ChatGPT of een tool als Jenny.AI, in plaats van een kritische collega. Menselijke collega’s (met ‘meat-brains’ zoals een collega laatst stelde) blijven zich constant ontwikkelen, in tegenstelling tot de groei van AI-modellen die naar verwachting van onderzoekers juist gaat vertragen de komende jaren.

 

Deel via: