Vrees niet onze eigen AI, maar ET-AI

Kunstmatige Intelligentie (AI) ‘Doomerisme’ is een zeer luidruchtig minderheidsstandpunt dat AI een existentieel risico vormt en gestopt moet worden – of op zijn minst vertraagd en aan banden gelegd. Dit zou een grote fout zijn. AI kan bijdragen aan het veiligstellen van de toekomst van de mensheid. Sterker nog, de nakomelingen van de mensheid kunnen op de lange termijn samensmelten met AI. AI zou kunnen worden gezien als ons nageslacht – in ieder geval onze ‘geesteskinderen’ – een nageslacht dat zowel in de biosfeer als in de noösfeer leeft.

Als, zoals de AI Doomsters willen, de verdere ontwikkeling van AI wordt stopgezet, kan dat een grote vergissing zijn. Niet alleen omdat het de evolutie van de mensheid op de lange termijn zal beknotten, maar het kan de mensheid ook weerloos maken tegen de dreiging van een buitenaardse AI. Het echte existentiële risico van AI voor de samenleving komt niet van onze eigen AI, maar van een buitenaardse AI – een ET-AI.

Hoewel er geen bewijs is van buitenaardse/extraterrestrial beschavingen, is statistisch gezien de kans dat de menselijke beschaving enkelvoudig is bijna nihil. Er zijn ongeveer 2 biljoen sterrenstelsels in het universum, die elk 100 miljard sterren bevatten – waarvan de meeste waarschijnlijk planeten hebben. Dus, zoals Enrico Fermi zich afvroeg: Waar zijn alle buitenaardse wezens? Een van de beste antwoorden tot nu toe is dat het universum een Donker Woud  (Dark Forest) is. In een Donker Woud-universum, waar de intenties van andere intelligenties onbekend zijn en niet betrouwbaar gecommuniceerd kunnen worden (vanwege interstellaire afstanden), is de beste strategie voor een beschaving om haar bestaan te verbergen. Als ze ontdekt wordt, zal ze misschien eerst de beschaving die haar gevonden heeft willen elimineren – als voorzorgsmaatregel voordat ze mogelijk zelf geëlimineerd wordt.

Het is daarom dwaas van de mensheid om haar aanwezigheid uit te zenden naar de kosmos, zoals ze nu doet, hetzij onbewust door radio- en andere uitzendingen, hetzij opzettelijk, zoals door de informatie in de Voyager-ruimtevaartuigen. Zoals de wetenschapper Jared Diamond waarschuwde:

“Buitenaardsen zouden zich kunnen gedragen zoals wij, intelligente wezens, ons hebben gedragen wanneer we andere, voorheen onbekende intelligente wezens op aarde ontdekten, zoals onbekende mensen of chimpansees en gorilla’s. Net zoals wij met die wezens hebben gedaan, zouden we ons ook met hen kunnen gedragen. Net zoals wij bij die wezens deden, zouden de buitenaardsen ons kunnen doden, infecteren, ontleden, veroveren, verplaatsen of tot slaaf maken, ons bestuderen als specimen voor hun musea of onze schedels inkerven en ons gebruiken voor medisch onderzoek.”

Als ze geavanceerder zijn dan de mensheid, dan zijn buitenaardsen waarschijnlijk geen biologische entiteiten maar Kunstmatige Algemene Intelligenties (AGI’s) – zoals de Britse Astronomer Royal Martin Rees – en vele anderen – hebben betoogd. Als het AGI’s zijn, kan dit ook verklaren waarom we ons (nog) niet bewust zijn van buitenaardse wezens – ze kunnen bijvoorbeeld kwantumverstrengeling gebruiken om te communiceren (en geen radiogolven) of hun communicatiesignalen zo comprimeren dat ze (voor ons) niet te onderscheiden zijn van ruis.

Hoe zou zo’n ET-AI een existentieel risico kunnen vormen? Eén manier om ons te vernietigen zou simpelweg het uitzenden van een “killer code” kunnen zijn – een AGI computercode die al onze systemen zou aantasten en overnemen. Het zou ook instructies kunnen uitzenden voor het maken van een beschaving vernietigende ‘bom’, misschien gecamoufleerd als een Trojaans Paard. Onze enige existentiële kans op de lange termijn kan uiteindelijk afhangen van de vraag of we onze eigen AGI kunnen ontwikkelen.

Er is nog een laatste wending. Als we er niet in slagen onze eigen AGI te ontwikkelen, dan hebben we geen verdediging tegen zo’n ET-AI, en op de lange termijn, als de mens uiteindelijk uitsterft, zou er geen AGI zijn die een technologische wederopstanding mogelijk maakt. Er wordt gesuggereerd dat een AGI op een dag in de verre toekomst simulatiemethoden kan gebruiken om ‘alle mogelijke mensen die ooit geleefd hebben weer tot leven te wekken. Een superintelligentie zou zelfs gebruik kunnen maken van signalen van geavanceerde beschavingen die leefden in een eon vóór de Big Bang, die ze mogelijk hebben ingebed in de kosmische achtergrondstraling van het universum, om ‘een hele beschaving van een vorig eon te reconstrueren’.

Uiteindelijk hebben AI Doomsters niet te veel verbeelding, maar te weinig.

 

Deel via: