Waarom artificiële intelligentie alles op het spel zet

Zijn we blind voor misschien wel het grootste probleem dat op ons afkomt? Een existentieel risico, een globale catastrofale ramp waarbij iedereen sterft? We hebben al wel verhalen gehoord van enkele existentiële bedreigingen: een komeetinslag die de aarde vernietigt, een pandemisch virus dat iedereen doodt, een supervulkaan die uitbarst, een op hol geslagen klimaatopwarming of een nucleaire winter door een wereldwijde kernwapenoorlog. Bij een existentieel risico staan letterlijk alle toekomstige generaties op het spel, meer dan we ons kunnen voorstellen: ofwel worden er in de toekomst nog triljarden nieuwe levens geboren, ofwel stopt het simpelweg.

De meeste existentiële risico’s zouden we kunnen vermijden als we slim genoeg zijn. Dan kunnen we asteroïden opsporen en uit koers duwen, vaccins tegen pandemische ziektes uitvinden, klimaatvriendelijke technologieën inzetten en wereldvrede realiseren zodat er geen kernoorlog komt. De meeste existentiële risico’s krijgen veel aandacht dankzij bijvoorbeeld de milieu- en vredesbeweging. Maar er is één bijzonder venijnig existentieel risico waar we per definitie niet slim genoeg voor zijn. En laat dat nu net een bedreiging zijn dat sterk verwaarloosd wordt en waar bijna niemand van wakker ligt: artificiële superintelligentie.

Daarom dat Elon Musk, de CEO van Space-X en Tesla, vorige week opriep om de ontwikkelingen op vlak van artificiële intelligentie beter te reguleren. Ook vanuit het Effectief Altruïsme – de sterk groeiende mondiale beweging die de belangrijkste maatregelen onderzoekt om de wereld te verbeteren – klinkt die roep steeds luider. Wat is het probleem precies?

Momenteel hebben we al krachtige computers die bovenmenselijke capaciteiten hebben, die bijvoorbeeld beter kunnen schaken, poker spelen, medische diagnoses stellen of gezichten herkennen dan mensen. Met recente technieken zoals deep learning worden zelflerende computerprogramma’s ontwikkeld. Het gaat om software die zichzelf schrijft en zichzelf autonoom update.

Aangezien computers en robots alsmaar slimmer worden, is het niet onredelijk om aan te nemen dat ze ooit slimmer worden dan de slimste mensen. Superintelligentie kan best wel mogelijk zijn. Hoewel die superintellegente computers niet noodzakelijk een eigen bewustzijn hebben, denken ze wel veel sneller en verwerken ze veel meer data dan wij. Daar kunnen wij niet tegenop. Ons menselijk verstand verhoudt zich tot een superintelligente robot zoals een chimpanseebrein zich verhoudt tot ons. Die artificiële superintelligentie is gewoon te slim voor ons.

Wanneer die eerste artificiële superintelligentie het licht zal zien weten we niet, maar de meeste experts verwachten nog wel ergens deze eeuw. Van zodra computers qua algemene intelligentie in de buurt van die van de mensen komen, zullen ze al snel de intelligentie van de mensen voorbijsteken. Misschien wel sneller dan dat we het doorhebben.

We mogen niet de gigantische potentiële voordelen onderschatten van goede artificiële intelligentie. Maar het houdt ook een bedreiging in. Kennis is macht. Wie slimmer is, heeft meer macht. Superintelligente robots zijn dus machtiger dan ons en zouden ons kunnen onderdrukken net zoals wij met onze hogere intelligentie andere dieren onderdrukken. Die eerste superintelligente computer kan ons dus maar beter goed gezind zijn. Maar artificiële superintelligentie is heel onvoorspelbaar, want door het zelflerende vermogen kan het zichzelf modificeren en versterken.

Superintelligente machines hebben een geprogrammeerde doelfunctie die ze nastreven. Al de rest moet wijken voor dat doel. Het is dus van cruciaal belang dat dat doel in overeenstemming is met onze waarden en dat die machines correct rekening houden met onze belangen. En dat geprogrammeerd krijgen in een moreel algoritme is geen kleine uitdaging, zeker niet wanneer artificiële intelligentie zichzelf modificeert. We moeten beletten dat die machines ons aanzien zoals wij mieren aanzien. Als wij buiten willen spelen, gaan wij voor ons doel en letten we niet op de mieren in het gras.

We kunnen misschien wel proberen om op tijd nog slimmere en meer ethische superrobots te ontwikkelen om de slechte robots te bestrijden. Maar eigenlijk hebben we maar één kans: als de eerste superintelligente machine bedoelingen heeft die botsen met onze belangen, zijn we te laat. Daarom begonnen organisaties zoals het Machine Intelligence Research Institute en het Future of Humanity Institute met onderzoek naar de veiligheid van artificiële intelligentie. De job van computerprogrammeur had nog nooit zo’n belangrijke morele relevantie. Een kernwapenwedloop was maar een klein probleem in vergelijking met een wedloop naar almaar intelligentere machines.

Advertenties
Dit bericht werd geplaatst in Artikels, Blog en getagged met , , . Maak dit favoriet permalink.

5 reacties op Waarom artificiële intelligentie alles op het spel zet

  1. Florian zegt:

    Dag Stijn,

    Ik ben al een beetje thuis in deze materie en de stap in de redenering waar ik het altijd moeilijk mee heb, is de volgende: “Aangezien computers en robots alsmaar slimmer worden, is het niet onredelijk om aan te nemen dat ze ooit slimmer worden dan de slimste mensen.” Het argument ‘de technologische vooruitgang gaat steeds sneller’ pakt bij mij niet zo. Hier is een artikel dat daar goede tegenargumenten voor aanhaalt: decorrespondent.nl/5085/kunstmatige-intelligentie-is-een-beetje-dom-en-zal-dat-nog-wel-even-blijven/1342722919230-84daae73. Samengevat: we slagen erin computers slim te maken in één categorie, maar om ze slim tout court te maken, daar staan we nog nergens. Wat zijn jouw gedachten daarover?

    • stijnbruers zegt:

      Volgens de meeste experts is de kans dat algemene artificiële intelligentie nog binnen de 50 jaar ontstaat groter dan 50%. Belangrijk genoeg om nu al ons erop voor te bereiden, nu we nog wat tijd hebben om enkele cruciale problemen op te lossen, zodat we een existentieel risico door artificiële intelligentie kunnen vermijden. En er is het risico dat de ontwikkeling sneller gaat dan verwacht. Cfr. de voorspelling wanneer de eerste computer een professional kan verslaan met het spel go: de voorspelling was 12 jaar, de praktijk was 2 jaar. https://www.technologyreview.com/s/607970/experts-predict-when-artificial-intelligence-will-exceed-human-performance/

      • Florian zegt:

        De toekomst voorspellen is niet evident. Daarom wil ik me kritisch opstellen tegenover het onderzoek dat je aanhaalt.

        Ik vraag me dus af waar die experts hun inschatting op baseren. Weet je daar ook een bron over (iets meer kwalitatiefs, tegenover de kwantitatieve analyse)? Bijvoorbeeld: is er al vooruitgang geboekt in AGI? Ik heb alleen nog maar voorbeelden gezien van intelligentie op specifieke gebieden. Misschien blijft het wel bij losse schaakcomputers, Siri’s en dergelijke. Wat wijst erop dat we dicht bij algemene kunstmatige intelligentie zijn? Waarom lijkt iedereen te denken dat algemene AI relatief vlot zal voortvloeien uit specifieke AI? Bij toekomstvoorspellingen is het typisch om een fantastische versie van het bestaande te bedenken. Vijftig jaar geleden dachten we ook dat we rond deze tijd al lang in vliegende auto’s zouden rijden.

        Zou er bij die bevraging ook een optie ‘ik weet het niet’ geweest zijn? Het zou toch kunnen dat sommigen vonden dat er niet genoeg informatie is om zo’n inschatting te maken. En zonder informatie wordt het meer buikgevoel dan wetenschap.

      • stijnbruers zegt:

        Je kritiek is me niet helemaal duidelijk. Zou je beweren dat jouw inschatting/toekomstvoorspelling beter is dan die van meer dan 50% van die bevraagde experts? Die experts baseren zich op buikgevoel plus inzichten in recente ontwikkelingen.
        Ik heb geen weet dat meer dan 50% van de experts 50 jaar geleden zeiden dat de kans op vliegende auto’s in 2017 groter is dan 50%. Al bij al heb ik geen weet van een systematische bias (overschatting of onderschatting) bij bevragingen door experts. Heb jij weet van studies rond bevragingen van experts in het verleden, dat ze bv systematisch een te hoge kans geven op de ontwikkeling van nieuwe technologieën? Bv. als ze 50 jaar geleden 100 voorspellingen deden en ze telkens met een meerderheid zeiden dat de kans meer dan 50% is dat die voorspellingen nu uitkomen terwijl er in werkelijkheid minder dan 50 voorspellingen uitkwamen.
        Zelfs als het een overschatting is en in werkelijkheid algemene AI pas over 100 jaar in plaats van 50 jaar zal verschijnen, dan nog blijft het onderzoek naar de veiligheid van AI belangrijk, want vroeg of laat moeten we al die veiligheidsproblemen opgelost krijgen. Waarom er dan niet nu al aan beginnen. Tenzij je gelooft dat algemene AI nooit of pas in de heel verre toekomst zal ontstaan, maar er is bijna geen expert die dat gelooft.

      • Florian zegt:

        Als bijna iedereen gelooft dat algemene AI te bereiken is in de niet extreem verre toekomst, dan moet dat toch op een of andere manier uit te leggen zijn? Dan moet dat geloof toch op duidelijke vaststellingen gestoeld zijn? Het voelt voor mij een beetje aan als een ‘black box’. Hoe komen die experts allemaal tot dezelfde conclusie? Dat vind ik niet terug.

        Kortom, horen dat experts er zo over denken, maar niet (kunnen) horen waarom, dat is voor mij niet overtuigend genoeg. Ik ben er wel mee akkoord dat alles op het spel staat als algemene AI er zou komen en we er niet op voorbereid zouden zijn.

Geef een reactie

Vul je gegevens in of klik op een icoon om in te loggen.

WordPress.com logo

Je reageert onder je WordPress.com account. Log uit / Bijwerken )

Twitter-afbeelding

Je reageert onder je Twitter account. Log uit / Bijwerken )

Facebook foto

Je reageert onder je Facebook account. Log uit / Bijwerken )

Google+ photo

Je reageert onder je Google+ account. Log uit / Bijwerken )

Verbinden met %s