De maatschappelijke impact van artificiële intelligentie

Opiniestuk verschenen in De Morgen (20-04-2018)

Als wij maar geen mieren worden in de ogen van de robots

Eind 2017 werd het computerprogramma AlphaZero de kampioen in schaken, shogi en go, en dat door zelf te leren, binnen één dag, zonder brute rekenkracht en zonder menselijke input (behalve natuurlijk de spelregels). AlphaZero bedacht verrassend nieuwe, ‘buitenaardse’ spelstrategieën om te winnen. Dit is een historische zet in de race naar algemene artificiële superintelligentie: machines die een bovenmenselijk vermogen hebben om hun doelen te bereiken in een breed scala van situaties. Artificiële intelligentie of AI gaat ons de komende decennia voor de grootste uitdagingen plaatsen.

Om te beginnen is er een uitdaging voor de rechtsleer. De robot Sophia van Hanson Robotics kreeg vorig jaar als eerste robot een staatsburgerschap (in Saudi-Arabië). Nu buigt ook het Europees Parlement zich over de vraag of intelligente robots een rechtspersoonlijke status krijgen. Wie is er aansprakelijk als een zelflerende robot schade veroorzaakt? Wie betaalt dan de schadevergoeding? De softwareprogrammeur? De eigenaar? Of de robot zelf? Het is zoals met kinderen die zelf leren en daardoor minder voorspelbaar zijn.

Een tweede uitdaging, voor de defensiepolitiek: wat als die robots in kwade handen terecht komen? Onlangs waarschuwde de ondernemer Elon Musk nog voor killer robots. Denk aan een zwerm explosieve drones die zoals steekvliegen perfect op hun doelwit afgaan. Na de nucleaire, chemische en biologische wapens krijgen we nu de autonome wapens die zelf beslissingen nemen. Cruciaal is dan ook een sterkere mondiale samenwerking om een AI-wapenwedloop te vermijden en autonome wapens te verbieden.

Een derde uitdaging is er voor de psychologie. Hoe gaan we weten wanneer een robot een bewustzijn heeft ontwikkeld? Het is niet ondenkbaar dat robots ooit persoonlijke gevoelens kunnen ervaren. Stel dat we de hersenen van een mens zouden simuleren in een software, krijgt die computer dan een bewustzijn? Als een pijnervaring wordt gesimuleerd op een hardware die een miljoen keer sneller is dan onze hersenen, wordt er dan een miljoen keer meer pijn ervaren? Als dergelijke voelende simulaties of bewuste machines net zoals dieren geen persoonsstatus krijgen, dan zal het leed op aarde enorm toenemen, net zoals gebeurde met dieren in de veeteelt.

Ook onze economie staat voor een uitdaging: AI-machines zoals zelfrijdende vrachtwagens maken talrijke jobs overbodig. Hoe gaan we de massale werkloosheid opvangen? Hoe gaan we de inkomensongelijkheid beperken als de softwareontwikkelaars de productiecapaciteit van onze economie in handen krijgen? We gaan alvast ons belastingstelsel drastisch moeten herzien (een personenbelasting voor robots?) en nadenken over een universeel basisinkomen.

De grootste uitdaging is er voor de moraalfilosofen. Als opwarmer zijn er de zelfrijdende wagens: welke beslissingen moeten die wagens nemen als ze geconfronteerd worden met morele dilemma’s? Het kind doodrijden of snel uitwijken en zo de passagiers in gevaar brengen? Maar artificiële intelligentie stelt de moraalfilosofie met een fundamenteler probleem. Als we ooit superintelligente machines ontwikkelen, hoe zorgen we er dan voor dat hun doelen in overeenstemming zijn met onze waarden en dat ze correct rekening houden met onze belangen? Dat geprogrammeerd krijgen in een moreel algoritme is geen kleine uitdaging, zeker niet wanneer artificiële intelligentie zichzelf modificeert en de morele algoritmes die we voorlopig konden bedenken onverwachte en ongewenste neveneffecten hebben. Door AI hebben moraalfilosofen letterlijk een deadline: voordat we superintelligentie creëren, moeten we de moeilijkste vraagstukken in de moraalfilosofie hebben opgelost, want anders riskeren we een catastrofale ramp die zelfs ons voortbestaan bedreigt.

Superintelligente machines denken veel sneller en verwerken veel meer data dan wij. Daar kunnen wij niet tegenop. Ons menselijk verstand verhoudt zich tot een superintelligente robot zoals een chimpanseebrein zich verhoudt tot ons. Die artificiële superintelligentie is gewoon te slim voor ons. Kennis is macht. Wie slimmer is, heeft meer macht. Superintelligente robots zijn dus machtiger dan ons en zouden ons kunnen onderdrukken net zoals wij met onze hogere intelligentie andere dieren onderdrukken. Maar zelfs als die machines geen kwade bedoelingen hebben, moeten we beletten dat die machines ons aanzien zoals wij mieren aanzien. Als wij buiten willen spelen, letten we niet op de mieren in het gras. De eerste superintelligente computer kan ons dus maar beter goed gezind zijn, maar hoe zorgen we daarvoor? Hoe programmeren we de gewenste morele regels?

Veilige AI zal de belangrijkste technologie zijn om het welzijn op aarde te verhogen. De potentiële voordelen zijn niet te onderschatten. Maar ook de risico’s niet. Wat we nodig hebben, is een zogenaamde differentiële vooruitgang: de ontwikkeling op vlak van AI-veiligheid moet sneller gaan dan de vooruitgang op vlak van AI-vermogen. En meer algemeen: de vooruitgang op vlak van internationale samenwerking, institutionele besluitvorming en moreel denken moet sneller gaan dan die van de technologie.

 

Stijn Bruers is moraalfilosoof, auteur van Morele Illusies en medeoprichter van Effectief Altruïsme Vlaanderen

Advertenties
Dit bericht werd geplaatst in Artikels, Blog en getagged met , . Maak dit favoriet permalink.

Geef een reactie

Vul je gegevens in of klik op een icoon om in te loggen.

WordPress.com logo

Je reageert onder je WordPress.com account. Log uit /  Bijwerken )

Google photo

Je reageert onder je Google account. Log uit /  Bijwerken )

Twitter-afbeelding

Je reageert onder je Twitter account. Log uit /  Bijwerken )

Facebook foto

Je reageert onder je Facebook account. Log uit /  Bijwerken )

Verbinden met %s