Door Julia Duetz (Research master student Vrije Universiteit Amsterdam)

Angst voor AI is ongegrond. Tenminste, zolang we alle stappen van technologische ontwikkeling aan ethische reflectie onderwerpen. Hoe we dat moeten doen, bespreekt Kathleen Gabriels in haar boek Regels voor Robots – Ethiek in Tijden van AI.

De eerste overwinning van AI: 1997

Het begon allemaal toen schaakcomputer Deep Blue (IBM) wereldkampioen Garry Kasparov versloeg. Terwijl de grootmeester onverslaanbaar was, lukte het een computer toch om van hem te winnen. We begonnen ons langzaam maar zeker af te vragen of computers echt slimmer kunnen worden dan wij. Men dacht na over rampscenario’s waarin superintelligente robots de wereld overnemen, dit noemen we ook wel: the singularity. De angst daarvoor is vandaag de dag goed voelbaar en wordt vooral aangewakkerd door de media. Jammer, vindt Gabriels, want de singulariteit is slechts een onwaarschijnlijke hypothese, en er zijn veel meer interessante en relevante problemen waar we ons op kunnen richten. 

De overwinningen van AI: heden

Inmiddels zit AI-onderzoek in een stroomversnelling door de komst van ‘Big Data’ en heeft AlphaGO (DeepMind) s ’werelds beste GO-speler Lee Sedol verslagen. Een prestatie die voor ingenieurs veel bijzonderder is dan de prestatie van Deep Blue door de complexiteit van het spel. Waar Deep Blue alle mogelijke zetten kon nagaan om te winnen (400 opties voor de eerste zet), kon AlphaGO dat niet (129960 opties voor de eerste zet). 

Wat als een zelfrijdende auto een ongeluk veroorzaakt? Wie is er aansprakelijk?

De razendsnelle vooruitgangen die worden geboekt in AI-onderzoek zijn niet langer gericht op spelletjes. De ontwikkeling van “autonome robot technologie” houdt zich bijvoorbeeld bezig met zelfrijdende auto’s. We zien zulke wagens al lange tijd in sciencefiction films, maar volgens Gabriels wordt nog te weinig aandacht besteed aan de ethische kant ervan. Wat als een zelfrijdende auto een ongeluk veroorzaakt? Wie is er aansprakelijk? En, wat als een auto zulke keuzes ook bewust kan maken? 

Een bekend gedachte-experiment uit de filosofie is het ‘Trolley-dilemma’ van Philippa Foot. Je moet je voorstellen dat je op een perron naast een grote hendel staat. Je ziet dat er een trein komt aangereden en dat op het spoor 5 mensen liggen vastgeketend. Als je de hendel omgooit, kan je de 5 mensen redden, maar wordt 1 mens dat toevallig het spoor overloopt aangereden. Bijna iedereen (90%) zou de hendel omgooien. Maar wat nou als de ene persoon een vriend van jou is? Of wat als de 5 mensen beruchte criminelen zijn? Zou je dan anders kiezen? Misschien wel. 

Morele keuzes zijn menselijk

Deze twijfel vormt een groot probleem voor de ontwikkeling van zelfrijdende auto’s. Wat als je in de auto in een ‘trolley-dilemma’ belandt? Je moet uitwijken in het verkeer en hebt de keuze om ofwel tegen een schoolbus met kinderen aan te rijden, of tegen een boom te botsen waarbij jijzelf overlijdt. In een zelfrijdende auto geef je deze keuze uit handen: de auto zal beslissen. Maar welke keuze zou jij maken? 

Onderzoek toont aan dat deze keuze sterk contextafhankelijk is. Als je 3 jonge kinderen op de achterbank hebt, zal je wellicht eerder het risico nemen om de bus aan te rijden. Een algoritme kent deze vorm van moreel redeneren niet. Wat belangrijk is voor een mens, is dat niet voor een computer. 

We moeten ons er bewust van zijn dat mensen fouten maken bij het ontwerpen van AI-systemen en daarom meteen bij het ontwerpproces al morele vraagtekens zetten.

Zelfs als we alle morele overwegingen (schoolbus, kleine kinderen, etc.) konden programmeren, is de keuze nog steeds voor ieder mens verschillend door de contextafhankelijkheid van zulke keuzes. En, er is geen enkele keuze die in iedere situatie altijd ‘de beste’ is. 

Wie is aansprakelijk?

Een ander moreel aspect van AI-technologie is de verantwoordelijkheid als het fout gaat. Als een zelfrijdende auto iemand aanrijdt, wie draait er dan op voor de schade? Wie is verantwoordelijk voor systeemfouten? En valt dat überhaupt wel terug te herleiden? Gabriels waarschuwt dat dit lang zo makkelijk nog niet is; technologie is een collectieve onderneming waarbinnen niet vaak een directe schuldige valt aan te wijzen. 

We moeten ons er bewust van zijn dat mensen fouten maken bij het ontwerpen van AI-systemen en daarom meteen bij het ontwerpproces al (morele) vraagtekens zetten. Dit proces moet volgens Gabriels zo transparant en inzichtelijk mogelijk zijn zodat later fouten nog kunnen worden achterhaald.

Big “Data”

Ten slotte beargumenteert Gabriels hoe de technologische ontwikkelingen van de afgelopen twintig jaar een nieuw “product” hebben gemaakt. Zoals eerder al gezegd is de ontwikkeling pas echt losgekomen toen we leerden werken met Big Data. 

Als AI’s met vooringenomen data worden getraind, dan moeten we ons er bewust van zijn dat de resultaten niet veel beter zijn: want, garbage in – garbage out

Tegenwoordig trainen AI’s op data en worden ze erop toegepast om bijvoorbeeld marketing profielen op te kunnen stellen om zo de winst van een bedrijf te vergroten. De vraag hoe bedrijven ethisch verantwoord met deze data om moeten gaan is alleen nog onvoldoende gesteld/beantwoord. 

Ten eerste is het problematisch als de automatisering wordt blootgesteld aan databronnen die door mensen zijn verzameld. Dat mensen fouten maken bleek wel toen, in 2017, een Nigeriaanse man geen gebruik kon maken van de handzeep omdat de sensor in het apparaatje zijn huidskleur niet herkende. 

De ontwerpers leden aan de white guy bias: de data die ze gebruikten om het apparaat te testen was niet veelzijdig genoeg en sloot daarom mensen uit. Als AI’s met vooringenomen data worden getraind, dan moeten we ons er bewust van zijn dat de resultaten niet veel beter zijn: want, garbage in-garbage out

Ten tweede moet er voorzichtig met de data worden omgegaan omdat misbruik ervan nare gevolgen kan hebben. Zo kan een bedrijf door middel van behavioral microtargeting jouw (koop-)gedrag beïnvloeden, een robothond die een plattegrond van jouw huis kan een handig hulpmiddel zijn voor inbrekers, en de data die wordt verzameld door een activity tracker kan nuttig zijn voor verzekeraars. Deze vormen van misbruik druisen rechtstreeks in tegen onze behoefte voor autonomie. Dus, zegt Gabriels, moet de overheid ook stappen zetten om burgers te beschermen in de huidige informatiemaatschappij. 

Deze en nog vele andere voorbeelden en discussies komen aan het licht in “Regels voor Robots”. Gabriels heeft een interessant en dynamisch boek geschreven waarin zij inzichten van de ethiek en filosofie combineert met haar kennis over technologie. Ondanks het feit dat structuur van een systematische argumentatie soms mist, leest het boek als een goed geschreven uiteenzetting van de problemen die we tegenkomen in de moderne technologische wereld. 

Socratesbeker

Regels voor Robots is genomineerd voor de Socratesbeker, de prijs voor het beste Nederlandstalige filosofieboek van 2019. Alle twintig genomineerde boeken vind je hier.


Meer:

Geef een reactie

Het e-mailadres wordt niet gepubliceerd. Vereiste velden zijn gemarkeerd met *