Ethiek in het tijdperk van kunstmatige intelligentie



Digitale informatietechnologie heeft informatie voor vrijwel iedereen toegankelijk gemaakt, altijd en overal. Dit heeft een diepgaand effect gehad op het vormgeven van alle aspecten van onze samenleving, van industriële productie tot distributie, tot het consumeren van goederen en diensten. Het is onvermijdelijk dat, net als in voorgaande technologische revoluties, de impact van digitale informatietechnologie zo doordringend is dat we het niet langer gewoon adopteren – doen wat we eerder hebben gedaan – maar ons aanpassen door ons gedrag te veranderen.

Tegenwoordig heeft digitale informatietechnologie opnieuw gedefinieerd hoe mensen sociaal met elkaar omgaan, en zelfs hoe sommigen hun partners vinden. Opnieuw gedefinieerde relaties tussen consumenten, producenten en leveranciers, industriëlen en arbeiders, dienstverleners en klanten, vrienden en partners creëren nu al een omwenteling in de maatschappij die de postindustriële weergave van morele overwegingen verandert.

We staan ​​aan de vooravond van de volgende golf van de technologische revolutie: AI, of kunstmatige intelligentie. De digitale revolutie van de late 20e eeuw bracht ons informatie binnen handbereik, waardoor we snel beslissingen konden nemen, terwijl het agentschap om beslissingen te nemen fundamenteel met ons rustte. AI verandert dat door het besluitvormingsproces te automatiseren, betere kwalitatieve resultaten te beloven en de efficiëntie te verbeteren. Successen door AI-gamesystemen bij het verslaan van wereldkampioen schaken Gary Kasparov en wereldkampioen Ke Jie onderstrepen het kwalitatieve aspect van AI dat superieur bleek te zijn dan menselijke experts bij het berekenen van de impact van de huidige beslissingen op mogelijke toekomstige zetten.

Helaas heeft AI in dat besluitvormingsproces de transparantie, de uitlegbaarheid, de voorspelbaarheid, de leerbaarheid en de controleerbaarheid van de menselijke zet weggenomen en vervangen door ondoorzichtigheid. De logica voor de zet is niet alleen onbekend voor de spelers, maar ook onbekend voor de makers van het programma. Aangezien AI beslissingen voor ons neemt, kunnen transparantie en voorspelbaarheid van besluitvorming een zaak van het verleden worden.

Stel je een situatie voor waarin je kind thuiskomt en vraagt ​​om een ​​toelage om samen met haar vrienden naar een film te gaan. U verplicht. Een week later komt je andere kind naar je toe met hetzelfde verzoek, maar dit keer weiger je. Dit zal onmiddellijk de kwestie van oneerlijkheid en vriendjespolitiek aan de orde stellen. Om elke beschuldiging van vriendjespolitiek te voorkomen, leg je aan je kind uit dat ze haar huiswerk moet afmaken voordat ze zich kwalificeert voor enig zakgeld.

Zonder enige uitleg is er ongetwijfeld spanning in de familie. Stel je nu voor je rol te vervangen door een AI-systeem dat gegevens heeft verzameld van duizenden gezinnen in vergelijkbare situaties. Door de consequenties van toelatingsbesluiten voor andere gezinnen te bestuderen, komt het tot de conclusie dat één broer of zus het zakgeld zou moeten krijgen terwijl de andere broer of zus dat niet zou moeten doen.

Maar het AI-systeem kan de redenering niet echt verklaren, behalve dat het de kleur, lengte, het gewicht en alle andere attributen van het kind wenste waarover het kan beschikken om tot een beslissing te komen die het beste werkt voor andere gezinnen. Hoe gaat dat werken?

In de rechtbank binden eerdere beslissingen de rechters om een ​​precedent te volgen, zelfs als de situaties niet identiek zijn maar ongeveer hetzelfde. Consistentie is belangrijk bij justitie, overheid, relaties en ethiek. AI heeft geen wettelijke vereiste van staar decisis. AI-beslissingen kunnen echt zijn kunstmatig voor mensen hebben mensen de neiging om beperkte sets van directe of indirecte ervaringen te hebben terwijl machines toegang kunnen hebben tot enorme troves van data.

Mensen kunnen hun ervaringen niet op een langere termijn doornemen, terwijl machines dat eenvoudig kunnen doen. Mensen zullen factoren uitsluiten die als irrelevant worden beschouwd en niet consequenties hebben voor een beslissing, terwijl een machine niets uitsluit. Dit kan resulteren in beslissingen die het precedent niet respecteren op een schaal die voor mensen begrijpelijk is. Terwijl bedrijven en samenlevingen snel naar AI gaan, wat mei in feite betere beslissingen nemen met een veel langere tijdshorizon dan mensen, zullen mensen met hun kortere afstand context verbijsterd en gefrustreerd zijn, en de enige valuta uithollen voor een goed functionerende samenleving, namelijk vertrouwen.

Om te begrijpen, hoe kunstmatig de op kunstmatige intelligentie gebaseerde beslissingen kunnen zijn, het is belangrijk om te onderzoeken hoe mensen beslissingen nemen. Menselijke beslissingen kunnen worden geleid door een reeks expliciete regels of door verenigingen die eenvoudigweg gebaseerd zijn op consequentialisme of een combinatie. Mensen zijn ook selectief over welke informatie relevant is voor het nemen van een beslissing. Bij gebrek aan selectiviteit kunnen machines factoren in overweging nemen die mensen impertinent achten bij het nemen van een beslissing.

Er zijn ontelbare voorbeelden hiervan, van Microsoft haar chatbot Tay nadat het begon met het uiten van brandende antisemitische retoriek op Twitter, aan een Universiteit van Boston die genderassociaties vond tussen woorden als 'baas', 'architect' en 'financier' met mannen, en woorden als "verpleegster" en "receptioniste" met vrouwen. Dit kan worden bevestigd door gegevens, maar het staat in contrast met onze expliciete waarden. Als gegevensgestuurde processen afhankelijk zijn van de output die door deze AI-algoritmen wordt gegenereerd, zullen ze vooringenomen beslissingen opleveren, vaak tegen onze ethische waarden.

ProPublica leverde dit bewijs in 2016. Een computerprogramma dat door Amerikaanse rechtbanken werd gebruikt, markeerde ten onrechte zwarte beklaagden die gedurende een periode van twee jaar niet recidiveerden en waarschijnlijk recidivisten werden met een bijna tweemaal zo hoog percentage als witte beklaagden – 45 procent in vergelijking met 23 procent. Als een mens hetzelfde deed, zou het als racistisch worden veroordeeld. AI legt het schisma bloot tussen onze expliciete waarden en collectieve ervaringen. Onze collectieve ervaringen zijn niet statisch. Ze worden gevormd door belangrijke maatschappelijke beslissingen, die op hun beurt worden geleid door onze ethische waarden. Willen we echt het besluitvormingsproces overlaten aan machines die alleen van het verleden leren en daarom eraan moeten voldoen, in plaats van de toekomst vorm te geven?

Gezien de schaal van AI-toepassingen op gebieden zoals medische diagnose, financiële diensten en werkgelegenheidsonderzoek, zijn de gevolgen van een enkele blip enorm. Aangezien algoritmen afhankelijk zijn van steeds meer functies voor het verbeteren van de voorspelbaarheid, wordt de logica die dergelijke beslissingen beheerst steeds ondoorgrondelijker. Daarom verliezen we het holistische aspect van de besluitvorming en gooien we alle principes uit ten gunste van eerdere observaties. In sommige gevallen kan dit onethisch zijn, in sommige, illegale en in sommige gevallen bijziend. Het algoritme voor recidive sloeg op flagrante wijze principes als vermoeden van onschuld en gelijke kansen mis.

Consistentie is onmisbaar voor ethiek en integriteit. Onze beslissingen moeten voldoen aan een norm die hoger is dan de statistische nauwkeurigheid; al eeuwenlang zijn de gedeelde deugden van wederzijds vertrouwen, schadebeperking, billijkheid en rechtvaardigheid essentiële hoekstenen gebleken voor het overleven van ieder systeem van redeneren. Zonder interne logische consistentie missen AI-systemen robuustheid en verantwoordelijkheid – twee kritische maatregelen om vertrouwen in een samenleving te wekken. Door een breuk te creëren tussen moreel sentiment en logisch redeneren, sluit de ondoorgrondelijkheid van gegevensgestuurde beslissingen het vermogen uit om kritisch te worden betrokken bij besluitvormingsprocessen.

Dit is de nieuwe wereld waarin we leven, waar complexe beslissingen worden teruggebracht tot reflexieve keuzes en versterkt door waargenomen resultaten; waar complexiteit wordt gereduceerd tot eenvoud en moraliteit wordt gereduceerd tot bruikbaarheid. Tegenwoordig biedt ons ethisch besef een kader voor het nemen van beslissingen. Het zal niet lang meer duren voordat onze beslissingen onze ethiek in twijfel trekken.