Vooroordelen elimineren voor eerlijke algoritmen

Data-driven tools worden steeds belangrijker bij het maken van onder meer zakelijke en maatschappelijke beslissingen. Het gebruik van data en algoritmen voor het maken van beslissingen belooft een efficiënte en effectieve methode te zijn, maar in de realiteit is het de vraag of deze tools daadwerkelijk deze beloften kunnen nakomen. Om tot eerlijke beslissingen te komen is het belangrijk dat de algoritmen onbevooroordeeld en nauwkeurig zijn. Men verwacht dat beslissingen gebaseerd op algoritmen beter zijn vanwege het feit dat ze gebaseerd zijn op data in plaats van menselijk instinct, en dat verbeterde nauwkeurigheid leidt tot minder vooroordelen. Helaas blijkt dat algoritmen niet (altijd) betere voorspellingen doen en minder bevooroordeeld zijn dan de mens.

We moeten af van ons vertrouwen dat data de absolute waarheid is, en erkennen dat, tenzij we ons zeer bewust inzetten om vooroordelen in onze algoritmen te voorkomen, op te sporen en te elimineren, ze vrijwel onvermijdelijk toch zullen voorkomen. Het concept kunstmatige intelligentie gaat tenslotte over het belichamen van traditionele menselijke karakteristieken door een machine.

Toch is het zeker niet raadzaam om dit soort tools aan de kant te schuiven, omdat ze wel degelijk de potentie hebben om praktijken die leiden tot eenzijdige datasets en oneerlijke omgang met bijvoorbeeld leden van bepaalde raciale, religieuze of socio-economische groepen succesvol te vervangen. Wat we wel kunnen doen is stappen nemen om de algoritmen te verbeteren en vooroordelen te elimineren.

Creëer een eerlijkheid cultuur en biedt ethische training

Voor het verhogen van het niveau van eerlijkheid in algoritmen is een team dat toegewijd is aan het verminderen van vooroordelen de eerste stap. Als het team gemotiveerd is om een eerlijk algoritme te ontwikkelen, zullen zij daadwerkelijk prioriteit geven aan praktijken die hieraan bijdragen.

Nou bestaan teams van technici traditioneel uit blanke mannen. Deze mensen zullen niet opzettelijk hun tools inprenten met vooroordelen. Hoe dan ook is dit niet de meest handige combinatie van mensen voor het voorkomen van oneerlijkheid. Uit onderzoek blijkt namelijk dat diverse teams effectiever problemen oplossen dat homogene teams. Het bouwen van een eerlijkheid cultuur en het verminderen van vooroordelen in algoritmen begint dan ook met het aannemen van een diverse groep techneuten. Een diverse groep zal eerder oneerlijkheden in training data opmerken en hun verantwoordelijkheid nemen voor het omgaan met culturele verschillen. Teams van verschillende achtergronden zullen op natuurlijke wijze vragen stellen, blinde vlekken belichten en aannames controleren om te zorgen dat uiteenlopende perspectieven in acht worden genomen. Als vanzelfsprekend is het cruciaal dat techneuten met de juiste expertise worden ingezet voor het ontwikkelen van gevorderde analytische tools. Echter, de combinatie met mensen met o.a. uiteenlopende etniciteiten, religies, en opleidingsniveaus, en mensen met achtergronden in bijvoorbeeld sociologie en publieke beleidsvorming, of zij zich nou intern bevinden of een extern panel vormen voor beoordeling en herziening, kan het recept zijn voor het oplossen van de vele ethische dilemma’s die bij data-driven zaken doen komen kijken.

Behalve diversiteit in het team, is ook ethische training belangrijk voor het ontwikkelen van eerlijke algoritmen. Techneuten kunnen veel baat hebben bij het leren uit te zoomen uit de techniek in plaats van direct over te gaan op de technische probleemoplossing, en de situatie vanuit een breder perspectief te bekijken. Het beginpunt is het in kaart brengen welk maatschappelijk of organisatorisch probleem opgelost dient te worden en wie de belanghebbenden zijn. Door eerst te bespreken welke scenario’s en oplossingen er mogelijk zijn en wat de potentiële effecten zijn, kunnen bepaalde vooroordelen en onnauwkeurigheden voorkomen worden.

Naast het creëren van een eerlijkheid cultuur en het bieden van ethische training is er nog een aantal andere stappen die genomen kunnen worden om vooroordelen uit algoritmen te elimineren. Daarover volgende keer meer.

Geef een reactie

Vul je gegevens in of klik op een icoon om in te loggen.

WordPress.com logo

Je reageert onder je WordPress.com account. Log uit /  Bijwerken )

Google photo

Je reageert onder je Google account. Log uit /  Bijwerken )

Twitter-afbeelding

Je reageert onder je Twitter account. Log uit /  Bijwerken )

Facebook foto

Je reageert onder je Facebook account. Log uit /  Bijwerken )

Verbinden met %s