Vooroordelen elimineren voor eerlijke algoritmen II

Zoals we vorige keer besproken hebben is het belangrijk dat de algoritmen van data-driven tools die ingezet worden om zakelijke en maatschappelijke beslissingen te nemen onbevooroordeeld en nauwkeurig zijn. Het creëren van een eerlijkheid cultuur en het bieden van ethische training aan de betrokken techneuten zijn twee stappen die genomen kunnen worden om de algoritmen te verbeteren en vooroordelen te elimineren. Daarnaast kunnen we op het gebied van beleid en techniek stappen nemen. Daarover vandaag meer.

Realiseer transparantie en betrokkenheid

Als algoritmen transparanter worden gemaakt, kunnen betrokkenen en mensen die erdoor beïnvloed worden de tools verbeteren door ze onder de loep te nemen en te controleren op vooroordelen en onnauwkeurigheden. Als informatie over het algoritmische proces wordt gepubliceerd, kunnen betrokkenen dat proces nazien en ervoor zorgen dat dit in lijn is met het overheids- en/of organisatiebeleid. Op deze manier wordt iedereen de mogelijkheid gegeven om oneerlijkheden als discriminatie te ontdekken en hier iets tegen te doen.

Elementen om openbaar te maken zijn de data die gebruikt is en waarom, de technieken die gebruikt zijn om de data te analyseren, en data over de prestaties van het algoritme. Belangrijk hierbij is wel dat men in staat is de tools te begrijpen. Zo kan er gebruik gemaakt worden van modellen en visualisaties om complexe algoritmen uit te leggen. Het is echter niet gewenst om te complexe tools te gebruiken. Deep learning wordt niet gezien als een geschikte machine learning benadering om te gebruiken voor sociale besluitvorming. Omdat de individuele stappen die nodig zijn voor het algoritme om het gewenste doel te bereiken niet logisch begrepen kunnen worden door de mens, is het moeilijk te identificeren waar en hoe vooroordelen in het algoritme ontstaan. Er bestaan dan ook organisaties die zeggen dat, als het aankomt op publiek belang, je een algoritme niet zou mogen gebruiken als je zijn beslissingen niet kunt verklaren. Omdat kunstmatige intelligentie besluitvorming aandrijft op gebieden als strafrecht en noodhulp, is het essentieel dat we in staat zijn te begrijpen hoe algoritmen werken en waar ze ongewenst vooroordelen voorzetten.

Steeds vaker wordt er, met name in de publieke sector, gebruikt gemaakt van mensgericht ontwerpen, waarbij gebruikers worden betrokken in het ontwerp proces. Een representatief en ethisch getraind team van ontwikkelaars helpt om de behoeften van gebruikers te waarborgen, maar het betrekken van degenen die daadwerkelijk beïnvloed worden is de volgende stap. Mensgerichte ontwerp sessies kunnen de perspectieven van gebruikers in kaart brengen, zodat er geautomatiseerde tools gecreëerd kunnen worden die in de realiteit goed en eerlijk uitpakken.

Laat algoritmen andere algoritmen controleren

Algoritmen zijn soms de bron van vooroordelen. Daarentegen kunnen zij ook de oplossing zijn voor vooroordelen en onnauwkeurigheden. Zo bestaan er strategieën voor het identificeren en verwijderen van ongelijksoortige impact in algoritmen, zodat er niet wordt gediscrimineerd tegen een bepaalde groep. Zo bestaan er algoritmen die op basis van outputs proberen te raden welke leden zich in verschillende klassen bevinden. Als deze algoritmen een hoog foutpercentage hebben, betekent dit dat zij minder goed in staat zijn om kenmerken te raden op basis van outputs, en zijn zij minder bevooroordeeld.

Onderzoek de data

En natuurlijk geldt ook hier weer: Garbage in, garbage out. Als de data waarop je algoritmen traint al een bron van vooroordelen is, dan zal dit terug te zien zijn in de voorspellingen van de algoritmen. Ontwikkelaars van kunstmatige intelligentie zouden hun training data moeten onderzoeken op potentiële vooroordelen voordat het algoritme er grip op krijgt. Ontwikkelaars kunnen ook regels opstellen om er zeker van te zijn dat het algoritme zichzelf niet aanleert om bevooroordeeld te zijn. Het betekent namelijk niet dat als je een machine niet programmeert om bevooroordeeld te zijn, het zichzelf dit niet aanleert.

Voor het implementeren van algoritmische tools, zouden organisaties alles moeten doen wat zij in hun mars hebben om de risico’s van vooroordelen te verzachten. Zelfs dan is het nog belangrijk om voorzichtig om te gaan met het gebruik van data. Om juiste, eerlijke resultaten te verkrijgen moet er vastgesteld worden of algoritmen daadwerkelijk voorspellen wat zij beweren te voorspellen en of dit in lijn is met de doelstellingen. Veel algoritmen zij in het begin meer concepten dan kant-en-klare tools, die gecontroleerd moeten worden op vooroordelen en onnauwkeurigheden, en zich met de tijd ontwikkelen tot tools die echt in staat zijn bepaalde menselijke activiteiten succesvol te vervangen.

Geef een reactie

Vul je gegevens in of klik op een icoon om in te loggen.

WordPress.com logo

Je reageert onder je WordPress.com account. Log uit /  Bijwerken )

Google photo

Je reageert onder je Google account. Log uit /  Bijwerken )

Twitter-afbeelding

Je reageert onder je Twitter account. Log uit /  Bijwerken )

Facebook foto

Je reageert onder je Facebook account. Log uit /  Bijwerken )

Verbinden met %s