Risico’s van kunstmatige intelligentie

Overheden en bedrijven kijken steeds meer naar technologie, big data en kunstmatige intelligentie voor nieuwe antwoorden op oude vragen. Hoe kunnen steden en bedrijven zo efficiënt mogelijk omgaan met hun beperkte middelen? Hoe kunnen zij zorgen voor eerlijkheid naar individuen en groepen mensen? Hoe kunnen zij veiligheid, betaalbaarheid, economische kansen en de kwaliteit van leven verbeteren? Kunstmatige intelligentie begint een essentiële rol te spelen in het beantwoorden van deze vragen.

Schadelijke kunstmatige intelligentie

Dat kunstmatige intelligentie heel waardevol kan zijn hebben we al meerdere malen besproken. Helaas heeft het ook nadelen, die we niet over het hoofd mogen zien. Als je verkeerde bedoelingen hebt kun je kunstmatige intelligentie zo programmeren dat het verwoestende activiteiten uitvoert. Maar ook als je goede bedoelingen hebt kan kunstmatige intelligentie schadelijk zijn. Kunstmatige intelligentie kan een risico worden als het geprogrammeerd is om iets goeds te doen, maar een destructieve methode ontwikkelt om zijn doel te bereiken. Dit kan gebeuren als we de doelen van de kunstmatige intelligentie niet volledig in lijn brengen met onze eigen doelen, wat een opvallend moeilijke taak kan zijn. Als je bijvoorbeeld een gehoorzame, intelligente auto vraagt om je zo snel mogelijk naar het vliegveld te brengen, dan zou de auto levensgevaarlijk snel gaan rijden. Het was niet je bedoeling om met de politie op je hielen en misselijk op de locatie aan te komen, maar dat weet de auto niet. Die doet gewoonweg wat je letterlijk hebt gevraagd. Vergelijk dat maar eens met een gesprek met een sterk autistisch persoon. Zoals dit voorbeeld illustreert kan het zeer problematisch zijn als een machine heel goed is in het bereiken van zijn doelen, maar deze doelen niet volledig in lijn zijn met die van ons.

Er zijn vele mogelijke toepassingsgebieden van kunstmatige intelligentie en complexe algoritmen. Het kan ingezet worden voor publieke gezondheid en het van de straat houden van criminelen, maar ook voor het sneller repareren van kuilen in de weg en het verwijderen van ratten uit restaurants. Het is belangrijk dat we inzien dat zelfs hoewel de oplossingen voor deze problemen technisch vergelijkbaar zijn, de ethische risico’s flink variëren. Kunstmatige intelligentie toepassingen hebben verschillende risico levels, gedefinieerd als de waarschijnlijkheid dat het ernstige schade veroorzaakt door discriminatie, onnauwkeurigheid, oneerlijkheid of een gebrek aan toelichting.

Risico’s in kaart brengen

Om te bepalen wat het kunstmatige intelligentie risico is van een project, kan je beginnen met het stellen van vragen over de ernst van de mogelijke schade. Hoe ziet de schade eruit voor een bepaalde applicatie? Welke burgerrechten of belangen zouden erbij betrokken kunnen zijn? Wie zou er schade ondervinden? Hoe serieus is deze schade in vergelijking met andere applicaties die in overweging zijn? Hoe aannemelijk is het dat de schade zal worden toegebracht? Is er een manier waarop de schade of de kans erop kan worden verminderd?

Naast de bijzonderheden van een bepaald geval, zou men vragen moeten stellen over de onderliggende datasets, de keuze voor algoritmen, de implementatie van code, secundair gebruik, en evaluatie. Elk van deze elementen vormt een bron van risico die bedrijven en overheden zorgvuldig moeten overwegen en verzachten.

Verschillende personen zouden verschillende vragen en risicofactoren kunnen opstellen en deze op verschillende wijze maten van belangrijkheid toewijzen. Zo kunnen zij tot verschillende conclusies komen over het kunstmatige intelligentie ethische risico van een applicatie. Deze variaties zijn voorspelbare bijproducten van culturele en politieke verschillen. Maar het belangrijkste is dat bedrijven en overheden deze vragen gaan stellen en dat zij zorgvuldig nadenken over de potentiële risico’s van kunstmatige intelligentie. Bovendien zouden de vragen meer dan eens gesteld moeten worden tijdens het hele proces, van de eerste overweging tot de ontwikkeling of inkoop, implementatie alsmede de evaluatie.

Geef een reactie

Vul je gegevens in of klik op een icoon om in te loggen.

WordPress.com logo

Je reageert onder je WordPress.com account. Log uit /  Bijwerken )

Google photo

Je reageert onder je Google account. Log uit /  Bijwerken )

Twitter-afbeelding

Je reageert onder je Twitter account. Log uit /  Bijwerken )

Facebook foto

Je reageert onder je Facebook account. Log uit /  Bijwerken )

Verbinden met %s