Problemen met kunstmatige intelligentie voor camera observatie

Door kunstmatige intelligentie kunnen observatie camera’s live video analyseren zonder interventie van de mens. Dit kan goed zijn voor de publieke veiligheid en verschillende wetenschappelijke en industriële toepassingen. Tegelijkertijd brengt het een aantal technische en ethische problemen met zich mee. Hoe goed kunnen machines de wereld begrijpen, en kunnen wij ze beslissingen voor ons laten nemen? Hierbij een aantal probleempunten wat betreft de combinatie van kunstmatige intelligentie en camera observatie.

Lastige omstandigheden en lage beeldkwaliteit

Hoewel kunstmatige intelligentie de afgelopen jaren veel heeft bijgedragen in de video beveiliging, bestaan er nog steeds belangrijke uitdagingen als het gaat om computers video laten begrijpen. De omstandigheden van de situatie en de beeldkwaliteit kunnen belangrijke uitdagingen vormen. Zo gaat het automatisch volgen van een persoon over meerdere camera’s al goed, maar wel onder gecontroleerde omstandigheden. En als iemand precies voor de camera beweegt kan die op de vingers gevolgd worden, maar als je met een camera naar het einde van een parkeerterrein kijkt en de resolutie onvoldoende is moet je blij zijn als je kan opmaken dat iemand een autodeur opent. Dit is een groot probleem voor CCTV, want beelden zijn vaak korrelig en de gezichtspunten niet altijd ideaal.

Missen van de context

Een ander probleem is het feit dat machines nog geen essentiële context kunnen afleiden. Een neuraal netwerk dat menselijk gedrag kan analyseren kan vaststellen dat iemand aan het rennen is, maar het kan je niet vertellen of die persoon aan het rennen is omdat hij/zij de bus dreigt te missen of net iemand beroofd heeft. Het punt waarop een computer net zo goed als een mens kan begrijpen wat het ziet op video is nog ver weg, hoewel de progressie wel snel gaat.

Vooroordelen een eenzijdigheid

Uit studies blijkt dat machine learning systemen de racistische en seksistische vooroordelen overneemt van de maatschappij die deze programmeert, of het nou gaat om beeldherkenning software die zegt dat vrouwen altijd in de keuken staan, of om strafrechtsystemen die zeggen dat zwarte mensen met hogere waarschijnlijkheid meerdere malen de wet overtreden. Als kunstmatige intelligentie systemen worden getraind met behulp van oud beeldmateriaal van CCTV of van eenzijdig beeldmateriaal van bodycams, dan zullen vooroordelen en eenzijdigheid worden voortgezet en veralgemeend door deze machines.

Beangstigend effect op maatschappij

Verder bestaat er natuurlijk nog het privacy probleem. Het veranderen van CCTV camera’s van passieve observators naar actieve observators kan de maatschappij flink beangstigen. Als je continu in de gaten wordt gehouden en je gedrag volledig wordt geanalyseerd en misschien wel verkeerd wordt geïnterpreteerd, kan dat een grote impact op je hebben. Je kan de neiging hebben jezelf en je gedrag continu in de gaten te houden en bang worden dat je iets doet wat verkeerd wordt geïnterpreteerd, met negatieve gevolgen voor je stressniveau en gevoel van vrijheid.

Net als met vele technologische ontwikkelingen kan ook kunstmatige intelligentie voor camera observatie bewust of onbewust misbruikt worden. Kunstmatige intelligentie brengt enorme voordelen met zich mee, maar het is belangrijk dat we bewust zijn van de (mogelijke) nadelen, zodat we zorgvuldig kunnen beoordelen of het gebruik ervan de wereld daadwerkelijk vooruit helpt.

Geef een reactie

Vul je gegevens in of klik op een icoon om in te loggen.

WordPress.com logo

Je reageert onder je WordPress.com account. Log uit /  Bijwerken )

Google photo

Je reageert onder je Google account. Log uit /  Bijwerken )

Twitter-afbeelding

Je reageert onder je Twitter account. Log uit /  Bijwerken )

Facebook foto

Je reageert onder je Facebook account. Log uit /  Bijwerken )

Verbinden met %s