Publicatie:Gezichtsherkenning om erfgoed te metadateren: mag dat? (ethische luik)

From Cultureel Erfgoed Standaardentoolbox
Jump to navigation Jump to search


Samenvatting

Gezichtsherkenningstechnologie helpt om personen in fotografische en audiovisuele collecties te herkennen en zo rijkere metadata te genereren. In dit artikel bekijken we met een ethische bril of dat zomaar kan (uitgebreider besproken in het 2022-02 van FARO - tijdschrift over cultureel erfgoed).


Referentie
Titel Gezichtsherkenning om erfgoed te metadateren: mag dat? (ethische luik) (Voorkeurstitel)
Locatie
Uitgever
Jaar van uitgave 2022
Rechten CC-BY-SA
Persistent ID


Auteur

Bart Magnus (meemoo, Vlaams instituut voor het archief)

Referentiesets

De toepassing van gezichtsherkenningstechnologie vereist goede referentiesets. Dat zijn verzamelingen foto’s die met zekerheid een bepaalde persoon afbeelden. Een algoritme vergelijkt die referentiefoto’s met de foto’s uit de doelcollectie en voorspelt met welke waarschijnlijkheid afgebeelde personen daar ook in voorkomen. Referentiefoto’s kunnen uit diverse bronnen komen, waaronder het web. Hoe ethisch is het massaal verzamelen (inclusief scrapen) en bewaren van foto’s op het web zonder toestemming van de afgebeelde personen? Is er een verschil wanneer de foto’s tot het publiek domein behoren of gepubliceerd zijn onder een vrije licentie? Er ontstaat een spanning tussen open content en ethische overwegingen wanneer open content gebruikt wordt voor gezichtsherkenning, al dan niet door grote commerciële spelers of overheden. Het uiteindelijke doel en mogelijke negatieve gevolgen bepalen of het massaal verzamelen van foto’s voor gezichtsherkenning ethisch verantwoord is.

Een stap verder is het openstellen van referentiesets voor hergebruik. In het verleden zijn grote open datasets gebruikt voor zowel commerciële gezichtsherkenningstoepassingen als voor toepassingen van politie en veiligheidsdiensten. We moeten een evenwicht zoeken tussen enerzijds het verzekeren van open data en transparante processen en anderzijds het voorkomen van ongewenst hergebruik.

Bias

(Potentiële) vooringenomenheid van algoritmen noemen we bias. Binnen gezichtsherkenningstoepassingen komen vooral raciale en gender-biases voor. Bestaande gezichtsherkenningsmodellen zijn vaak weinig transparant over de gebruikte algoritmen en baseren zich op trainingsdata die onvoldoende representatief zijn. Zo zijn etnische minderheden, maar ook bijvoorbeeld vrouwen, kinderen en mensen met fysieke beperkingen vaak ondervertegenwoordigd.

Een zorgvuldige afweging tussen de potentiële winst die genderdetectie oplevert en de mogelijk kwalijke gevolgen ervan is cruciaal. Het algoritme kan immers fouten maken bij de genderbepaling, mede omdat niet iedereen zich herkent in de binaire opsplitsing tussen vrouw en man.

Door bias dreigt een bevestiging of uitvergroting van bestaande maatschappelijke ongelijkheden. Het is niet alleen van belang om, waar mogelijk, bias te voorkomen, maar ook om de gevolgen te proberen beperken en de potentiële bias maximaal zichtbaar te maken.

Milieu-impact

Gezichtsdetectie en -herkenning vragen veel rekenkracht en energie. Een substantieel deel daarvan komt niet uit hernieuwbare bronnen. Zowel het terugdringen van nefaste effecten (bijvoorbeeld door energie-efficiëntere workflows en algoritmen) als transparantie zijn belangrijke aandachtspunten.

Data labelers

Algoritmen trainen met grote hoeveelheden data vraagt veel mankracht. Wie dat werk van "data labeling" uitvoert en in welke omstandigheden dat gebeurt, varieert. Soms gaat het om correct betaalde vaste werknemers, soms om stagiairs of vrijwilligers, al dan niet via crowdsourcing. Soms wordt ook een beroep gedaan op zogeheten ghost workers of click workers in lageloonlanden met penibele arbeidsomstandigheden.

Technologie is niet neutraal of onschuldig. Gezichtsherkenning verantwoord toepassen kan dus enkel met een ethisch kompas dat aandacht heeft voor de rechten en vrijheden van burgers.