Publicatie:Nieuwe technieken, nieuwe vragen: hoe ethisch is gezichtsherkenning op erfgoedcollecties?

Uit Cultureel Erfgoed Standaardentoolbox
Naar navigatie springen Naar zoeken springen


Samenvatting

Voor veel fotografische en audiovisuele collecties zijn er nauwelijks beschrijvende metadata beschikbaar. De aanmaak daarvan is immers een arbeidsintensieve klus die veel inhoudelijke kennis vergt. Kan dat proces deels geautomatiseerd worden door het gebruik van gezichtsherkenningstechnologie? Betere inhoudelijk beschrijvende metadata verhogen de vindbaarheid van het materiaal. Maar de toepassing van gezichtsherkenning roept ook juridische en ethische vragen op.


Referentie
Titel Nieuwe technieken

nieuwe vragen: hoe ethisch is gezichtsherkenning op erfgoedcollecties? (Voorkeurstitel)

Locatie
Uitgever
Jaar van uitgave 2022
Rechten CC-BY-SA
Persistent ID


Auteurs

Bart Magnus (meemoo, Vlaams instituut voor het archief)

Met de medewerking van Ellen Van Keer (meemoo, Vlaams instituut voor het archief) en Rony Vissers (meemoo, Vlaams instituut voor het archief).

FAME

Het FAME-project rond gezichtsherkenning in cultureel-erfgoedcollecties startte in maart 2021 en loopt nog tot september van dit jaar.[1] Initiatiefnemer is meemoo, met IDLab (UGent) als technische partner. Vier organisaties met een collectie zijn betrokken: KOERS, het Archief van het Vlaams Parlement, Kunstenpunt en ADVN.

Technologie is niet neutraal

Wanneer gezichtsherkenningstechnologie ingezet wordt om cultureel erfgoed te metadateren, speelt de juridische en ethische context een belangrijke rol. Technologie is immers niet neutraal of onschuldig. Ze kan in een correct juridisch en ethisch kader nobele doelen dienen, maar in andere contexten ook de rechten en vrijheden van burgers beknotten of in gevaar brengen. Zo is artificiële intelligentie (AI), waar gezichtsherkenning deel van uitmaakt, controversieel.[2]

Gezichtsdetectie. Verschillende bronnen. CC0

Wielrenners en politici

Samen met de partners definieerden we doelcollecties die we binnen FAME metadateren. De keuze voor collecties over publieke figuren - wielrenners, politici en podiumkunstenaars - verkleint het aantal juridische en ethische obstakels en beperkt de (mogelijk nadelige) impact op privépersonen. De toepassing van gezichtsherkenningstechnologie vereist goede referentiesets: verzamelingen foto’s waarvan we zeker zijn dat ze een bepaalde persoon afbeelden. Een algoritme zal die referentiefoto’s vergelijken met de foto’s uit de doelcollecties en voorspellen met welke waarschijnlijkheid afgebeelde personen daar ook in voorkomen. De referentiefoto’s zijn deels afkomstig van de partnerorganisaties en andere collectiebeheerders[3] en deels van het web gehaald, via API’s[4] en manuele zoekopdrachten.

Hoe ethisch is het massaal verzamelen (inclusief scrapen[5]) en bewaren van foto’s op het web, zonder toestemming van de afgebeelde personen? Is er een verschil wanneer de foto’s tot het publieke domein behoren of onder een vrije licentie gepubliceerd zijn?[6] Er ontstaat een spanning tussen open content en ethische overwegingen wanneer open content gebruikt wordt voor AI, al dan niet door grote commerciële spelers of overheden. We moeten zowel naar het uiteindelijke doel als naar de eventuele negatieve gevolgen kijken om te bepalen of het massaal verzamelen van foto’s voor gezichtsherkenning ethisch verantwoord is.

Efficiëntiewinst vs. gevaren

Podiumkunstenaars Josse De Pauw en Fumiyo Ikeda. Oorspronkelijke foto: Michiel Hendryckx. Publiek Domein

We zetten gezichtsherkenning in en creëren referentiesets om door gedeeltelijke automatisering het traditionele manuele werk van collectieregistratoren - erfgoed beschrijven - op te schalen. Een verwerking waarbij enkel publieke figuren worden geïdentificeerd kan ethisch verantwoord worden. Maar blijft zo’n verantwoording overeind als we onze referentiesets ook buiten FAME zouden delen?

Zeker binnen de cultureel-erfgoedcontext in Vlaanderen is er een potentiële efficiëntiewinst verbonden aan het delen en hergebruiken van referentiesets. Zo kunnen de instellingen het intensieve proces van de samenstelling van referentiesets rationaliseren. Het delen van foto’s impliceert controleverlies: kunnen en/of moeten we anticiperen op potentieel misbruik? Hoe bewaken we het evenwicht tussen enerzijds het verzekeren van open data en transparante processen en anderzijds het voorkomen van ongewenst hergebruik ervan? In het verleden zijn grote open datasets op grote schaal gebruikt voor zowel commerciële gezichtsherkenningstoepassingen als voor politionele toepassingen. Hoe kunnen we het ongewenst gebruik van de gecreëerde referentiesets door derden vermijden?

Wereldwijd ontstaan bewegingen om het gebruik van AI te reguleren. In de aanloop naar een nieuwe verordening nam het Europees Parlement een aantal belangrijke resoluties aan. Een eerste resolutie wil het gebruik van gezichtsherkenningstechnologie door politiediensten in de openbare ruimte en bij grenscontroles onmogelijk maken. Een tweede is expliciet gericht op AI in het onderwijs en in de culturele en audiovisuele sector. Naast deze regelgevende kaders is beroepsethiek essentieel bij de toepassing van AI in onze sector. De maatschappelijke missie en het waardenkader van cultureel-erfgoedorganisaties kunnen die beroepsethiek vormgeven.[7]

Maatschappelijke ongelijkheden

Een andere uitdaging die zich bij AI-toepassingen stelt is dat algoritmen vooringenomen kunnen zijn, de zogenaamde bias. Binnen gezichtsherkenningstoepassingen komen vooral raciale en gender-biases voor. Grote technologiebedrijven trainen gezichtsherkenningsmodellen met massa’s data. Deze modellen gebruiken ze in hun producten of bieden ze aan in commerciële toepassingen. Vaak zijn ze weinig transparant over de gebruikte algoritmen en baseren ze zich op trainingsdata die onvoldoende representatief zijn. Zo zijn etnische minderheden, vrouwen, kinderen en mensen met fysieke beperkingen vaak ondervertegenwoordigd. Het gevaar is dat bestaande maatschappelijke ongelijkheden bevestigd of vergroot worden. Het is niet alleen van belang om, waar mogelijk, bias te voorkomen, maar ook om de gevolgen te proberen beperken en de potentiële bias maximaal zichtbaar te maken.

Gericht herkennen

Gezichtsherkenning. CC-BY-SA 4.0

In FAME voorkomen we biases deels door voor elke pilot zorgvuldig gecreëerde referentiedatasets te gebruiken. Enkel voor de gezichtsdetectie gebruiken we een open model met een publiek beschikbare (en dus verifieerbare) dataset.[8] We zetten het model in om een aantal sleutelpunten in een beeld te detecteren die nodig zijn om een persoon te herkennen.

Uit beschikbare metadata kunnen we afleiden welke personen mogelijk worden afgebeeld. We weten immers wie wanneer Vlaams Parlementslid was, wie meespeelde in bepaalde podiumproducties en wie actief was als wielrenner. Zorgvuldig samengestelde ‘ground truth’-referentiesets helpen het algoritme om te voorspellen wie wordt afgebeeld. We zoeken dus niet blind naar alle mogelijke politici, podiumkunstenaars en wielrenners. Met behulp van een relatief beperkte en door ons samengestelde referentieset van foto’s zoeken we naar specifieke personen waarvan we weten dat er een redelijke kans is dat ze voorkomen in de collecties.

Deze aanpak is niet sluitend. Bias kan immers al optreden in de fase waarin software ‘mensen’ op foto’s detecteert. Op foto’s een mens van ‘niet-mensen’ onderscheiden impliceert een bepaalde normering; noodzakelijk om zinvolle categorieën te creëren en zo valse positieven en negatieven te vermijden. De karakterisering van het concept ‘mens’ bepaalt niet enkel of er niet te veel ‘niet-mensen’ als ‘mens’ worden gecategoriseerd, maar ook of alle mensen even goed herkend worden, ongeacht hun fysieke eigenschappen of kledij (bv. wielerpetjes, hoofddoeken, tulbanden ...).

Wat wij vaststelden

We controleerden het gebruikte algoritme op bias door een manuele steekproef. De resultaten zijn op het eerste gezicht geruststellend. Zo bleken hoofddeksels, een zonnebril, een hoofdtelefoon en zelfs een mondkapje geen probleem voor automatische gezichtsdetectie. We zochten ook naar valse negatieven, foto’s waarop verkeerdelijk geen gezichten gedetecteerd werden. Op 583 bekeken foto’s zagen we 34 gezichten die het algoritme niet detecteerde. Meestal waren daar logische oorzaken voor:

  • slechte kwaliteit van de foto’s;
  • gedeeltelijke onzichtbaarheid van het gezicht;
  • ongewone houdingen en gelaatsuitdrukkingen.

Vaak resulteert een van die factoren nog wel in een gezichtsdetectie, zij het met een lagere probabiliteit. De combinatie van bijvoorbeeld een sterke grimas met een zijaanzicht kan resulteren in een detectiescore die te laag is om als ‘gezicht’ te worden weerhouden.

Wij vonden onvoldoende indicatie voor raciale bias. Mensen die niet gedetecteerd werden zijn overwegend witte mannen en vrouwen, al zijn die ook het sterkst vertegenwoordigd in de dataset. Slechts op twee foto’s met een gemiste gezichtsdetectie staat een niet-witte man, maar telkens zijn andere verklaringen dan bias waarschijnlijker voor de niet-detectie: o.a. haar voor het gezicht, slechts één oor zichtbaar en vrij sterk gepixeleerde zwart-witfoto’s. Daarnaast waren er slechts zeven vals positieve gezichtsdetecties. In drie gevallen detecteerde het algoritme een tekening met een gezicht, een beeldje of een pop op de achtergrond als mens. In de andere gevallen konden wij zelf niets detecteren dat op een gezicht lijkt.

Genderdetectie kan een manier zijn om valse positieven uit matchingresultaten te filteren. Het algoritme kan echter ook fouten maken bij de genderbepaling, ook omdat niet iedereen zich herkent in een binaire opsplitsing tussen vrouw en man. In FAME is geen genderdetectie gebruikt.

Jobs bedreigd?

Vier CVP-premiers: Jean-Luc Dehaene, Leo Tindemans, Wilfried Martens en Mark Eyskens. Gebaseerd op een foto van Michiel Hendryckx. Bron: Wikimedia Commons, CC BY-SA 3.0

Een (veelgehoorde) kritiek op nieuwe technologieën, en zeker op AI, is dat ze jobs bedreigen. Chirurgen zouden overbodig worden omdat robots nauwkeuriger opereren. Zelfrijdende bussen zouden veiliger zijn dan bussen met chauffeur. Dergelijke vrees is van alle tijden. Hij is menselijk en begrijpelijk, maar weinig gefundeerd. Onderzoek toont aan dat technologische evoluties ertoe leiden dat bepaalde jobs verdwijnen, maar dat er evenzeer andere jobs bijkomen. Uit recente evoluties blijkt dat technologie zelfs zorgt voor een nettotoename van jobs.[9] Wel veranderen de jobs door de toegenomen automatisering van repetitieve taken. Laaggeschoolden zijn daarbij het kwetsbaarst omdat zij vaak dergelijke taken uitvoeren.

Binnen FAME richten we ons op de automatisering van werk dat vandaag wegens tijdgebrek en personeelstekort niet gebeurt om tot betere metadata, een grotere zichtbaarheid en vlottere toegang tot de collecties te komen. Deze automatisering betekent niet dat machines mensen vervangen. Mensen denken en redeneren, machines maken berekeningen waarvoor ze geprogrammeerd zijn. De samenwerking tussen mens en algoritme blijft cruciaal. De rol van de mens achter de machine wordt in zekere zin zelfs belangrijker dan voordien.

En de milieu-impact?

Gezichtsdetectie en -herkenning zijn processen die veel rekenkracht en energie vragen. Niet alleen het gebruik, maar ook de ontwikkeling van de software die eraan voorafgaat vereist veel energievretende training. Een substantieel deel van die benodigde energie komt niet uit hernieuwbare bronnen. Zoals bij alle ethische kwesties die hier aan bod komen zijn zowel het terugdringen van nefaste effecten (bv. door energie-efficiëntere workflows en algoritmen) als transparantie belangrijke aandachtspunten.

Data labellers

Algoritmen trainen met grote hoeveelheden data vraagt veel mankracht. Wie dat werk van data labelling (en eventuele manuele validatie) uitvoert, en in welke omstandigheden dat gebeurt, varieert. Soms gaat het om correct betaalde vaste werknemers, soms om stagiairs of vrijwilligers, al dan niet via crowdsourcing. Soms wordt ook beroep gedaan op zogeheten ‘ghost workers’ of ‘click workers’ in lageloonlanden met penibele arbeidsomstandigheden. Binnen FAME gebruiken we enkel voor het onderdeel van gezichtsdetectie eerder ontwikkelde software. We weten wel wie Insightface heeft ontwikkeld, maar niet met welk doel en in welke omstandigheden dat is gebeurd. Ook hoe cultureel-erfgoedorganisaties de manuele validatie van de matchingresultaten aanpakken blijft een ethisch aandachtspunt.

De kardinale deugden

Ambrosius van Milaan, door Claude Vignon (1623-1625) Collectie: Minneapolis Institute of Arts. Publiek domein.

Hoe zorgen we voor een ethisch verantwoorde toepassing van AI in de cultureel-erfgoedsector? Internationale richtlijnen of een ethische code opstellen zijn mogelijke pistes, al is de vraag of een simpele checklist zal kunnen bewerkstelligen wat hij beoogt. AI-toepassingen zijn zo divers en de technologie verandert zo snel dat een lijstje altijd onvolledig en snel verouderd zal zijn.

Ambrosius van Milaan beschreef in de vierde eeuw de “kardinale deugden”, kerndeugden die eeuwen voor hem de filosofen Plato en Aristoteles al aanhaalden. Het Montreal AI Ethics Institute hanteert ze als leidraad voor ethische AI-toepassingen.[10] Het gaat om:

  • Prudentia (voorzichtigheid - verstandigheid - wijsheid);
  • Iustitia (rechtvaardigheid - rechtschapenheid);
  • Fortitudo (moed - doorzetting);
  • Temperantia (gematigdheid - zelfbeheersing).

Hoewel het voorkomen van ongewenste uitkomsten noodzakelijk blijft, is de grootste garantie op ethische AI wellicht dat iedereen die betrokken is bij een AI-project dat vanuit deze vier deugden doet. De focus komt zo immers te liggen op het gedrag van mensen, en dat gaat verder dan het juridische kader. Bovendien - zo heeft de geschiedenis reeds bewezen - bezitten deze deugden een tijdloosheid die razendsnelle technologische evoluties doorstaat.

Voetnoten

  1. Zie projectpagina op https://meemoo.be/nl/projecten/fame-gezichtsherkenning-als-tool-voor-metadatacreatie. FAME staat voor FAce MEtadata.
  2. Zie bijvoorbeeld de BBC-reportage Are you scared yet, human?: https://www.vrt.be/vrtnu/a-z/are-you-scared-yet--human-/2021/are-you-scared-yet--human
  3. O.a. Amsab-ISG, KADOC en Liberas.
  4. Een API (Application Programming Interface) is een software-interface die het mogelijk maakt dat twee applicaties met elkaar kunnen communiceren.
  5. Scrapen is een techniek waarbij gegevens, in dit geval van een publieke website, automatisch geëxtraheerd (of ‘geschraapt’) worden.
  6. Een organisatie als Creative Commons profileert zich duidelijk als voorstander van text and data mining op CC-gelicentieerde content. Zie https://bit.ly/3vj3bre en https://bit.ly/38Tw71A.
  7. Denk bv. aan waarden als diversiteit, participatie, het perspectief van erfgoedgemeenschappen. Maar ook de geest van bestaande ethische beroepscodes zoals die van ICOM en ICA. Specifieker is er ook deze Unesco-aanbeveling: https://montrealethics.ai/unescos-recommendation-on-the-ethics-of-ai
  8. buffalo_l van Insightface (https://insightface.ai), een open source softwareproject voor gezichtsherkenning. Zie https://github.com/deepinsight/insightface/tree/master/model_zoo.
  9. M. Ploeger, ‘Door automatisering krijgen we een grote herverdeling van werk’, op: https://www.socialevraagstukken.nl/interview/door-automatisering-krijgen-we-een-grote-herverdeling-van-werk.
  10. R. Khurana, ‘Virtues Not Principles’, op: https://montrealethics.ai/virtues-not-principles