Algoritmes bepalen ons gender, maar wat zijn de consequenties?

Geschreven door Hadassah Drukarch op 16-06-2021

Technologische ontwikkelingen, waaronder in het bijzonder Artificial Intelligence (AI), zullen in de nabije toekomst ongelooflijke vooruitgang bieden voor de hele samenleving. Desalniettemin roept de introductie en implementatie van AI in ons dagelijks leven vele verschillende vragen en zorgen op en binnen deze context is er dan ook aanzienlijke ruimte voor verbetering, waaronder ook op het gebied van diversiteit. De afgelopen jaren zijn er in het kader hiervan met name zorgen geuit over zogeheten Automated Gender Recognition Systems (AGRS), AI-systemen die iemands gender (en seksuele geaardheid) voorspellen. Deze AI-systemen worden als fundamenteel gebrekkig ervaren omdat zij slechts tussen twee categorieën onderscheid kunnen maken - mannelijk en vrouwelijk - en ten gevolge hiervan diegenen die niet binnen deze binaire categorieën passen, buitensluiten. Juridisch gezien heeft dit alles velen ertoe aangezet zich af te vragen hoe deze systemen zich het best voor diversiteit kunnen verantwoorden en of dat überhaupt mogelijk is?  

Algoritmes bepalen ons gender
Vandaag de dag maken organisaties over de hele wereld gebruik van zogeheten ‘inferentiële data-analysemethoden’ om gebruikerskenmerken en voorkeuren van individuen op een zeer nauwkeurige wijze te achterhalen en voorspellen, waaronder ook gevoelige kenmerken zoals geslacht en seksuele geaardheid. Hoewel de meeste mensen waarschijnlijk nog nooit van geautomatiseerde gender-herkenning hebben gehoord, is het tegenwoordig desalniettemin een opmerkelijk gebruikelijke praktijk. Zo hebben top technologiebedrijven al grootschalig geïnvesteerd in technologie die foto's van gezichten kan voorzien van binaire labels zoals 'mannelijk' en 'vrouwelijk', maar ook van vele andere persoonlijke kenmerken.[1] Geautomatiseerde gender-herkenning vindt zijn oorsprong is academisch onderzoek dat aan het eind van de jaren tachtig werd verricht en werd in eerste instantie omgeven door een bijzonder dystopische visie op de toekomst die het creëerde.[2] Hoewel erg complex van aard en geavanceerd in hun werking, bevatten deze AGRS dan ook een fundamentele tekortkoming: de manier waarop zij naar gender kijken, komt niet altijd overeen met de manier waarop een mens dit concept bevat. AGRS berusten over het algemeen op een beperkt en achterhaald begrip van gender, ten gevolge waarvan degenen die niet gemakkelijk binnen het door AGRS gecreëerde begrippenkader passen - zoals dat voornamelijk bij trans- en niet-binaire individuen het geval is - het risico lopen een verkeerd gender toegewezen te krijgen.[3] Het probleem hier is dus niet zozeer dat deze systemen simpelweg het bestaan van verschillende gender-groepen negeren, ze kunnen deze verschillende groepen vaak überhaupt niet herkennen.  

De maatschappelijke en juridische implicaties van geautomatiseerde gender-herkenning
De implicaties en diepgeworteldheid van gender- en diversiteitsoverwegingen in de praktijk worden tot op de dag van vandaag grotendeels genegeerd bij de ontwikkeling van algoritmen. Zo botsen AGRS bijvoorbeeld met het idee dat gender subjectief en intern is, wat vaak leidt tot een misrepresentatie van de feiten en dit kan uitkomsten hebben die nadelig kunnen uitpakken, voornamelijk voor minderheden binnen de samenleving. Vragen omtrent de gevolgen hiervan worden over het algemeen bijzonder slecht begrepen en vaak onderschat, en hoewel wetenschappelijk onderzoek steeds vaker rekening houdt met concepten als ‘geslacht’ en ‘gender’ omdat het betere wetenschap zou moeten opleveren,[4] benadrukt onderzoek op het gebied van queer media onderzoek dat ‘geslacht’, ‘gender’ en ‘seksualiteit’ vaak op overlappende manieren worden gebruikt door zowel leken alsook experts.[5] Zo wordt vanuit computer wetenschappelijk perspectief meestal het concept ‘geslacht’ als uitgangspunt genomen bij de ontwikkeling van AGRS, zonder daarbij rekening te houden met de binaire aard van dit concept en zonder andere relevante concepten in overweging te nemen. Ten gevolge hiervan worden AGRS getraind aan de hand van data die gender-stereotype kenmerken bevatten (denk bijvoorbeeld aan lichaamsbewegingen, fysiologische en gedragskenmerken, gelaat strekkingen en taalgebruik). Zo worden vrouwelijke namen bijvoorbeeld eerder geassocieerd met familie dan met carrière, met kunst meer dan met wiskunde en wetenschap. Ook zijn er onderzoekers die melden dat het werkwoord 'koken' sterk bevooroordeeld blijkt te zijn ten opzichte van vrouwen.6 Dit leidt er enkel toe dat bestaande gendervooroordelen worden versterkt en dit kan op de lange termijn tot discriminatie en buitensluiting van bepaalde bevolkingsgroepen leiden, hetgeen grondwettelijk en op basis van internationale (mensenrechten)verdragen verboden is.  

Neem bijvoorbeeld Giggle, de sociale media app die alleen voor meisjes toegankelijk is. Om af te dwingen dat enkel meisjes daadwerkelijk toegang tot de app krijgen, eist het bedrijf dat gebruikers een selfie uploaden om zich te kunnen registreren, waarna Giggle gezichtsherkenningstechnologie van derden gebruikt om - zo beweert het bedrijf - met een zekere mate van precisie de waarschijnlijkheid te bepalen dat het betreffende individu van het vrouwelijke geslacht is. Hoe het ook zij, talloze onderzoeken en audits hebben aangetoond dat gezichtsherkenning op basis van geautomatiseerde gender-herkenning voor veel mensen niet accuraat is, met als gevolg dat het bedrijf het risico loopt een deel van haar doelgroep zonder rechtvaardiging buiten te sluiten.[7]

In dit verband benadrukt dr. Eduard Fosch-Villaronga – universitair docent aan het eLaw Centre for Law and Digital Technologies aan de Universiteit Leiden – dat het wereldwijde landschap van ethische richtlijnen voor AI geen adequate handvatten biedt om de potentiële implicaties van ontbrekende gender- en inclusiviteitsoverwegingen in de ontwikkeling van algoritmes te verzachten.[3] Daarnaast stelt hij dat hoewel verschillende gemeenschappen zich weliswaar richten op het belang van diversiteit en inclusiviteit in de ontwikkeling van AI-technologieën,  onderzoek hiernaar nog steeds erg verspreid is en slechts beperkt is gebleven ten opzichte van onderzoek op het gebied van veiligheid en gegevensbescherming.[3] Bovendien blijft het vooralsnog onduidelijk hoe dergelijk onderzoek überhaupt het juridische landschap beïnvloed. Een voorbeeld hiervan is te vinden in het recente Europese wetsontwerp over de regulering van AI in Europa.[8] Hoewel het voorstel erop gericht is bescherming te bieden tegen risicovolle en schadelijke AI-systemen, zoals gezichtsherkenningssystemen, bevat het wetsontwerp geen verbod op systemen die gender, seksualiteit, ras of handicap pogen te achterhalen en voorspellen.  

Het is precies om deze reden dat Daniel Leufer, een beleidsanalist bij Access Now, een non-profitorganisatie gericht op het verdedigen en uitbreiden van digitale burgerrechten, heeft benadrukt dat geautomatiseerde gender-herkenning onverenigbaar is met de mensenrechten waar binnen de EU zoveel waarde aan wordt gehecht. Access Now heeft daarom, samen met meer dan 60 andere NGO's, een brief gestuurd naar de Europese Commissie met het verzoek deze technologie te verbieden.[7] De campagne, die wordt ondersteund door de internationale LHBT+ belangengroep All Out, komt op het moment dat de EU nieuwe EU-brede regelgeving voor AI overweegt. Volgens Leufer betekent dit dat er juist nu een uniek moment is waarop we onze stem kunnen horen en hij neemt dan ook zeker de gelegenheid om daar gebruik van te maken.[9]

Is een algeheel verbod de beste oplossing?
De vraag die resteert is of een algeheel verbod op AGRS wel daadwerkelijk de beste oplossing is? Hoewel verschillende onderzoekers werken aan oplossingen om de door AGRS veroorzaakte problematiek tegen te gaan, zien zij nog altijd het meest fundamentele aspect van gender over het hoofd: dat gender subjectief is en niet in een objectieve vorm kan worden vastgesteld. Zoals Johnston in zijn werk stelt : “modern problems cannot be reduced to mere engineering solutions over the long term; human goals are diverse and constantly changing.” Vanuit het perspectief van beleidsvorming is het van belang dat we goed nadenken over de risico’s die door geautomatiseerde gender-herkenning in het leven worden geroepen. Tegelijkertijd is het - zoals dr. Eduard Fosch-Villaronga benadrukt - ook van uiterst belang dat wij onszelf afvragen of we überhaupt wel willen leven in een samenleving die wordt geleid door algoritmen die in het voordeel werken van de overgrote meerderheid van de bevolking, maar tegelijkertijd het risico lopen om bepaalde groepering binnen precies diezelfde bevolking buiten te sluiten.[3]      

Om weer terug te komen op hetgeen waarmee dit stuk van start ging, AI biedt veel potentieel in het kader van de verdere positieve ontwikkeling van onze samenleving. We moeten de toekomst om deze reden dan ook niet met een dystopische visie tegemoet gaan, maar juist goed nadenken over de prioriteiten die de mensheid het beste dienen en dit als het nieuwe basisuitgangspunt nemen bij de ontwikkeling van nieuwe technologieën.  


1. R. Metz, ‘AI software defines people as male or female. That's a problem’, CNN 21 november 2019.
2. O. Keyes, ‘The Body Instrumental’, Logic 7 december 2018.
3. H.G. Drukarch, 'The Impact Of Automated Gender Recognition Systems W/ Eduard Fosch-Villaronga' (podcast), The Law Of Tech februari 2021.
4. K.A. McLemore, 'Experiences with misgendering: Identity misclassification of transgender spectrum individuals'Self and Identity (14) 2014, afl. 1, p. 51-74.
5. E. Fosch-Villaronga, A. Poulsen, R.A. Søraa & B.H.M. Custers, 'A little bird told me your gender: Gender inferences in social media', Information Processing & Management (58) 2021, afl. 3, 102541.
6. J. Zhao, T. Wang, M. Yatskar, V. Ordonez, & K.W. Chang, 'Men also like shopping: Reducing gender bias amplification using corpus-level constraints', arXiv preprint arXiv:1707.09457.
7. D. Leufer, ‘Computers are binary, people are not: how AI systems undermine LGBTQ identity’, Access Now 6 april 2021.
8. Europese Commissie, ‘Voorstel
voor een Verordening van het Europees Parlement en de Raad tot vaststelling van geharmoniseerde regels betreffende artificiële intelligentie (wet op de artificiële intelligentie) en tot wijziging van bepaalde wetgevingshandelingen van de Unie’, COM(2021) 206 final.
9. J. Vincent, ‘Automatic gender recognition tech is dangerous, say campaigners” it’s time to ban it’, The Verge 14 april 2021.

Terug naar nieuwsoverzicht