hier komen promoties & acties

Joy Buolanwini

Baanbrekend onderzoeker, activist en artiest die de sociale implicaties van bias in artificiële intelligentie aankaart

Dr. Joy Buolamwini (1989-) is een computerwetenschapper, poëet en digitaal activist in de voorhoede van een beweging die bias in artificiële intelligentie (AI) aankaart en ervoor pleit deze ethisch, inclusief en verantwoordelijk te maken.

Buolamwini heeft een bachelordiploma in Computer Science (2012) van het Georgia Institute of Technology (VS), waar ze zich specialiseert in zogenaamde Health Informatics, ook wel zorginformatica genoemd. Deze onderzoekstak richt zich op het toepassen van ICT in de zorg. Ze behaalt ook een masterdiploma in Learning and Technology aan de befaamde Britse Oxford University en een masterdiploma in Media Arts & Sciences (2017) aan het gerenommeerde Amerikaanse Massachusetts Institute of Technology (MIT). Aan het MIT verwerft Buolamwini ook haar doctoraat (2022) in Media Arts & Sciences. 

Momenteel is Joy Buolamwini als MAS Affiliated Research Assistant betrokken bij het MIT Media Lab, waar ze als computerwetenschapper werkt aan het identificeren van vooringenomenheid in algoritmen en aan het ontwikkelen van praktijken voor verantwoording tijdens het ontwerp ervan. Buolamwini geldt als een pionier wat betreft de ontwikkeling van technieken en technologieën die leiden tot meer transparantie in het gebruik van gezichtsanalyse-technologie wereldwijd.

De Ghanees-Amerikaans-Canadese Buolamwini wordt geboren in de Canadese stad Edmonton in Alberta, brengt haar vroege jaren door in Ghana, maar groeit vanaf haar vier jaar op in Oxford, Mississippi in de VS. Al op de leeftijd van negen jaar interesseert ze zich voor HTML-codering. Naast haar interesse en excellentie in STE(A)M, mag ze zich jarenlang een gedegen polsstokspringer noemen (en koestert ze heimelijk nog steeds Olympische ambities).

Onderzoek naar bias in de AI

Als laatstejaarsstudent aan MIT wil Buolamwini voor een klasproject een spiegel maken die haar elke ochtend zou kunnen inspireren. Ze wil hiervoor software gebruiken die, als het haar gezicht registreert, er een beeltenis van een van haar helden, zoals Serena Williams bijvoorbeeld, voor in de plaats zet. Buolamwini botst echter op een probleem: wanneer ze, als zwart vrouw, in de spiegel kijkt, detecteert de (zogenaamd neutrale) software haar gezicht niet. Meer nog, de software reageert pas als ze haar gezicht bedekt met een wit masker.

Daarop wijdt Buolamwini het onderzoek voor haar masterproef aan het onderwerp. In haar onderzoek legt ze bloot dat er vooringenomenheid is geslopen in de gezichtsherkenningssystemen van grote bedrijven zoals onder meer Google, Amazon en Microsoft. De gebruikte AI-systemen zijn namelijk quasi exclusief getest op datasets met gezichten van witte mannen. Gezichtsherkenning van witte mannen gaat dan ook vlot, gezichtsherkenning bij iedereen die dat niet is een pak slechter. De gebruikte software vindt het voornamelijk moeilijk om vrouwen met een donkere huidskleur te identificeren.

AI-systemen krijgen vorm door de prioriteiten en vooroordelen – bewust en onbewust – van de mensen die ze ontwerpen, concludeert Buolamwini, een fenomeen dat ze ook de ‘coded gaze’ noemt. Vooringenomenheid leidt tot uitsluiting en discriminatie, of houdt bestaande vooroordelen in de samenleving mee in stand. In haar doctoraat, Facing the Coded Gaze with Evocative Audits and Algorithmic Audits (2022) diept ze de thematiek verder uit. Ook hierna blijft dit een belangrijk speerpunt in haar werk. 

De bevindingen van Buolamwini blijven niet onbeantwoord; ze bereiken ook de organisaties bij wie ze de bias vaststelt. Onder meer Microsoft neemt haar bevindingen ter harte en realiseert verbeteringen aan de gebruikte software. Andere organisaties, zoals Amazon, zijn minder enthousiast met de 'beschuldigingen'. Dat sterkt Buolamwini enkel in haar inspanningen om te streven naar een culturele verschuiving met meer rechtvaardige en verantwoordelijke technologieën.

Als activist bias in AI aankaarten en tegengaan

Buolamwini beseft dat bias in AI wijdverspreid is en een impact heeft op mensen via heel diverse aspecten: word je geselecteerd in een sollicitatieproces, krijg je een lening, word je door politiecamera’s als verdacht gelabeld, et cetera. Ze voelt de noodzaak voor een bredere beweging die deze problematiek aankaart, in vraag durft stellen en op zoek gaat naar oplossingen. 

Daarop richt Buolamwini in 2016 de Algorithmic Justice League (AJL) op, een organisatie waar onderzoekers en activisten samenwerken om de AI-industrie ter verantwoording te roepen. Concrete doelstellingen: het onthullen, populariseren en oplossen van AI-ethische problemen alsook het (helpen) creëren van een wereld met meer rechtvaardige en verantwoordelijke technologie. 

AJL brengt de vooringenomenheid in AI onder de aandacht via provocerende media en interactieve tentoonstellingen; wil ruimte bieden aan mensen om hun zorgen en ervaringen met zogenaamde ‘gecodeerde discriminatie’ te uiten; en streeft ernaar concrete praktijken te ontwikkelen die voor verantwoording moeten zorgen tijdens de ontwerp-, ontwikkelings- en implementatiefasen van gecodeerde systemen.

In naam van de Algorithmic Justice League getuigt Buolamwini onder meer voor het Amerikaanse congres en pleit ze namens specifieke gemeenschappen van kleur die zijn geschaad door gezichtsherkenningstechnologie. AJL gebruikt storytelling als centrale manier om het bredere publiek bewust te maken van bias bij AI. 

Naast gezichtsherkenning krijgen ook andere toepassingen van AI aandacht binnen het activisme van de Algorithmic Justice League. Zo is er een sectie op hun website,Voicing Erasure, gewijd aan vooroordelen van spraaksystemen. Uit onderzoek van Buolamwini en haar collega’s blijkt namelijk dat ook spraakherkenningssystemen raciale vooroordelen met zich meenemen: ze ondervinden de meeste problemen met de uitspraak en intonatie van zwarte Engelstalige sprekers doordat de software onvoldoende getest is met mensen van kleur. 

Ook naast haar werk met en voor AJL is Buolamwini geen stilzitter. Zo lanceert ze in haar studententijd het initiatief Code4Rights (2014) dat jonge mensen begeleidt in het samenwerken met lokale organisaties om zinvolle technologie voor hun gemeenschap te ontwikkelen, bouwt ze in haar opleidingstijd bij de Computer Society of Zambia in Lusaka (2013) een informatica-leer-initiatief uit dat jonge mensen in staat moet stellen makers van technologie te worden, en meer van dat. 

In 2018 lanceert Buolamwini, in samenwerking met het Georgetown Law Centre on Privacy and Technology, de Safe Face Pledge dat bedrijven aanspoort zich publiekelijk in te zetten om het misbruik van gezichtsanalyse-technologie te verminderen en het dodelijke gebruik van dergelijke technologie (door bijvoorbeeld robots op te leiden via AI voor de politie of bij beveiligingsfirma’s) te verbieden.

Op een artistieke manier bias in AI uitdagen

Dr. Joy Buolamwini is niet enkel onderzoeker. Ze noemt zichzelf ook wel ‘a poet of code', een dichter van de code. Door middel van spoken word-poëzie brengt ze wetenschappelijke issues, en meer specifiek de schadelijke impact van bias bij AI, op toegankelijke, viscerale manieren over naar een breed publiek. In haar performance 'AI, Ain't I a Woman' laat ze bijvoorbeeld zien hoe gezichtsherkenning beroemde zwarte vrouwen zoals Serena Williams, Oprah Winfrey en Michelle Obama verkeerd interpreteert.

Buolamwini valt meermaals in de prijzen voor haar werk. Ze is ook een veelgevraagd internationaal spreker rond de problematiek van vooringenomenheid bij de ontwikkeling en het gebruik van AI. Zo mocht Buolamwini al spreken voor het World Economic Forum en de Verenigde Naties en is ze lid van het Global Tech Panel van de Europese Commissie. In 2019 wordt Buolamwini door het Amerikaanse Fortune Magazine opgenomen in hun lijst van "World's 50 Greatest Leaders". Het tijdschrift beschrijft haar daar - niet ontoepasselijk - als "het geweten van de AI-revolutie".



In de pers:

Meer weten?

Je kan Joy Buolamwini ook volgen op Twitter, Instagram of Youtube.

Aanraders uit de RoSa-bibliotheek:

  • Unmasking AI. A Story of Hope and Justice in a World of Machines / Joy Buolamwini, 2023 - RoSa ex.nr.: verwacht in de RoSa-bib
  • More than a Glitch Confronting Race, Gender, and Ability Bias in Tech / Meredith Broussard, 2023 - RoSa ex.nr.: verwacht in de RoSa-bib
  • The Digital Closet. How the Internet Became Straight  / Alexander Monea, 2023 - RoSa ex.nr.: verwacht in de RoSa-bib
  • Sex and Gender Bias in Technology and Artificial Intelligence Biomedicine and Healthcare Applications / Davide Cirillo, Silvina Catuara Solarz & Emre Guney (Eds.), 2022 - RoSa ex.nr.: verwacht in de RoSa-bib
  • Algorithms of Oppression. How Search Engines Reinforce Racism / Safiya Umoja Noble, 2020 - RoSa ex.nr.: verwacht in de RoSa-bib