Zijn algoritmes discriminerend?

Algoritmes, elke dag hebben wij met ze te maken. Ze maken keuzes, zoals welk nieuws we voorgeschoteld krijgen en welke nieuwe muziek we te horen krijgen. Echter worden algoritmes ook ingezet voor nog veel belangrijkere zaken. Zo bepalen algoritmes welke functies een persoon te zien krijgt en of een crimineel vrij mag komen of niet. We vertrouwen deze techniek volledig en gebruiken het dagelijks, maar hoe betrouwbaar zijn algoritmes eigenlijk?

Volgens Data Scientist Meike Zehlike zijn algoritmes zeker niet 100% betrouwbaar. Op de vraag ‘Kunnen algoritmes goede en objectieve beslissingen maken?’ antwoorde Zehlike namelijk dat algoritmes niet zelfstandig denken. Data is niet neutraal, zitten vol met stereotypen en concepten uit onze eigen cultuur. Als het erop aan komt worden algoritmes geprogrammeerd door mensen. Dit betekend dat de zogenaamde ‘zelfdenkende algoritmes’ eigenlijk een weerspiegeling zijn van de ideeën en idealen van de maatschappij waarin ze zijn gecreëerd, ze weerspiegelen de menselijke vooroordelen.

Gearresteerd door een algoritme
Een voorbeeld van een discriminerend algoritme is het COMPAS-algoritme. Deze wordt door verschillende gevangenissen wereldwijd gebruikt om te bepalen of een gedetineerde vrij moet komen, of juist langer vast moet blijven zitten. Glenn Rodriquez was slachtoffer van dit algoritme. Nadat hij zijn straf van 26.5 jaar had uitgezeten was het de bedoeling dat hij weer vrij zou komen. Toch gebeurde dit niet.

Justitie wilde, via een test, bepalen of Rodriquez daadwerkelijk vrij moest komen. Deze test werd door een algoritme gehaald en deze uitslag was doorslaggevend. In deze uitslag stond dat Rodriquez nog niet terug kon in de maatschappij. De reden hiervoor was niet duidelijk.

Dit is volgens advocate Cynthia Conti-Cook het probleem aan dit algoritme. Er wordt niet duidelijk gemaakt wat de exacte reden is waarom een gedetineerde de test niet haalt. Je krijgt alleen een uitslag, zonder verklaring. Het algoritme is niet transparant en daarom is er niet te achterhalen of er vooroordelen in zijn opgenomen. Rodriquez is een getinte man en er bestaat een goede kans dat dat de reden is dat hij niet direct vrijkwam.

Julia Angwin is onderzoeksjournalist en doet onderzoek naar misdaadcijfers. Zij vergelijkt de voorspellingen die worden gedaan door algoritmes met de realiteit. Deze algoritmes zijn zo geprogrammeerd dat ze zouden kunnen voorspellen of iemand, nadat hij of zij is vrijgekomen, weer een misdaad zal gaan plegen in de eerste twee jaar na vrijlating. Ze heeft de gegevens van 18.000 criminelen opgevraagd. Slechts 60% van de voorspellingen bleken te kloppen, dat is dus net iets meer dan de helft.

Het algoritme maakte niet alleen verkeerde voorspellingen, maar maakte racistische voorspellingen. Volgens het algoritme maken getinte mannen twee keer zoveel kans om opnieuw een misdaad te plegen, dan blanke mannen. Echter bleken de feiten juist iets geheel anders aan te geven. Ongeacht welke huidskleur de mannen hadden, de kansen op een terugval waren even groot.  

De gevolgen van deze voorspellingen zijn enorm. Ze kunnen ervoor zorgen dat iemand, puur door een algoritme, langer vastzit of eerder wordt opgepakt. Hoe ethisch verantwoord is dit?

Algoritmes in het bedrijfsleven  
We weten allemaal dat onze sociale mediakanalen worden bestuurd door algoritmes. Zij bepalen wat je wel en niet te zien krijgt. Hier lijken we vrede mee te hebben, want we krijgen op onze feed te zien wat onze interesses zijn, toch?

Maar wat als het niet langer gaat om welke influencers en kattenfilmpjes je te zien krijgt, maar ook welke vacatures je te zien krijgt?

Volgens Ruha Benjamin, hoofddocent van Afro-American Studies aan Princeton University, zijn vacaturesites racistisch en seksistisch. Dit vertelde Benjamin tijdens een lezing in de Rode Hoed. Er wordt niet gekeken naar de objectieve beste match, maar naar wie er al werken in het bedrijf. Vacatures en reclames worden getarget doormiddel van een algoritme en deze functioneert op bestaande patronen. Hij kijkt naar de mensen die succes hebben in het bedrijf, naar mensen die gelijk werden aangenomen. Op basis van die gegevens zoekt het algoritme nieuwe profielen die overeenkomen met de successen in het bedrijf.

Dit resulteert in het feit dat als 80% in het bedrijf man is, het algoritme automatisch zoekt naar mannen voor de functie. Dit geldt ook voor ras. Als bijna het complete bedrijf blank is, zullen voornamelijk blanke mensen de vacature te zien krijgen.

Als bedrijven blijven vertrouwen op algoritmes zullen er nooit meer vrouwen aan de top komen en is een multiculturele bedrijfscultuur iets waar we alleen van kunnen dromen.

Volgens Ruha Benjamin moeten deze keuzes zeker niet door een algoritme worden gemaakt, maar ook niet door de mens zoals deze nu is. De mens is ook discriminerend, het algoritme weerspiegelt slechts de vooroordelen van de maatschappij. Als we deze discriminerende algoritmes tegen willen gaan moeten we niet de algoritmes herprogrammeren, maar moeten we de mensheid herprogrammeren.

Ben je geïnteresseerd in het discriminerende algoritme en wil je hier meer over lezen? Hou dan mijn artikelen in de gaten!

Geef een reactie

Het e-mailadres wordt niet gepubliceerd. Vereiste velden zijn gemarkeerd met *