Personeel vinden via algoritmes: ook die kunnen discrimineren

Bedrijven maken steeds vaker gebruik van algoritmes om personeel te vinden en te screenen. Dit klinkt wellicht handig en mooi, maar er is ook een keerzijde. Doordat de algoritmes veelal gemaakt zijn door mensen, kunnen ze ook de vooroordelen van de mens over. Dit kan dus ook betekenen dat vrouwen minder kans hebben op een baan, wanneer dit een vooroordeel is van een bepaald algoritme.

In het verleden is ook al gebleken dat software kan discrimineren. Zo ging de gezichtsherkenningssoftware de mist in bij het identificeren van vrouwen en etnische minderheden. Maar ook de recruitmenttools van Amazon bleken een voorkeur te hebben voor mannen, doordat mannen traditioneel het bedrijf al domineerden. “Een algoritme an sich is niet bevooroordeeld”, zegt Remy Gieling, eigenaar van ki-platform Ai.nl en auteur van ‘Ontdek de groeikansen van AI.’ Het gaat om de data waarmee het wordt gevoed.

De systemen van Amazon werden bijvoorbeeld gevoed door de cv’s van witte mannen die al werkzaam waren voor het bedrijf. Amazon heeft hierop wel zijn algoritmes aangepast, veel andere bedrijven zijn zich echter niet altijd bewust van de beperktheid van hun data en de gevolgen hiervan voor algoritmes.

Zo gaat er ook bij algoritmes voor vacaturesites snel iets fout, aangezien die vaak gericht zijn op zoveel mogelijk kliks genereren. Dit heeft tot gevolg dat vooral mannen een advertentie voor taxichauffeur zien en stereotypering dus snel wordt uitvergroot. Dit soort tools zijn niet transparant in hoe ze werken en daardoor ook niet te controleren, terwijl hierbij juist vaak van sprake is vooroordelen.

KCA in vogelvlucht

De katalysator binnen het arbeidsrecht

KCA ziet zichzelf bij het vinden van oplossingen als katalysator.

De perfecte mediator

Binnen conflicten en het vinden van oplossingen ligt de toegevoegde waarde van KCA.

De verbinder en bruggenbouwer

KCA is de verbindende factor bij verschillende conflicten.