AI i rekrytering: Ny teknik, gammal bias?
2025-05-20
AI lyfts ofta fram som lösningen på våra mänskliga snedsteg, inte minst när det gäller att skapa en mer rättvis rekryteringsprocess. Men vad händer när algoritmerna lär sig av historiska mönster i stället för våra ideal? I den här artikeln reder vi ut varför AI inte alltid är så objektiv och vad arbetsgivare behöver se upp med.
När magkänsla får styra rekryteringsbeslut riskerar vi att omedvetna bias smyger sig in. Därför har AI och automatisering börjat ses som efterlängtade verktyg för att göra urval mer rättvisa, mer datadrivna och mer objektiva. AI i rekrytering kan sålla CV:n, analysera språkbruk och rangordna kandidater – snabbt, skalbart och ”neutralt”.
Men eftersom att AI i rekrytering uppfattas som neutral och rationell, finns risken att vi sänker garden. Bakom tekniken döljer sig också ett faktum: AI är inte objektiv. Den är en spegel av den data den tränats på – data som bär på just de mänskliga mönster, preferenser och bias som vi försöker motarbeta. I själva verket kan AI alltså förstärka våra fördomar i stället för att motverka dem.
💡 Läs mer: Bias i rekrytering: Hur undviker vi undermedvetna fällor?
AI lär sig av vår historia – inte våra ideal
AI-modeller tränas på stora mängder data. I rekrytering innebär det ofta tidigare CV:n, anställningshistorik eller urvalskriterier. Problemet? Den historiska datan är sällan fri från bias.
Om tidigare rekryteringsmönster gynnat män framför kvinnor, svenska namn framför utländska eller extroverta framför introverta, då lär sig AI:n också att koppla dessa egenskaper till framgång. Resultatet kan bli en skenbart objektiv process som i själva verket reproducerar gårdagens snedvridna beslut.
Exempel: AI som favoriserar vita män
Flera uppmärksammade fall visar hur snabbt AI kan börja reproducera mänskliga fördomar om systemen tränas på snedvriden data.
Ett välkänt exempel kommer från Amazon. Företaget testade en AI-baserad rekryteringsmotor som började missgynna kvinnliga kandidater. Anledningen? Systemet hade tränats på tio års rekryteringsdata, där majoriteten av anställda var män. Resultatet: CV:n som innehöll ord som ”women’s chess club” straffades ner, medan manskodade meriter gynnades.
Amazon valde att lägga ner systemet, men exemplet visar hur snabbt AI kan börja reproducera strukturella snedvridningar om datan inte granskas noggrant. Detta är inte ett enskilt fall. Så här kommer ett par till:
En studie från University of Washington 2024 visade att tre avancerade AI-modeller favoriserade namn associerade med vita personer 85 % av gångerna, medan namn associerade med svarta kvinnor endast föredrogs 11 % av gångerna. Svarta män föredrogs aldrig framför vita män.
En australisk studie från maj 2025 visar att AI-baserade intervjusystem kan ha upp till 22 % fel i transkriberingar för personer med brytning eller talpåverkan, vilket kan leda till diskriminering.
Risk för skenbar objektivitet
Det största problemet är inte att AI ibland förstärker bias, utan att vi luras att tro att den inte gör det. Tekniken skapar en illusion av rättvisa. Men utan insyn i hur algoritmerna fungerar, eller vilka data de tränats på, blir det svårt att granska besluten.
Och när AI:n paketerar sina rekommendationer som fakta, snarare än tolkningar, ökar risken för att vi fattar beslut på felaktiga grunder.
Så minskar du risken för AI-bias i rekrytering
Att sluta använda AI är inte lösningen. Men det kräver ökad medvetenhet och skärpta krav på både tekniken och användningen av den. Här är några sätt att minska risken för bias:
- Välj etiskt granskade AI-verktyg
Säkerställ att leverantören har testat och dokumenterat hur algoritmerna påverkar olika grupper. - Ställ krav på transparens
Du bör kunna få svar på: Vad tränades modellen på? Vilka kriterier används? Hur kan vi påverka urvalet? - Kombinera AI med mänsklig bedömning
Låt AI vara ett beslutsstöd, inte ensam domare. Mänskliga perspektiv behövs för att tolka resultat och fånga nyanser. - Testa och följ upp effekter
Fungerar AI:n lika bra för olika kön, åldrar, namn eller bakgrunder? Mät effekterna löpande. - Utbilda rekryterare i både mänsklig och teknisk bias
Förståelsen för hur bias fungerar – både i oss själva och i systemen vi använder – är avgörande för att motverka dem.
Om vi använder AI rätt kan det hjälpa oss bli bättre
AI har potential att effektivisera och förbättra rekryteringsprocesser. Men den är inte immun mot våra snedvridna mönster. Tvärtom riskerar den att förstärka dem, om vi inte granskar både datan, algoritmerna och våra egna förväntningar.
Att använda AI kräver därför ett större – inte mindre – ansvar. Tekniken kan inte kompensera för bristande medvetenhet. Men rätt använd, i kombination med mänskligt omdöme, kan den hjälpa oss fatta bättre och mer rättvisa beslut.
💡 Läs mer: Bias i rekrytering: Hur undviker vi undermedvetna fällor?
