AI som skriver dina jobbannonser – är det ett problem?

Allt fler företag använder idag AI för att skriva sina jobbannonser. Det går snabbt, det är billigt och resultatet ser ofta professionellt ut. Men vad händer egentligen när en algoritm avgör hur en tjänst beskrivs – och vilka ord som används för att locka sökande? Kritiker menar att AI-genererade annonser riskerar att bli opersonliga, missvisande eller till och med diskriminerande. Andra ser det som ett naturligt steg i digitaliseringen av rekrytering. I den här artikeln tittar vi närmare på vad AI faktiskt gör med jobbannonser, och om det verkligen är ett problem – eller en möjlighet.

Så fungerar AI-verktyg för jobbannonser

De senaste åren har en rad digitala verktyg dykt upp som lovar att ta det tunga jobbet med att skriva jobbannonser. Verktyg som Textio, ChatGPT och Workable används idag av allt från nystartade företag till stora koncerner. Men hur fungerar de egentligen under ytan?

Från tomma rutan till färdig annons

Processen börjar nästan alltid på samma sätt: en rekryterare eller HR-ansvarig matar in grundläggande information om tjänsten. Det kan handla om jobbtitel, arbetsuppgifter, krav på utbildning och önskade egenskaper. Därefter tar AI:n vid och genererar ett utkast, ofta på under ett par sekunder. Modellen har tränats på miljontals befintliga jobbannonser och vet därför hur en typisk annons för exempelvis en mjukvaruutvecklare eller en marknadschef brukar se ut och låta. Resultatet är en text som är grammatiskt korrekt, strukturerad och till synes professionell.

AI & Maskininlärning

Hur AI:n väljer sina ord

Det intressanta händer i ordvalet. Moderna AI-verktyg är inte bara textgeneratorer, de är också optimerade för att locka rätt kandidater. Textio, till exempel, analyserar i realtid hur specifika formuleringar historiskt sett har påverkat ansökningsfrekvensen. Ord som ”rockstjärna” eller ”ninja” har visat sig avskräcka kvinnliga sökande, medan alltför formella fraser kan minska intresset bland yngre kandidater. Verktyget föreslår då alternativa formuleringar baserat på detta mönster.

Det finns alltså flera lager i hur AI arbetar med en jobbannons:

  • Den genererar grundtexten utifrån inmatad information
  • Den analyserar tonalitet och språklig inkludering
  • Den jämför texten med liknande annonser i sin databas
  • Den föreslår förändringar för att öka synligheten i sökmotorer

En spegel av historiska mönster

En viktig aspekt att förstå är att AI inte skapar något från grunden. Den speglar det den har lärt sig, och det den har lärt sig är de annonser som redan existerar. Det innebär att gamla strukturer och formuleringar lätt reproduceras, ofta utan att någon ifrågasätter dem. Om branschen historiskt sett har använt ett visst språk för att beskriva en teknisk roll, är chansen stor att AI:n gör detsamma.

Det är varken medvetet eller illvilligt, det är helt enkelt ett resultat av hur maskininlärning fungerar. Modellen optimerar för det som har ”fungerat” tidigare, inte för det som är mest rättvist eller inkluderande i dag. Det är just där som diskussionen om AI-genererade jobbannonser börjar bli intressant, och mer komplex än den kanske verkar vid första anblick.

Riskerna ingen pratar om

Det är lätt att fastna i det uppenbara när man diskuterar AI och rekrytering. Att det kan bli opersonligt, att det låter robotaktigt. Men de verkliga riskerna med AI-genererade jobbannonser är subtilare och mer svårfångade än så.

Diskriminering inbyggd i systemet

En av de mest oroande aspekterna handlar om hur AI omedvetet kan reproducera och förstärka diskriminering. Amazon fick 2018 lägga ned ett internt AI-verktyg för rekrytering efter att det visade sig nedprioritera kvinnliga sökande. Systemet hade tränats på tio års historiska anställningsdata, och eftersom branschen under den perioden dominerades av män, lärde sig AI:n att manliga profiler var att föredra. Samma logik gäller för jobbannonser. Om träningsdatan innehåller formuleringar som historiskt sett lockat en viss demografisk grupp, kommer AI:n att återanvända dem, utan att någon människa aktivt har fattat det beslutet.

AI & Maskininlärning

Ansvaret som försvinner

En annan risk är mer organisatorisk till sin natur. När en människa skriver en jobbannons finns det alltid någon som kan hållas ansvarig för innehållet. När AI:n gör det, suddas det ansvaret ut. Vem äger texten? Vem svarar om annonsen visar sig vara missvisande eller exkluderande? I dagsläget saknas tydlig lagstiftning kring detta i de flesta länder, inklusive Sverige. Det skapar en gråzon där företag kan gömma sig bakom algoritmen och hävda att de inte medvetet har formulerat något på ett visst sätt.

Det finns också en rad mer konkreta fallgropar som sällan diskuteras öppet:

  • Annonser kan bli vaga eller generiska när AI saknar tillräcklig intern information om rollen
  • Verktygens databaser uppdateras inte alltid i takt med arbetsmarknadens förändrade krav
  • Automatiserade optimeringar för sökmotorer kan prioritera synlighet framför ärlighet
  • Kandidater kan lockas av en ton eller kultur i annonsen som inte alls stämmer med verkligheten

När annonsen lovar något företaget inte kan hålla

Den sistnämnda punkten förtjänar att lyftas särskilt. AI-verktyg är tränade på att skriva engagerande och lockande text. De är optimerade för att få kandidater att söka. Men de vet ingenting om hur det faktiskt är att jobba på just det företaget. Resultatet kan bli annonser som målar upp en bild av en öppen, modern och inkluderande arbetsplats, även om verkligheten ser annorlunda ut. Det är inte lögn i juridisk mening, men det är en form av vilseledning som kan leda till felrekryteringar, besvikna anställda och i förlängningen högre personalomsättning.

Det handlar alltså inte bara om att texten låter fel. Det handlar om vad som händer när ett verktyg utan omdöme tar över en uppgift som kräver just det.

Framtidens rekrytering – människa eller maskin?

Frågan är inte längre om AI kommer att användas i rekrytering. Det gör den redan, i stor skala och i allt fler branscher. Den verkliga frågan är hur vi väljer att använda den, och var vi drar gränsen för vad vi låter algoritmen bestämma.

Ett verktyg, inte en ersättare

Det finns en berättigad oro för att AI på sikt ska ta över hela rekryteringsprocessen, från annons till anställningsbeslut. Men de flesta experter inom HR-teknik är tydliga med att det mest realistiska och önskvärda scenariot är ett samarbete. AI gör sig bäst som ett stöd, inte som en beslutsfattare. Den kan spara tid, flagga för språkliga fallgropar och säkerställa att en annons är strukturerad och lättläst. Men den kan inte förstå ett företags kultur, känna av vad en arbetsgrupp behöver just nu eller avgöra om en kandidat kommer att trivas på lång sikt. Det är förmågor som kräver mänskligt omdöme.

Lagstiftningen som ännu inte hängt med

En av de stora utmaningarna framåt handlar om reglering. EU:s AI-förordning, som trädde i kraft 2024, klassificerar AI-system som används vid rekrytering som högrisk. Det innebär krav på transparens, mänsklig tillsyn och dokumentation. I praktiken betyder det att företag inte kan använda AI-verktyg i rekrytering utan att kunna förklara hur de fungerar och visa att en människa har granskat resultaten. Det är ett steg i rätt riktning, men regelverket är fortfarande ungt och hur det tillämpas i praktiken återstår att se. Många företag är ännu inte medvetna om att de omfattas.

AI & Maskininlärning

På policynivå finns det flera frågor som behöver besvaras under de kommande åren:

  • Ska kandidater ha rätt att veta om en annons är AI-genererad?
  • Vem bär juridiskt ansvar om en annons bedöms som diskriminerande?
  • Hur granskas AI-verktyg för bias innan de når marknaden?
  • Vilka krav ska ställas på transparens i offentlig sektor?

Det mänskliga som inte kan automatiseras

Mitt i allt det tekniska finns det något som lätt glöms bort. En jobbannons är ofta det första intrycket en kandidat får av ett företag. Den sätter tonen, signalerar värderingar och berättar något om hur organisationen ser på sina medarbetare. Det är ett kommunikationsakt lika mycket som ett informationsdokument. Och kommunikation på den nivån kräver en avsändare med faktisk förståelse för vad som förmedlas.

AI kan skriva en korrekt annons. Den kan till och med skriva en bra annons. Men den kan inte skriva en ärlig annons, om ingen människa tar ansvar för att se till att den faktiskt stämmer. Det ansvaret kan vi inte automatisera bort, hur effektiva verktygen än blir.

FAQ

Är AI-genererade jobbannonser lagliga i Sverige?

Ja, men EU:s AI-förordning kräver att företag kan visa att en människa har granskat innehållet och att verktyget är transparent i hur det fungerar.

Kan AI-verktyg skapa diskriminerande jobbannonser?

Ja, om träningsdatan speglar historiska mönster kan AI omedvetet reproducera formuleringar som utesluter vissa grupper, utan att någon aktivt har fattat det beslutet.

Ska kandidater få veta om en annons är skriven av AI?

Det finns ännu ingen lag som kräver det, men frågan diskuteras aktivt inom EU och kan mycket väl bli ett krav inom de närmaste åren.

Fler nyheter