Nowy kurs: Docker od podstaw. Zarządzaj kontenerami i twórz własne obrazy.

AI w Rekrutacji - od CV do Algorytmu

Alina Sieradzińska
Alina Sieradzińska
28 sierpnia 20254 min czytania

W Polsce zastosowanie AI w procesach rekrutacyjnych szybko przestało być egzotyką – dziś niemal co druga firma wykorzystuje narzędzia do wstępnej preselekcji kandydatów, a kolejne planują wdrożenie ich w ciągu najbliższych miesięcy. Choć z jednej strony automatyzacja wydaje się sposobem na szybsze i bardziej obiektywne filtrowanie setek CV, z drugiej rodzi ważne pytania: czy algorytm nie powiela starych uprzedzeń? Jak chronić swoją prywatność, zwłaszcza gdy mowa o danych biometrycznych? Aby zrozumieć, dlaczego warto otworzyć się na AI, a jednocześnie nie stracić kontroli nad własnymi danymi, przyjrzyjmy się kilku kluczowym aspektom i ramom prawnym.

Obraz główny AI w Rekrutacji - od CV do Algorytmu

Już w 2024 roku raport ManpowerGroup wskazywał, że aż 39% organizacji w Polsce korzysta z rozwiązań AI w HR, a kolejnych 21% deklaruje gotowość do wdrożenia w ciągu najbliższych dwunastu miesięcy. W praktyce oznacza to, że większość kandydatów nie trafia dziś od razu do człowieka, lecz do algorytmu, który na wstępie skanuje CV pod kątem odpowiednich słów-kluczy i ujednolica całość informacji w ramach swojego modelu. Z perspektywy kandydatów kluczowe jest zatem przygotowanie dokumentu w taki sposób, aby był czytelny zarówno dla maszyny, jak i dla rekrutera. W badaniu Pracuj.pl z 2024 roku aż 61% ankietowanych przyznało, że rekomendacje AI pomogły im odnaleźć oferty, o których sami by nie pomyśleli – algorytmy czasem wychwytują subtelne powiązania między doświadczeniem a potrzebami firmy, których człowiek mógłby nie dostrzec.

Istotne jest jednak to, co dzieje się „pod maską” systemów AI. Narzędzia używane w Polsce nie opierają się na chaotycznym zestawie reguł, lecz na dużych zbiorach danych treningowych. Jeśli firma w przeszłości preferowała absolwentów konkretnego kierunku czy uczelni, algorytm uczy się na tych wzorcach i może nieświadomie faworyzować podobnych kandydatów. W efekcie te same uprzedzenia, które dotyczyły pracy ludzkiego rekrutera – np. silniejsze preferowanie absolwentów jednej uczelni – mogą przenieść się do automatycznego procesu. Dlatego rośnie znaczenie przeprowadzania tzw. testów na uprzedzenia (bias testing), zwłaszcza w agencjach HR czy korporacjach, które inwestują w narzędzia AI. Nawet jednak najlepszy algorytm bez regularnych audytów może gromadzić i powielać nierówności.

Szczególnej uwagi wymaga także ochrona danych osobowych – w tym danych wrażliwych, jak dane biometryczne. Zgodnie z art. 9 ust. 2 lit. a RODO, przetwarzanie danych biometrycznych – takich jak analiza mimiki czy głosu – wymaga wyraźnej zgody kandydata. W praktyce oznacza to konieczność zastosowania transparentnych klauzul informacyjnych w formularzach rekrutacyjnych. Dodatkowo kandydat ma prawo do uzyskania informacji, sprostowania, a nawet usunięcia danych po zakończeniu procesu rekrutacyjnego (art. 15–17 RODO). Jest to szczególnie istotne w świetle AI Act, który klasyfikuje systemy analizujące emocje kandydata w kontekście pracy jako zakazane (art. 5 ust. 1 lit. f), chyba że są stosowane ze względów medycznych lub bezpieczeństwa.

Z kolei AI Act (UE 2024/1689) wprowadza nowe obowiązki wobec systemów AI wykorzystywanych w HR. Zgodnie z art. 6 ust. 2 oraz załącznikiem III, narzędzia do preselekcji kandydatów klasyfikowane są jako systemy wysokiego ryzyka. Oznacza to m.in. obowiązek przygotowania dokumentacji technicznej (art. 11–13), przeprowadzenia oceny zgodności i testów jakości danych, a także zapewnienia nadzoru człowieka nad decyzjami AI (art. 14). Kluczowym wymogiem jest również możliwość wglądu do systemu przez zainteresowane osoby – zarówno w zakresie danych, jak i sposobu działania algorytmu.

Niedozwolone jest natomiast wykorzystywanie systemów, które na podstawie danych biometrycznych (mowy, mimiki, mikroekspresji) **wnioskują o emocjach lub cechach osobowości kandydata – jeśli odbywa się to w kontekście zawodowym (**art. 5 ust. 1 lit. f oraz motyw 44 AI Act). Praktyka taka może być uznana nie tylko za naruszenie AI Act, ale również art. 11[1] Kodeksu pracy (ochrona dóbr osobistych pracownika). Rekruterzy powinni więc upewnić się, że systemy nie zawierają funkcjonalności zakazanych – jak np. automatyczne rozpoznawanie emocji z głosu i mimiki – lub że zostały one trwale wyłączone.

W tym kontekście szczególnie ważne jest świadome projektowanie narzędzi. System może zostać uznany za zgodny z przepisami, jeżeli: – nie przetwarza danych biometrycznych w celu wyciągania wniosków o emocjach, – nie analizuje stanu psychicznego lub cech osobowości, – umożliwia pełny nadzór człowieka i weryfikację decyzji, – zawiera przejrzystą dokumentację i ocenę zgodności.

Dlatego przy wdrażaniu AI do rekrutacji warto zrezygnować z funkcjonalności typu „detekcja emocji”, nawet jeśli są one technicznie dostępne. Alternatywą są systemy analizujące wyłącznie treść odpowiedzi, zarejestrowane wypowiedzi głosowe oraz transkrypcję, bez interpretacji stanów emocjonalnych.

Świadome korzystanie z AI w HR może przynieść kandydatom wiele korzyści – od lepszego dopasowania ofert po skrócenie czasu odpowiedzi. Jednocześnie warto pamiętać o swoich prawach: do zgody, do informacji, do sprzeciwu i do oceny ludzkiej. AI może być sprzymierzeńcem, jeśli pozostaje pod realnym nadzorem człowieka i w granicach prawa.

Zrozumienie mechanizmów AI oraz ram prawnych – RODO i AI Act – to dziś nie tylko obowiązek firm, ale i szansa dla kandydatów na bardziej sprawiedliwą i bezpieczną rekrutację.

Tagi

#AI#Rekrutacja#HR Tech#RODO#AI Act

Zapisz się na nasz newsletter

Otrzymuj regularne aktualizacje, specjalne oferty i porady od ekspertów, które pomogą Ci osiągnąć więcej w krótszym czasie.