Już w 2024 roku raport ManpowerGroup wskazywał, że aż 39% organizacji w Polsce korzysta z rozwiązań AI w HR, a kolejnych 21% deklaruje gotowość do wdrożenia w ciągu najbliższych dwunastu miesięcy. W praktyce oznacza to, że większość kandydatów nie trafia dziś od razu do człowieka, lecz do algorytmu, który na wstępie skanuje CV pod kątem odpowiednich słów-kluczy i ujednolica całość informacji w ramach swojego modelu. Z perspektywy kandydatów kluczowe jest zatem przygotowanie dokumentu w taki sposób, aby był czytelny zarówno dla maszyny, jak i dla rekrutera. W badaniu Pracuj.pl z 2024 roku aż 61% ankietowanych przyznało, że rekomendacje AI pomogły im odnaleźć oferty, o których sami by nie pomyśleli - algorytmy czasem wychwytują subtelne powiązania między doświadczeniem a potrzebami firmy, których człowiek mógłby nie dostrzec.
Istotne jest jednak to, co dzieje się „pod maską” systemów AI. Narzędzia używane w Polsce nie opierają się na chaotycznym zestawie reguł, lecz na dużych zbiorach danych treningowych. Jeśli firma w przeszłości preferowała absolwentów konkretnego kierunku czy uczelni, algorytm uczy się na tych wzorcach i może nieświadomie faworyzować podobnych kandydatów. W efekcie te same uprzedzenia, które dotyczyły pracy ludzkiego rekrutera - np. silniejsze preferowanie absolwentów jednej uczelni - mogą przenieść się do automatycznego procesu. Dlatego rośnie znaczenie przeprowadzania tzw. testów na uprzedzenia (bias testing), zwłaszcza w agencjach HR czy korporacjach, które inwestują w narzędzia AI. Nawet jednak najlepszy algorytm bez regularnych audytów może gromadzić i powielać nierówności.
Szczególnej uwagi wymaga także ochrona danych osobowych - w tym danych wrażliwych, jak dane biometryczne. Zgodnie z art. 9 ust. 2 lit. a RODO, przetwarzanie danych biometrycznych - takich jak analiza mimiki czy głosu - wymaga wyraźnej zgody kandydata. W praktyce oznacza to konieczność zastosowania transparentnych klauzul informacyjnych w formularzach rekrutacyjnych. Dodatkowo kandydat ma prawo do uzyskania informacji, sprostowania, a nawet usunięcia danych po zakończeniu procesu rekrutacyjnego (art. 15-17 RODO). Jest to szczególnie istotne w świetle AI Act, który klasyfikuje systemy analizujące emocje kandydata w kontekście pracy jako zakazane (art. 5 ust. 1 lit. f), chyba że są stosowane ze względów medycznych lub bezpieczeństwa.
Z kolei AI Act (UE 2024/1689) wprowadza nowe obowiązki wobec systemów AI wykorzystywanych w HR. Zgodnie z art. 6 ust. 2 oraz załącznikiem III, narzędzia do preselekcji kandydatów klasyfikowane są jako systemy wysokiego ryzyka. Oznacza to m.in. obowiązek przygotowania dokumentacji technicznej (art. 11-13), przeprowadzenia oceny zgodności i testów jakości danych, a także zapewnienia nadzoru człowieka nad decyzjami AI (art. 14). Kluczowym wymogiem jest również możliwość wglądu do systemu przez zainteresowane osoby - zarówno w zakresie danych, jak i sposobu działania algorytmu.
Niedozwolone jest natomiast wykorzystywanie systemów, które na podstawie danych biometrycznych (mowy, mimiki, mikroekspresji) **wnioskują o emocjach lub cechach osobowości kandydata - jeśli odbywa się to w kontekście zawodowym (**art. 5 ust. 1 lit. f oraz motyw 44 AI Act). Praktyka taka może być uznana nie tylko za naruszenie AI Act, ale również art. 11[1] Kodeksu pracy (ochrona dóbr osobistych pracownika). Rekruterzy powinni więc upewnić się, że systemy nie zawierają funkcjonalności zakazanych - jak np. automatyczne rozpoznawanie emocji z głosu i mimiki - lub że zostały one trwale wyłączone.
W tym kontekście szczególnie ważne jest świadome projektowanie narzędzi. System może zostać uznany za zgodny z przepisami, jeżeli: - nie przetwarza danych biometrycznych w celu wyciągania wniosków o emocjach, - nie analizuje stanu psychicznego lub cech osobowości, - umożliwia pełny nadzór człowieka i weryfikację decyzji, - zawiera przejrzystą dokumentację i ocenę zgodności.
Dlatego przy wdrażaniu AI do rekrutacji warto zrezygnować z funkcjonalności typu „detekcja emocji”, nawet jeśli są one technicznie dostępne. Alternatywą są systemy analizujące wyłącznie treść odpowiedzi, zarejestrowane wypowiedzi głosowe oraz transkrypcję, bez interpretacji stanów emocjonalnych.
Świadome korzystanie z AI w HR może przynieść kandydatom wiele korzyści - od lepszego dopasowania ofert po skrócenie czasu odpowiedzi. Jednocześnie warto pamiętać o swoich prawach: do zgody, do informacji, do sprzeciwu i do oceny ludzkiej. AI może być sprzymierzeńcem, jeśli pozostaje pod realnym nadzorem człowieka i w granicach prawa.
Zrozumienie mechanizmów AI oraz ram prawnych - RODO i AI Act - to dziś nie tylko obowiązek firm, ale i szansa dla kandydatów na bardziej sprawiedliwą i bezpieczną rekrutację.



