Wykorzystanie sztucznej inteligencji (AI) w procesach rekrutacyjnych, choć oferuje znaczną oszczędność czasu, wprowadza nowe, istotne ryzyka prawne dla pracodawców. AI Act wymaga, aby nad systemami wysokiego ryzyka zapewniony był skuteczny nadzór ludzki. Oznacza to, że ostateczna decyzja o odrzuceniu lub zaakceptowaniu kandydata nie może należeć wyłącznie do algorytmu. Pracownik działu HR musi mieć możliwość weryfikacji i zmiany decyzji podjętej przez system.
Zgodnie z AI Act, systemy AI wykorzystywane do rekrutacji i selekcji osób fizycznych, w szczególności do anonsowania ofert, filtrowania lub oceny aplikacji, są klasyfikowane jako systemy wysokiego ryzyka. Taka klasyfikacja nakłada na pracodawcę (jako użytkownika systemu) szereg konkretnych obowiązków. Przede wszystkim, proces selekcji nie może być w pełni zautomatyzowany.
Kolejnym kluczowym aspektem jest zgodność z przepisami o ochronie danych osobowych. Pracodawca jako administrator danych, musi:
1) spełnić obowiązek informacyjny (art. 13 i 14 RODO) – klauzula rekrutacyjna musi zawierać wyraźną informację, że dane kandydata będą przetwarzane w sposób zautomatyzowany przez system AI w celu selekcji.
2) zapewnić podstawę prawną – o ile przetwarzanie danych z CV odbywa się na podstawie art. 22¹ Kodeksu pracy, o tyle na zautomatyzowane podejmowanie decyzji, które wywołuje skutki prawne, co do zasady wymagana jest wyraźna zgoda kandydata (art. 22 ust. 2 RODO).
3) przeprowadzić ocenę skutków dla ochrony danych (DPIA) – ze względu na dużą skalę przetwarzania i nowe technologie, jest to niezbędne do zidentyfikowania i zminimalizowania ryzyk.
Równie istotne jest zapobieganie dyskryminacji (art. 18³ᵃ Kodeksu pracy). Algorytmy mogą uczyć się historycznych uprzedzeń, np. preferując kandydatów o określonej płci lub w określonym wieku na dane stanowiska.
Jeżeli historyczne dane, na których trenowany był algorytm, wskazują, że na stanowiskach technicznych dominowali mężczyźni, system AI może zacząć niżej oceniać CV kobiet, nawet jeśli posiadają identyczne kwalifikacje. Pracodawca musi być w stanie wykazać, że kryteria stosowane przez algorytm są obiektywne, merytoryczne i niedyskryminujące. W tym celu konieczne jest regularne testowanie i audytowanie używanego oprogramowania.
Wdrożenie AI w rekrutacji wymaga zatem nie tylko wyboru odpowiedniego narzędzia, ale przede wszystkim stworzenia wewnętrznych procedur zapewniających transparentność, nadzór i zgodność z wieloma regulacjami prawnymi.