Samo wykorzystanie AI do analizy nagrań z rozmów kwalifikacyjnych nie jest z góry zakazane, ale wymaga bardzo ostrożnego podejścia i ograniczenia zakresu działania takiego narzędzia. Część zastosowań, w szczególności systemy służące do tzw. rozpoznawania emocji kandydata na podstawie jego obrazu lub głosu, jest już objęta bezwzględnym zakazem na mocy art. 5 AIAct, który od 2.2.2025 r. zabrania stosowania rozpoznawania emocji w kontekście pracy i edukacji. Tego typu rozwiązania (np. „ocena motywacji na podstawie mimiki” czy „analiza stresu w głosie”) należy więc w rekrutacji wyeliminować.
Pozostałe systemy analizujące nagrania (np. transkrypcja wypowiedzi, analiza struktury odpowiedzi, ocena kompetencji językowych) będą, co do zasady, traktowane jako systemy wysokiego ryzyka, ponieważ są używane w obszarze zatrudnienia do rekrutacji i selekcji kandydatów (załącznik III AIAct). To oznacza obowiązek spełnienia wymogów dotyczących m.in. jakości danych, zarządzania ryzykiem, nadzoru człowieka oraz dokumentacji. Zarówno po stronie dostawcy, ale także użytkownika systemu.
Z perspektywy RODO przetwarzanie nagrań wideo obejmuje dane osobowe (wizerunek, głos, zachowanie), a często także dane szczególnych kategorii, które mogą być pośrednio ujawniane (pochodzenie etniczne, niepełnosprawność, wyznanie). Wymaga to jasnej podstawy prawnej, przejrzystej informacji dla kandydata oraz unikania sytuacji, w której o dopuszczeniu lub odrzuceniu decyduje wyłącznie algorytm.
Na gruncie Kodeksu pracy i przepisów antydyskryminacyjnych pracodawca pozostaje w pełni odpowiedzialny za równe traktowanie kandydatów. Sam fakt skorzystania z AI nie zwalnia go z odpowiedzialności za dyskryminujące wyniki selekcji. Dlatego system musi być skonfigurowany, przetestowany i nadzorowany przez człowieka tak, aby nie prowadził do ukrytego wykluczania określonych grup (np. ze względu na wiek, płeć, niepełnosprawność, pochodzenie). Ryzyko naruszenia zakazu dyskryminacji jest więc podwyższone, ale nie musi się zmaterializować, jeśli zostaną spełnione określone wymogi prawne i organizacyjne.
Uzasadnienie:
Po pierwsze kwalifikacja systemu
AIAct stanowi, że systemy wykorzystywane do rekrutacji i selekcji kandydatów, w tym do oceny ich kompetencji i wiarygodności, stanowią „systemy wysokiego ryzyka”. Oznacza to, że po zakończeniu okresu przejściowego system taki będzie mógł być stosowany jedynie przy spełnieniu wymogów z tytułu III AIAct: m.in. wdrożenia systematycznego zarządzania ryzykiem, zapewnienia jakości i reprezentatywności danych, prowadzenia rejestrów działania systemu, przygotowania szczegółowej dokumentacji oraz zapewnienia realnego nadzoru człowieka.
Jednocześnie od 2.2.2025 r. obowiązuje zakaz stosowania systemów AI służących do rozpoznawania emocji w miejscu pracy (w tym w procesie rekrutacji), z wyjątkiem bardzo wąskich przypadków związanych z bezpieczeństwem lub medycyną. Do kategorii „emotion recognition” zalicza się, co do zasady, systemy, które na podstawie danych biometrycznych (obraz twarzy, głos) mają wnioskować o stanie emocjonalnym lub intencjach osoby. Zwykła obserwacja zachowania przez człowieka (np. „kandydat się uśmiecha”) nie jest objęta zakazem, ale algorytm, który przypisuje poziom „entuzjazmu” czy „stresu” na podstawie mimiki, już tak. Pracodawca nie może więc legalnie korzystać z takich funkcji systemu w procesie oceny kandydatów niezależnie od tego, że rozwiązanie jest technicznie dostępne w ramach systemu.
Po drugie ryzyko dyskryminacji i nierównego traktowania
Analiza nagrań wideo przez AI łatwo wchłania cechy, które pozostają powiązane z prawnie chronionymi przesłankami tj. wiekiem (sposób mówienia, wygląd), płcią, pochodzeniem etnicznym (akcent, rysy twarzy), niepełnosprawnością (np. mowa, zachowanie ruchowe), orientacją seksualną czy wyznaniem. Nawet jeśli algorytm nie używa tych cech wprost, może na podstawie korelacji faworyzować lub dyskryminować określone grupy. To klasyczny przypadek dyskryminacji pośredniej gdzie formalnie neutralne kryteria powodują w praktyce niekorzystne traktowanie danego kręgu osób.
Kodeks pracy wymaga, aby kandydaci byli traktowani równo w dostępie do zatrudnienia, niezależnie od wskazanych w ustawie przesłanek (art. 18³a–18³e KP). Pracodawca powinien więc:
- przełożyć wymagania stanowiska na możliwe do obrony, merytoryczne kryteria (np. znajomość języka, zdolność rozwiązywania konkretnych problemów),
- zlecić testy niedyskryminacyjne systemu sprawdzające, czy oceny nie różnicują systemowo kandydatów z określonych grup,
- zapewnić, że ostateczna decyzja należy do człowieka, który może skorygować lub odrzucić wynik AI.
Po trzecie aspekty RODO
Nagrania wideo z rozmów kwalifikacyjnych to dane osobowe; jeśli system wykorzystuje obraz twarzy lub głos do identyfikacji osoby albo do wnioskowania o jej cechach (np. emocjach), mówimy o danych biometrycznych, które należą do szczególnych kategorii danych. Podstawą przetwarzania danych kandydatów w rekrutacji jest zazwyczaj art. 6 ust. 1 lit. b lub f RODO; w odniesieniu do danych biometrycznych niezbędna jest dodatkowa podstawa z art. 9 ust. 2 RODO – w praktyce trudno ją wykazać dla „ulepszonej selekcji kandydatów”. W wielu przypadkach bezpieczniejszym rozwiązaniem jest więc wyłączenie funkcji biometrycznych i ograniczenie analizy do elementów treściowych (co kandydat mówi, a nie „jak wygląda”).
RODO wymaga także pełnej przejrzystości wobec kandydatów. Art. 13–14 RODO zobowiązuje do poinformowania o wykorzystaniu AI do analizy nagrań, celach przetwarzania, logice podejmowania decyzji i możliwych konsekwencjach. Jeżeli decyzja o dalszym udziale w rekrutacji byłaby podejmowana wyłącznie w sposób zautomatyzowany na podstawie oceny AI, zastosowanie znajdzie art. 22 RODO (zautomatyzowane podejmowanie decyzji, w tym profilowanie). Co do zasady taki model jest niedopuszczalny, chyba że spełnione są przesłanki z art. 22 ust. 2 RODO (szczególne upoważnienie ustawowe lub wyraźna zgoda, przy dodatkowych zabezpieczeniach), które w praktyce w rekrutacji rzadko są możliwe do zrealizowania. Dodatkowo wdrożenie systemu tego typu wymaga przeprowadzenia oceny skutków dla ochrony danych (DPIA) – ponieważ chodzi o nową technologię, a mamy tu do czynienia z dużym zakresem danych oraz wysokim ryzykiem dla praw i wolności osób.
Po czwarte nadchodzące zmiany w ramach AIAct i tzw. Digital Omnibus
AIAct już obowiązuje, a zakaz praktyk z art. 5 AIAct (w tym rozpoznawanie emocji w pracy) stosuje się od lutego 2025 r. Natomiast szczegółowe obowiązki dla systemów wysokiego ryzyka będą wchodzić w życie stopniowo, przy czym obecnie Komisja proponuje w pakiecie Digital Omnibus m.in. przesunięcie w czasie części terminów oraz uproszczenie niektórych obowiązków dokumentacyjnych, zwłaszcza dla mniejszych podmiotów. Na moment sporządzania niniejszego opracowania są to jednak projekty, które wymagają jeszcze przyjęcia przez Parlament i Radę – z punktu widzenia pracodawcy należy je traktować jako sygnał co do kierunku zmian, a nie jako podstawę do „rozluźnienia” już obowiązujących standardów.
Dobre praktyki obejmują w szczególności:
- rezygnację z funkcji rozpoznawania emocji i cech osobowości na podstawie nagrań,
- wybór dostawcy, który zapewnia zgodność z AI Act i RODO oraz udostępnia dokumentację techniczną,
- przeprowadzenie przedwdrożeniowej oceny ryzyka dyskryminacji i regularne testy niedyskryminacyjne.
- zapewnienie realnego nadzoru człowieka nad wynikami systemu oraz stworzenie procedury umożliwiającej kandydatowi zakwestionowanie decyzji algorytmu i uzyskanie „ludzkiej” ponownej oceny.
Dla osób, które nie chcą być oceniane na podstawie nagrania wideo (np. z uwagi na niepełnosprawność), warto przewidzieć alternatywny kanał rekrutacji (np. rozmowa bez nagrania, zadanie pisemne).
Systemy AI służące do rozpoznawania emocji kandydatów na podstawie nagrania wideo lub głosu są objęte zakazem stosowania w miejscu pracy na mocy art. 5 AI Act i nie powinny być używane w rekrutacji.
Pozostałe systemy analizujące nagrania wideo z rozmów kwalifikacyjnych należy traktować jako systemy wysokiego ryzyka i wymagają one spełnienia wymogów AI Act (zarządzanie ryzykiem, dokumentacja, nadzór człowieka) oraz przeprowadzenia DPIA na gruncie RODO.
Kandydaci muszą być jasno poinformowani o nagrywaniu rozmowy, wykorzystaniu AI do analizy nagrania oraz o konsekwencjach tej analizy; powinni mieć możliwość uzyskania wyjaśnień i „ludzkiej” ponownej oceny.
Pracodawca powinien przeprowadzać testy niedyskryminacyjne systemu (np. analiza, czy nie odrzuca on w sposób nieproporcjonalny kandydatów z określonych grup) i dokumentować wyniki tych testów.
Umowa z dostawcą systemu AI powinna precyzyjnie regulować odpowiedzialność, role na gruncie RODO, dostęp do dokumentacji i logów oraz prawo pracodawcy do audytu narzędzia.
