Co do zasady można korzystać z systemów AI wspierających ocenę wyników pracy i rekomendujących wysokość premii. Całkowite „oddanie” decyzji algorytmowi bez realnego nadzoru człowieka powoduje ekspozycje na wysokie ryzyko prawne. AIAct traktuje systemy stosowane do podejmowania decyzji dotyczących warunków zatrudnienia, w tym wynagradzania i awansów, jako systemy wysokiego ryzyka, co wiąże się z dodatkowymi obowiązkami po stronie dostawcy i pracodawcy (użytkownika) w szczególności w zakresie zarządzania ryzykiem, jakości danych, dokumentacji i nadzoru człowieka.
Z perspektywy RODO przyznanie lub odmowa premii na podstawie algorytmu będzie kwalifikowana jako zautomatyzowane podejmowanie decyzji wywołujące wobec pracownika istotne skutki prawne lub w podobny sposób znacząco na niego wpływające (art. 22 RODO). Taki model jest dopuszczalny tylko w bardzo wąskich sytuacjach i wymaga zapewnienia m.in. prawa pracownika do interwencji człowieka, wyrażenia własnego stanowiska i zakwestionowania decyzji. W praktyce oznacza to, że system AI może pełnić funkcję narzędzia pomocniczego, ale ostateczna decyzja o premii powinna należeć do człowieka, który rozumie kontekst i potrafi skorygować wynik algorytmu.
Na gruncie Kodeksu pracy pracodawca musi zachować równe traktowanie w zatrudnieniu oraz przeciwdziałać dyskryminacji w zakresie wynagrodzenia i innych świadczeń ze stosunku pracy. Kryteria premiowania muszą być obiektywne, przejrzyste i zakomunikowane pracownikom, a zastosowanie AI nie zwalnia pracodawcy z odpowiedzialności za ich przestrzeganie. Jeżeli algorytm w praktyce premiuje jedne grupy (np. osoby pracujące bez przerw, pełnoetatowe, bez obowiązków opiekuńczych), a inne systemowo pomija, to odpowiedzialność za dyskryminujący skutek ponosi pracodawca, a nie „bezosobowy system”.
W przypadku premii regulaminowych (opartych np. na KPI) algorytm AI może technicznie zliczać wskaźniki i proponować wysokość premii, ale nie powinien samodzielnie podejmować ostatecznej decyzji, ta musi należeć do człowieka, który zna kontekst pracy danej osoby. Z perspektywy ochrony danych osobowych i art. 22 RODO kluczowe jest, aby przyznanie lub odmowa premii nie była „czysto zautomatyzowaną decyzją” oraz by pracownik wiedział, że jego dane są profilowane przez system AI. Na gruncie Kodeksu pracy konieczne jest utrzymanie przejrzystych, niedyskryminujących zasad premiowania (uregulowanych w regulaminie) oraz umożliwienie pracownikowi zakwestionowania wyniku algorytmu, zwłaszcza gdy KPI nie odzwierciedlają w pełni rzeczywistej sytuacji (np. trudniejszy portfel klientów, okresowa nieobecność usprawiedliwiona).
Po pierwsze, na gruncie AIAct system, który na podstawie danych o wynikach pracy generuje oceny i rekomendacje dotyczące przyznania premii, mieści się w kategorii systemów wysokiego ryzyka stosowanych w obszarze zatrudnienia do podejmowania decyzji dotyczących warunków pracy i zatrudnienia, w tym wynagrodzenia i awansów. Wiąże się to z koniecznością spełnienia szeregu wymogów: wdrożenia systemu zarządzania ryzykiem (identyfikacja i redukcja ryzyk, w tym dyskryminacji), zapewnienia jakości i reprezentatywności danych (np. unikanie trenowania modelu wyłącznie na danych historycznych odzwierciedlających przeszłe uprzedzenia), prowadzenia logów działania systemu oraz przygotowania dokumentacji pozwalającej zrozumieć jego funkcjonowanie. Obowiązki te w pierwszej kolejności spoczywają na dostawcy systemu, ale użytkownik (pracodawca) również musi m.in. korzystać z systemu zgodnie z instrukcjami, szkolić personel oraz uwzględniać kontekst, w jakim system jest stosowany.
AIAct wszedł w życie w 2024 r., natomiast przepisy dotyczące systemów wysokiego ryzyka zasadniczo zaczną być stosowane po upływie okresów przejściowych, przy czym w ramach pakietu Digital Omnibus Komisja zaproponowała przesunięcie części terminów i uproszczenie pewnych obowiązków dokumentacyjnych. Na moment sporządzania niniejszego opracowania są to jednak propozycje legislacyjne – pracodawca powinien przygotowywać się do pełnego reżimu wysokiego ryzyka, a nie zakładać „odpuszczenia” wymogów.
Po drugie, z punktu widzenia RODO kluczowe jest to, że decyzja o przyznaniu lub odmowie premii oparta na algorytmicznej ocenie wyników pracy jest klasycznym przykładem zautomatyzowanego podejmowania decyzji, które wywołuje wobec pracownika istotne skutki prawne lub w podobny sposób na niego wpływa (art. 22 ust. 1 RODO). Pracownik ma prawo, aby nie podlegać decyzji opartej wyłącznie na przetwarzaniu zautomatyzowanym, chyba że zachodzą szczególne przesłanki z ust. 2 (np. wyraźna zgoda, szczególna podstawa ustawowa) i zastosowane są dodatkowe zabezpieczenia. W praktyce, w relacji pracodawca – pracownik trudno mówić o „wyraźnej, dobrowolnej zgodzie”, relacja podporządkowania podważa dobrowolność. Dlatego bezpieczny model zakłada, że AI generuje ocenę i rekomendację, ale ostateczną decyzję o premii podejmuje człowiek, który ma możliwość zweryfikowania, skorygowania lub odrzucenia wyniku algorytmu i faktycznie z tej możliwości korzysta.
RODO nakłada także obowiązki informacyjne (art. 13–14 RODO). W związku z tym, pracownicy powinni być jasno poinformowani, że ich wyniki są oceniane przy użyciu systemu AI, jakie dane są brane pod uwagę, na jakiej podstawie prawnej są przetwarzane oraz jakie są konsekwencje tej oceny (w tym wpływ na wysokość premii). Przy wdrożeniu takiego rozwiązania konieczna będzie ocena skutków dla ochrony danych (DPIA), ponieważ chodzi o nową technologię, szeroki zakres danych i wysokie ryzyko dla praw i wolności pracowników. DPIA powinna obejmować m.in. ocenę ryzyka dyskryminacji, błędów algorytmu, nieprawidłowych danych wejściowych oraz skutków nadmiernego monitoringu. Dodatkowo trzeba przestrzegać zasady minimalizacji danych. Do oceny wyników pracy i premii wolno wykorzystywać tylko te informacje, które są rzeczywiście potrzebne i związane z obowiązkami pracownika. Sięganie po prywatną aktywność w sieci czy dane szczególnych kategorii (zdrowie, poglądy, związki zawodowe) jest niedopuszczalne.
Po trzecie, prawo pracy. Kodeks pracy i przepisy antydyskryminacyjne wymagają, aby pracownicy byli równo traktowani w zakresie wynagrodzenia i innych świadczeń związanych z pracą, w tym premii (art. 18³a–18³e KP). Kryteria premiowania powinny być jasne, obiektywne i zakomunikowane pracownikom najczęściej w regulaminie wynagradzania, regulaminie premiowania lub w umowie o pracę. Algorytm musi więc „operacjonalizować” kryteria, które są już zdefiniowane w tych dokumentach; nie może samodzielnie tworzyć nowych, nieprzejrzystych kryteriów, których pracownicy nie znają (np. „ocena potencjału” czy „skłonność do rotacji” liczona w niejasny sposób).
Dodatkowo należy uwzględnić ryzyko dyskryminacji pośredniej. Jeżeli algorytm opiera się na wskaźnikach, które są pozornie neutralne (np. liczba przepracowanych nadgodzin, obecność w biurze, liczba przyjętych zleceń), ale w praktyce premiują określone grupy (np. osoby bez obowiązków rodzicielskich, pracowników pełnoetatowych) i prowadzą do systematycznie niższych premii dla innych (np. pracowników niepełnosprawnych, pracujących w niepełnym wymiarze), to może dojść do naruszenia zasady równego traktowania. Użycie AI nie zwalnia pracodawcy z odpowiedzialności za te skutki. To pracodawca odpowiada przed sądem pracy za uzasadnienie różnic w wynagrodzeniu i premiach.
Nadchodzące zmiany w AIAct i projekcie Digital Omnibus przewidują m.in. dodatkowe obowiązki informacyjne wobec osób, których dotyczą decyzje podejmowane z udziałem systemów AI, a także doprecyzowanie odpowiedzialności użytkowników systemów wysokiego ryzyka i sankcji za naruszenia. Można oczekiwać, że organy nadzoru w obszarze ochrony danych i prawa pracy będą z coraz większą uwagą przyglądały się algorytmicznym systemom wynagradzania i premiowania, a brak przejrzystości lub realnego nadzoru człowieka będzie oceniany negatywnie.
W praktyce dobrze zaprojektowany system AI może usprawnić ocenę wyników (np. przez agregację danych z wielu źródeł, ograniczenie wpływu bieżących emocji przełożonego), ale wymaga jasnego zdefiniowania kryteriów premiowania, audytu danych wejściowych i wyników, zapewnienia realnej kontroli człowieka nad decyzjami o premii oraz stworzenia pracownikom możliwości zakwestionowania wyniku i uzyskania wyjaśnienia, dlaczego ich premia wygląda właśnie tak, a nie inaczej.
- Decyzje o przyznaniu lub odmowie premii nie powinny być podejmowane wyłącznie przez algorytm, a ostateczna decyzja musi należeć do człowieka, który faktycznie weryfikuje wynik systemu.
- Pracownicy muszą być z wyprzedzeniem poinformowani o stosowaniu AI do oceny wyników pracy i premiowania, o wykorzystywanych danych oraz o wpływie tych ocen na ich wynagrodzenie.
- Przed wdrożeniem systemu konieczne jest przeprowadzenie DPIA oraz odrębnej oceny ryzyka dyskryminacji, w tym testów niedyskryminacyjnych na danych historycznych.
- Kryteria premiowania powinny być jasno określone w regulaminie wynagradzania lub innym akcie wewnętrznym, a system AI musi być z nimi spójny i nie może wprowadzać „ukrytych” kryteriów.
- Należy zweryfikować jakość i kompletność danych używanych przez system (np. czy nie zaniżają wyników osób na zwolnieniach lekarskich, rodzicielskich, w niepełnym wymiarze czasu pracy) oraz wdrażać rozwiązanie etapowo. Z początku jako narzędzie pomocnicze, a nie decyzyjne.
