Monitoring pracowników w powszechnym rozumieniu polega na weryfikacji realizowanych przez nich zadań, sposobu wykonywania pracy oraz jej jakości. W typowych warunkach odbywa się on za pomocą systemów umożliwiających samodzielne wprowadzanie i rejestrowanie wykonywanych obowiązków, ich liczby, bądź też w sposób bardziej ogólny – podczas spotkań z przełożonymi. Monitoring pracowników bywa również rozumiany jako kontrola aktywności na sprzęcie służbowym, w szczególności w zakresie przeglądanych stron internetowych oraz podejmowanych na nim czynności.
W jaki sposób w tym kontekście mogłaby pomóc sztuczna inteligencja? Coraz częściej podkreśla się, że nowoczesne systemy oparte na AI mogą wspierać pracodawców w rzetelnym i szczegółowym monitorowaniu pracy zatrudnionych – zarówno pod kątem realizowanych zadań, jak i ogólnej wydajności.
W związku z powyższym, a także z uwagi na fakt, że sztuczna inteligencja stanowi rozwiązanie obarczone ryzykiem – o czym szerzej w dalszej części niniejszego artykułu – konieczne stało się wprowadzenie regulacji ukierunkowujących m.in. pracodawców na odpowiedzialne korzystanie z AI. Celem tych regulacji jest zapewnienie, że stosowanie sztucznej inteligencji nie będzie naruszać, przykładowo, praw pracowników. Jednym z najistotniejszych aktów prawnych odnoszących się do tej problematyki jest tzw. AI Act, czyli Rozporządzenie Parlamentu Europejskiego i Rady (UE) 2024/1689 z 13.6.2024 r. w sprawie ustanowienia zharmonizowanych przepisów dotyczących sztucznej inteligencji oraz zmiany rozporządzeń (WE) nr 300/2008, (UE) nr 167/2013, (UE) nr 168/2013, (UE) 2018/858, (UE) 2018/1139 i (UE) 2019/2144 oraz dyrektyw 2014/90/UE, (UE) 2016/797 i (UE) 2020/1828 (akt w sprawie sztucznej inteligencji) (Tekst mający znaczenie dla EOG).
W świetle przywołanej regulacji należy podkreślić, że systemy sztucznej inteligencji wykorzystywane w obszarze zatrudnienia, zarządzania pracownikami oraz dostępu do samozatrudnienia – w szczególności te służące do monitorowania lub oceny osób pozostających w stosunku pracy – zostały uznane za systemy wysokiego ryzyka. Wynika to z faktu, że AI może wywierać istotny wpływ na jednostkę, jej perspektywy zawodowe, źródła utrzymania, a także na realizację praw pracowniczych.
Pojawiają się także obawy, że z uwagi na „uczenie się” sztucznej inteligencji na podstawie danych historycznych, systemy te mogą powielać istniejące wzorce dyskryminacyjne. Dodatkowo, szczególnie problematyczna jest możliwość działania AI w sposób naruszający lub podważający podstawowe prawa pracowników, zwłaszcza w zakresie ochrony prywatności i danych osobowych – co, jak wskazano w motywach AI Act, dotyczy w szczególności systemów wykorzystywanych do monitorowania pracowników
AI Act wprowadza szereg mechanizmów mających na celu zapewnienie prawidłowego i zgodnego z prawem stosowania systemów sztucznej inteligencji, przy jednoczesnym zagwarantowaniu poszanowania praw osób, których dane są przetwarzane. Jednym z kluczowych wymogów jest obowiązek, aby systemy sztucznej inteligencji pozostawały pod nadzorem człowieka – muszą być monitorowane przez osoby fizyczne.
Abstrahując od wymogów formalnych związanych z wdrażaniem systemów sztucznej inteligencji w organizacji, należy podkreślić konieczność ich stosowania w sposób respektujący prawa jednostki oraz chroniący jej autonomię. Równocześnie niezbędne jest wprowadzenie skutecznych mechanizmów nadzoru i kontroli, które zapewnią prawidłowe i bezpieczne przetwarzanie danych – zwłaszcza tam, gdzie wywierają one istotny wpływ na życie jednostek.
Warto również zauważyć, że dużym źródłem obaw pozostaje zdolność AI do powielania wzorców historycznych, które mogą mieć charakter dyskryminacyjny. Tzw. dyskryminacja algorytmiczna, czyli sytuacja, w której system AI – choć pozornie „neutralny” – podejmuje decyzje na podstawie danych, które odzwierciedlają istniejące uprzedzenia lub nierówności społeczne. Przykładowo, algorytm rekrutacyjny może odrzucać kandydatki na stanowiska techniczne, jeśli został wytrenowany na danych historycznych, w których większość zatrudnionych w tych rolach stanowili mężczyźni. Podobnie, narzędzie oceniające wydajność może niesprawiedliwie karać osoby z niepełnosprawnościami, które mogą pracować wolniej, ale równie skutecznie.
Aby uniknąć takich sytuacji, pracodawca musi podejść do wdrażania AI w sposób odpowiedzialny i zgodny z przepisami prawa pracy. Przede wszystkim, już na etapie planowania implementacji należy przeprowadzić ocenę ryzyka związanego z potencjalnym wpływem systemu na prawa pracowników. Taka analiza powinna uwzględniać nie tylko techniczne aspekty działania algorytmu, ale też kontekst społeczny, w jakim będzie on stosowany.
Kolejnym ważnym elementem jest zapewnienie transparentności działania AI. Pracownicy i kandydaci do pracy powinni być jasno informowani o tym, że ich dane są analizowane przez systemy automatyczne – a także o tym, jakie dane są przetwarzane, na jakiej podstawie oraz do jakich celów. Brak takiej przejrzystości może naruszać nie tylko przepisy o ochronie danych osobowych, ale też zasady zaufania i odpowiedzialności w miejscu pracy.
Kluczowe znaczenie ma także audytowanie algorytmów – zarówno przed wdrożeniem, jak i cyklicznie w trakcie ich użytkowania. Pracodawca powinien upewnić się, że dane uczące nie zawierają uprzedzeń, a sam algorytm nie faworyzuje żadnej grupy pracowników. W praktyce oznacza to konieczność współpracy z ekspertami od etyki AI, analizy danych czy compliance.
Ważnym zabezpieczeniem przed błędnymi lub niesprawiedliwymi decyzjami AI jest też zachowanie nadzoru człowieka – tzw. „human in the loop”. Oznacza to, że kluczowe decyzje dotyczące zatrudnienia, awansów, wynagrodzeń czy rozwiązania stosunku pracy nie powinny być podejmowane wyłącznie przez algorytm. Pracodawca powinien zagwarantować, że ostateczna decyzja zawsze należy do człowieka, który potrafi ocenić kontekst i odwołać się do zasad sprawiedliwości oraz przepisów prawa pracy.
Nie mniej istotne jest przygotowanie organizacji na zmiany, jakie niesie za sobą wdrożenie AI. Obejmuje to szkolenia dla działu HR oraz kadry zarządzającej z zakresu etycznego i prawnego stosowania sztucznej inteligencji, a także konsultacje z działem prawnym lub inspektorem ochrony danych osobowych. Przykładowo, firma może stworzyć wewnętrzną politykę odpowiedzialnego korzystania z AI, uwzględniającą obowiązki informacyjne, procedury interwencji w przypadku błędów systemu czy zasady oceny jego skuteczności.
Podsumowując, wdrożenie AI w miejscu pracy nie jest tylko technologicznym wyzwaniem – to także kwestia odpowiedzialności prawnej i społecznej. Pracodawcy, którzy chcą korzystać z nowoczesnych rozwiązań bez narażania się na ryzyko sporów pracowniczych czy naruszenia przepisów, powinni zadbać o transparentność, audytowalność i etyczność działania algorytmów. Dzięki temu możliwe będzie nie tylko zwiększenie efektywności organizacji, ale też budowanie kultury pracy opartej na zaufaniu, sprawiedliwości i poszanowaniu praw człowieka.