Wyzwania prawne i organizacyjne związane z wdrażaniem AI

Wdrażanie AI to dla firm nie tylko wyzwanie technologiczne, ale przede wszystkim organizacyjne i regulacyjne. Systemy te mogą podejmować decyzje wpływające na prawa jednostki, a niekiedy prowadzić do dyskryminacji, błędnych ocen czy utraty przejrzystości procesów. Unijny AI Act wprowadza liczne obowiązki, których spełnienie wymaga reorganizacji wewnętrznych struktur i przepływów informacji.

Zgodnie z art. 4 AI Act, firmy wdrażające AI powinny zadbać o odpowiedni poziom tzw. AI literacy – czyli wiedzy i kompetencji pracowników obsługujących lub korzystających z systemów AI. Oznacza to konieczność szkoleń, analiz ryzyka oraz dostosowania procedur – w zależności od stopnia zaawansowania systemu i jego wpływu na użytkowników.

Szczególne obowiązki dotyczą systemów AI wysokiego ryzyka. Zgodnie z art. 26 ust. 2 AI Act, nadzór nad ich działaniem musi sprawować osoba kompetentna, przeszkolona i mająca wsparcie organizacyjne. Dodatkowo, pracodawcy mają obowiązek monitorować ich funkcjonowanie (art. 26 ust. 5 AI Act), a także informować pracowników o wdrażaniu AI w środowisku pracy (art. 26 ust. 7 AI Act). To wszystko przekłada się na konieczność jasnego przypisania odpowiedzialności w strukturze firmy.

Jakie kompetencje są potrzebne przy wdrażaniu AI?

AI Act nie narzuca tworzenia nowych stanowisk, ale jasno wskazuje, że podmioty muszą posiadać – lub pozyskać – odpowiednie kompetencje do zarządzania wdrażaniem systemów AI. Kluczowe są umiejętności łączące wiedzę technologiczną z prawną, etyczną i organizacyjną. Chodzi o zrozumienie, jak działa system, jakie generuje ryzyka i jakie są obowiązki firmy na gruncie prawa.

W praktyce, kompetencje te mogą pochodzić zarówno z rekrutacji zewnętrznej, jak i rozwoju wewnętrznego. Warto identyfikować osoby w organizacji (np. z działu compliance, IT, prawnego, HR), które można przeszkolić w zakresie AI literacy, analizy ryzyka czy oceny zgodności. Z kolei przy rekrutacji warto szukać specjalistów znających przepisy AI Act, RODO i posiadających doświadczenie w projektach z pogranicza prawa i nowych technologii.

Szczególnie skutecznym rozwiązaniem jest tworzenie zespołów interdyscyplinarnych, w których znajdą się m.in.:

  • prawnik ze znajomością regulacji technologicznych,
  • inżynier AI rozumiejący obowiązki dokumentacyjne,
  • osoba z HR znająca wpływ AI na relacje pracownicze,
  • specjalista ds. etyki lub DEI (Diversity, Equity & Inclusion),
  • project manager nadzorujący proces wdrożeniowy.

Taki zespół nie tylko rozumie system „od środka”, ale też zapewnia, że decyzje dotyczące jego projektowania i stosowania są przemyślane z perspektywy różnych interesariuszy.

Czy firma powinna powołać zespół ds. zgodności AI?

Z perspektywy prawa, etyki i praktyki – tak, zdecydowanie. AI Act, szczególnie wobec systemów AI wysokiego ryzyka, wymaga przypisania konkretnych obowiązków: od nadzoru człowieka (human oversight), przez monitorowanie działania systemu, aż po zapewnienie dokumentacji i analiz ryzyka. Spełnienie tych wymagań bez dedykowanego zespołu może okazać się niewykonalne, zwłaszcza w dużych lub zróżnicowanych organizacjach.

Zespół ds. zgodności AI nie musi funkcjonować jako formalna jednostka organizacyjna. Kluczowe jest to, by miał jasno przypisane zadania, odpowiedni mandat decyzyjny oraz dostęp do informacji i danych niezbędnych do realizacji obowiązków regulacyjnych. Powinien współpracować z działem IT, compliance, prawnym, HR i operacyjnym. Rekomendowanym rozwiązaniem jest model hybrydowy: centralny zespół ekspercki, który koordynuje działania i lokalni koordynatorzy w poszczególnych działach odpowiedzialni za wdrożenie zaleceń.

Warto odróżnić ten zespół od zespołu interdyscyplinarnego opisanego wcześniej, który odpowiada za wdrożenie i rozwój systemu AI. Zespół ds. zgodności to jednostka monitorująca i nadzorująca działanie systemu w czasie rzeczywistym, również po zakończeniu fazy projektowej.

Kup Legalisa Księgowość Kadry Biznes online i uzyskaj natychmiastowy dostęp! Sprawdź