Cele projektu ustawy obejmują przede wszystkim stworzenie w Polsce ram prawnych umożliwiających bezpośrednie stosowanie przepisów rozporządzenia 2024/1689. Celem projektu jest również określenie procedur egzekwowania zakazu stosowania zakazanych praktyk AI, w tym umożliwienie składania skarg do krajowych organów na naruszenia przepisów art. 5 rozporządzenia.
Proponowane rozwiązania i środki realizacji obejmują:
- Organy nadzoru: Projekt zakłada powołanie Komisji Rozwoju i Bezpieczeństwa Sztucznej Inteligencji, która będzie pełniła rolę organu nadzoru rynku nad systemami AI w Polsce. Komisja ta będzie odpowiedzialna za nadzór nad stosowaniem systemów AI, w tym modeli wysokiego ryzyka. Przewodniczący Komisji będzie powoływany przez Prezesa Rady Ministrów, a jej członkowie będą reprezentować kluczowe instytucje odpowiedzialne za rozwój sztucznej inteligencji w Polsce. Komisja będzie mogła podejmować decyzje dotyczące wprowadzania systemów AI do obrotu, monitorowania ich użycia oraz rozpatrywania zgłoszeń o incydentach związanych z ich funkcjonowaniem. Ponadto, zadania Komisji obejmują również współpracę z Prezesem Urzędu Ochrony Danych Osobowych oraz innymi instytucjami odpowiedzialnymi za nadzór nad systemami AI, a także z organami i instytucjami unijnymi.
- Notyfikacja jednostek oceniających zgodność: Projekt ustawy wskazuje ministra właściwego do spraw informatyzacji jako organ odpowiedzialny za notyfikowanie jednostek oceniających zgodność systemów AI. Te jednostki będą odpowiedzialne za ocenę zgodności systemów AI z przepisami rozporządzenia, co ma kluczowe znaczenie dla zapewnienia bezpiecznego i zgodnego z prawem funkcjonowania tych systemów. Akredytacja jednostek oceniających zgodność zostanie powierzona Polskiemu Centrum Akredytacji, zgodnie z przepisami ustawy o systemach oceny zgodności i nadzoru rynku.
- Egzekwowanie przepisów i skargi: W ramach projektu ustawy przewidziano możliwość składania skarg na naruszenie przepisów rozporządzenia 2024/1689, zwłaszcza tych dotyczących zakazanych praktyk AI. Organem właściwym do rozpatrywania skarg będzie Komisja Rozwoju i Bezpieczeństwa Sztucznej Inteligencji. Postępowanie skargowe zakończy się wydaniem decyzji, od której będzie można się odwołać do Sądu Ochrony Konkurencji i Konsumentów. Ten sąd, zlokalizowany w Warszawie, został wybrany ze względu na specjalizację w sprawach technologii cyfrowych oraz nadzoru rynku.
- Kary administracyjne: Ustawa przewiduje wprowadzenie administracyjnych kar finansowych za naruszenia przepisów rozporządzenia. Organ nadzoru, którym będzie Komisja, będzie mógł nakładać kary za naruszenie art. 5 rozporządzenia, obejmującego zakazane praktyki w zakresie stosowania AI. Wysokość kar oraz przypadki, w których mogą być nałożone, zostaną określone w ustawie. Kary te będą podlegały egzekucji administracyjnej, a środki pochodzące z kar trafią do budżetu państwa. Decyzje dotyczące nałożenia kar będą miały charakter jednoinstancyjny, a odwołanie od decyzji będzie można złożyć do Sądu Ochrony Konkurencji i Konsumentów.
Zadania i uprawnienia Komisji Rozwoju i Bezpieczeństwa Sztucznej Inteligencji obejmują również nadzór nad piaskownicami regulacyjnymi, które umożliwiają testowanie innowacyjnych systemów AI w kontrolowanych warunkach. Komisja będzie również realizować działania edukacyjne i komunikacyjne związane z rozwojem sektora sztucznej inteligencji w Polsce. Ponadto, będzie odpowiedzialna za informowanie o podejmowanych działaniach oraz za współpracę z innymi organami w celu skutecznego nadzoru nad stosowaniem systemów AI.
Inne organy nadzoru: Dodatkowo, projekt ustawy przewiduje powierzenie Prezesowi Urzędu Ochrony Danych Osobowych nadzoru nad systemami AI wysokiego ryzyka, szczególnie w kontekście ich wykorzystania do ścigania przestępstw, kontroli granicznej oraz w wymiarze sprawiedliwości i demokracji. Prezes UODO będzie również odpowiedzialny za nadzór nad systemami AI wymienionymi w załączniku III do rozporządzenia 2024/1689.
Podsumowując, projekt ustawy ma na celu dostosowanie polskiego prawa do przepisów unijnych dotyczących AI, co jest niezbędne do zapewnienia bezpieczeństwa stosowania sztucznej inteligencji oraz egzekwowania zakazów związanych z jej niewłaściwym użyciem. Powołanie Komisji Rozwoju i Bezpieczeństwa Sztucznej Inteligencji ma kluczowe znaczenie dla skutecznego nadzoru nad tym obszarem, w tym wprowadzaniem systemów AI do obrotu oraz monitorowaniem ich użycia.
Opracowanie na podstawie: https://legislacja.rcl.gov.pl/projekt/12390551