Dynamiczna natura AI a sztywne ramy prawne

Zgodnie z definicją zawartą w AI Act, system AI to system maszynowy działający z różnym poziomem autonomii, który może wykazywać zdolność do adaptacji po jego wdrożeniu. Odnosi się to do samouczenia się, umożliwiającego zmianę zachowania systemu w czasie jego wykorzystywania. Cecha ta odróżnia zaawansowaną sztuczną inteligencję od prostych systemów opartych na sztywnych regułach, ale jednocześnie nakłada na podmioty odpowiedzialne, ciągłe obowiązki dokumentacyjne.

Dokumentacja techniczna nie jest statycznym opisem stanu systemu z dnia jego wprowadzenia na rynek, lecz żywym rejestrem, który musi ewoluować wraz z algorytmem. Dostawca ma obowiązek monitorować wydajność systemu, aby mieć pewność, że mimo adaptacji nadal spełnia on cele projektowe i działa zgodnie z przeznaczeniem.

Główna odpowiedzialność dostawcy

W przypadku systemu AI, który uczy się na bieżąco i zmienia swoje zachowanie po wdrożeniu, odpowiedzialność za aktualizację dokumentacji technicznej spoczywa przede wszystkim na dostawcy systemu AI. Dostawcą jest osoba fizyczna, prawna, organ publiczny lub inny podmiot, który rozwija system AI lub model AI ogólnego przeznaczenia (bądź zleca ich rozwój) oraz wprowadza go do obrotu lub oddaje do użytku pod własną nazwą lub znakiem towarowym, odpłatnie lub nieodpłatnie.

Dokumentacja techniczna, zgodnie z art. 11 AI Act, musi zostać sporządzona przed wprowadzeniem systemu do obrotu lub oddaniem go do użytku, a następnie podlegać aktualizacji przez cały cykl życia systemu. Okres jej przechowywania wynosi 10 lat od dnia wprowadzenia systemu do obrotu lub oddania go do użytku.

Niezbędnym elementem dokumentacji technicznej jest także opis procedur zarządzania zmianami w systemie AI wysokiego ryzyka, co oznacza, że dostawca powinien już na etapie projektowania przewidzieć sposób dokumentowania ewolucji algorytmu.

„Istotna zmiana” systemu AI jako granica odpowiedzialności za aktualizację dokumentacji technicznej

Kluczowym pojęciem dla wyznaczenia granic odpowiedzialności za aktualizację dokumentacji technicznej w przypadku systemów uczących się jest „istotna zmiana” systemu AI.

Za istotną zmianę nie uznaje się zmian w algorytmie oraz skuteczności działania systemu AI, jeżeli zmiany wynikające z procesu samouczenia się zostały uprzednio przewidziane i ocenione w pierwotnej ocenie zgodności oraz opisane w dokumentacji technicznej, zgodnie z załącznikiem IV do AI Act. W takim przypadku obowiązek bieżącej aktualizacji dokumentacji pozostaje po stronie pierwotnego dostawcy systemu.

Jeżeli natomiast system AI ewoluuje w sposób nieobjęty pierwotną dokumentacją i oceną zgodności, dochodzi do istotnej zmiany w rozumieniu przepisów. Skutkuje to uznaniem zmodyfikowanego systemu za nowy system AI w sensie regulacyjnym, co wiąże się z koniecznością przeprowadzenia nowej oceny zgodności oraz sporządzenia nowej dokumentacji technicznej.

W takiej sytuacji obowiązek dokumentacyjny może przejść z pierwotnego dostawcy na inny podmiot. Zgodnie z art. 25 AI Act następuje to w szczególności wtedy, gdy podmiot stosujący lub strona trzecia doprowadzi do spełnienia jednej z trzech przesłanek, a mianowicie:

  • dokona istotnej zmiany w systemie AI wysokiego ryzyka, która nie została przewidziana w pierwotnej dokumentacji,
  • wprowadzi system wysokiego ryzyka do obrotu pod własną nazwą lub znakiem towarowym,
  • zmieni przeznaczenie systemu (np. z systemu ogólnego przeznaczenia na system wysokiego ryzyka).

Wówczas podmiot ten przejmuje status dostawcy w odniesieniu do zmodyfikowanego systemu, a wraz z nim pełną odpowiedzialność regulacyjną, w tym obowiązek sporządzenia nowej dokumentacji technicznej oraz jej dalszej aktualizacji przez cały cykl życia systemu.

Rola podmiotu stosującego w procesie aktualizacji dokumentacji

Chociaż główny ciężar dokumentacyjny spoczywa na dostawcy, nie jest on w stanie wykonywać tego obowiązku bez współpracy z innymi uczestnikami łańcucha wartości AI, w szczególności z podmiotem stosującym, który faktycznie korzysta z systemu AI.

Podmiot stosujący ma obowiązek:

  • monitorować działanie systemu AI w oparciu o instrukcję obsługi. W przypadku stwierdzenia, że system stwarza ryzyko lub zachowuje się w sposób nieprzewidziany, musi niezwłocznie poinformować o tym dostawcę lub dystrybutora oraz zawiesić korzystanie z systemu (art. 26 ust. 5 AI Act);
  • prowadzić i przechowywać automatycznie generowane logi (zapisy zdarzeń) przez co najmniej 6 miesięcy, chyba że przepisy szczególne stanowią inaczej (art. 26 ust. 6 AI Act). Dane te stanowią istotne źródło informacji dla dostawcy przy analizie zachowania systemu uczącego się i aktualizacji dokumentacji technicznej.

Dostawca nie jest w stanie aktualizować dokumentacji w odniesieniu do błędów lub odchyleń, o których nie posiada wiedzy. Dlatego sprawny przepływ informacji pomiędzy podmiotem stosującym a dostawcą ma fundamentalne znaczenie dla utrzymania aktualności dokumentacji.

Ponadto importer, przed wprowadzeniem systemu do obrotu, ma obowiązek upewnić się, że dokumentacja techniczna została sporządzona i spełnia wymogi AI Act.

Podsumowanie

Obowiązek sporządzania i aktualizacji dokumentacji technicznej systemu AI wysokiego ryzyka ma charakter ciągły i zasadniczo spoczywa na dostawcy systemu, który odpowiada za zapewnienie jego zgodności z wymogami AI Act przez cały cykl życia produktu. W przypadku systemów wykazujących zdolność adaptacji po wdrożeniu, dostawca powinien już na etapie projektowania przewidzieć zakres dopuszczalnych zmian wynikających z procesu samouczenia się oraz opisać je w dokumentacji technicznej i pierwotnej ocenie zgodności.

Zmiany w zachowaniu systemu wynikające z mechanizmów uczenia się, nie stanowią istotnej zmiany w rozumieniu przepisów, o ile zostały uprzednio przewidziane i ocenione. Jeżeli jednak system AI ewoluuje w sposób nieobjęty pierwotną dokumentacją lub gdy podmiot stosujący zmienia jego przeznaczenie, dochodzi do powstania nowego systemu AI w sensie regulacyjnym, a obowiązek aktualizacji dokumentacji wraz z pełnym zakresem odpowiedzialności regulacyjnej przechodzi na podmiot wprowadzający taką modyfikację.

Choć obowiązki operacyjne związane z monitorowaniem funkcjonowania systemu oraz gromadzeniem danych eksploatacyjnych są w praktyce rozproszone pomiędzy dostawcę a podmiot stosujący, odpowiedzialność regulacyjna za zgodność systemu z wymogami prawa pozostaje zasadniczo po stronie dostawcy, aż do momentu jej formalnego przejęcia na podstawie przepisów dotyczących istotnych zmian systemu. Skuteczny przepływ informacji pomiędzy uczestnikami łańcucha wartości systemu AI, stanowi zatem warunek realnego wykonywania obowiązków dokumentacyjnych i zarządzania ryzykiem w przypadku adaptacyjnych systemów AI.

Kup Legalisa Księgowość Kadry Biznes online i uzyskaj natychmiastowy dostęp! Sprawdź