Czym jest zasada AI Literacy?

Jest to zasada kompetencji w zakresie sztucznej inteligencji (art. 4 AIAct).

Dostawcy i podmioty stosujące systemy AI mają podjąć takie działania, które zapewnią w możliwie największym stopniu, odpowiedni poziom kompetencji w zakresie AI wśród:

  1. swojego personelu,
  2. innych osób zajmujących się i wykorzystujących AI w ich imieniu.

Proces podnoszenia tych kompetencji powinien uwzględniać:

  1. wiedzę techniczną tych osób,
  2. ich doświadczenie, wykształcenie i wyszkolenie,
  3. kontekst, w którym systemy AI mają być wykorzystywane,
  4. osoby / grupy osób, wobec których systemy AI będą wykorzystywane.

W zasadzie AI Literacy nie chodzi tylko o wiedzę teoretyczną, ale przede wszystkim o umiejętności i zrozumienie dot. systemów AI, które mają pozwolić na wdrażanie systemów AI w sposób przemyślany. Drugim elementem tych kompetencji jest świadomość tego jakie ta technologia daje możliwości, rodzi ryzyka oraz jakie potencjalne szkody może wyrządzić (art. 3 pkt 56 AIAct).

Ostatecznie systemy AI mają przecież wpływ nie tylko na dostawców czy użytkowników, ale i całe społeczeństwa.

Kup Legalisa Księgowość Kadry Biznes online i uzyskaj natychmiastowy dostęp! Sprawdź

Kiedy wiadomo, że poziom kompetencji w zakresie AI jest odpowiedni?

Wskazówkę znajdziemy w motywie 20 preambuły AI Act – o tym czy poziom kompetencji w zakresie AI jest niezbędny czy odpowiedni będzie decydować (podobnie jak w przypadku promptowania) kontekst.

Dlatego AI developer musi rozumieć jak systemy AI działają od strony technicznej, ale już generując samodzielnie grafiki np. w Midjourney nie trzeba znać wszystkich tego rodzaju szczegółów. W takiej sytuacji może wystarczyć znajomość zasad promptowania i działania modelu oraz podstaw z zakresu bezpieczeństwa korzystania z systemów AI.

Jeszcze inaczej sytuacja wygląda w przypadku osób, na które AI będzie miało wpływ. W ich przypadku potrzebna jest wiedza dot. tego jaki wpływ będą miały na nie decyzje podejmowane przy pomocy AI.

Co zrobić by być AI Literacy?

Na ten moment nie ma jednego schematu działania, który można zaaplikować w każdej organizacji. To jakie praktyki i w jakim zakresie zostaną wdrożone zależy głównie od wielkości biznesu oraz stopnia, w jakim polegamy na systemach AI.

W maju 2025 r. Centre for Information Policy Leadership (CIPL) opublikował zbiór praktyk i rekomendacji w zakresie obowiązku AI Literacy, który ma pomóc wdrażać systemy AI w organizacji. Mimo, że zastosowanie tych praktyk nie daje 100% pewności w byciu AI Literacy compliance, to na pewno są to cenne wskazówki, które zbliżają nas do celu. Poniżej ich omówienie.

Lider/ka wyznacza szlaki w kierunku AI Literacy

Na kierownictwie organizacji spoczywa obowiązek wsparcia i ustalenie priorytetów w zakresie zdobywania umiejętności związanych z AI. Wsparcie ze strony liderów jest tutaj niezbędne.

Wdrożenie systemów AI w organizacji nie ma sensu, jeżeli osoby wdrażające czy korzystające z nich nie mają odpowiednich umiejętności. Wiedza i kompetencje w tym zakresie są fundamentem bezpiecznego oraz odpowiedzialnego wdrażania a następnie rozwijania AI w organizacji. Co z kolei buduje wśród pracowników czy klientów zaufanie do technologii, a w ostatecznym rozrachunku przekłada się na profity dla biznesu.

Co można zrobić?

  1. Zapewnić wsparcie w zrozumieniu systemów AI:
    1. organizacja szkoleń dostosowanych do obowiązków pracowników,
    2. ustalenie z zespołem w jaki sposób AI może wesprzeć ich pracę i wdrożenie odpowiednich narzędzi AI,
    3. stworzenie wewnętrznej polityki AI, która będzie określać zasady korzystania z AI w firmie;
  2. Organizować okresowe spotkania w całej organizacji w temacie priorytetów i kierunku rozwoju umiejętności korzystania z AI;
  3. W kontekście możliwych fuzji i przejęć – przemyśleć jak właściwa dokumentacja dot. AI wpłynie na firmę w przyszłości.

Pełen compliance zamiast wyrywkowych działań

RODO, Data Act, NIS2, Omnibus to tylko niektóre z wielu aktów prawnych, które regulują funkcjonowanie organizacji. Dlatego zamiast pojedynczych szkoleń z AI Act czy jednorazowych polityk AI warto zastanowić się nad integracją tematu AI Literacy z pozostałymi strategiami i procesami.

Organizacja powinna odpowiedzieć sobie na pytania:

  1. w jaki sposób systemy AI współdziałają lub mogłyby współdziałać z innymi obowiązkami prawnymi i celami biznesowymi?
  2. co pracownicy/współpracownicy (na każdym szczeblu) muszą wiedzieć o tych interakcjach?
  3. jakie już istniejące programy i szkolenia mogą pomóc w zdobyciu kompetencji w zakresie AI?

Nie pojedyncze osoby, a cała organizacja

Działania podejmowane na rzecz wywiązania się z obowiązku AI Literacy powinny obejmować całą organizację, a nie tylko wybrane działy czy osoby. Co proponuje CILP w tym zakresie?

  1. stworzenie zespołu, którego zadaniem będzie dostarczanie zarządowi/kierownictwu informacji dot. use case’ów i pomysłów na wykorzystanie sztucznej inteligencji w organizacji,
  2. znalezienie w firmie osób, które będą promować edukację i wymianę wiedzy dot. AI,
  3. organizacja spotkań, gdzie pracownicy będą mogli się dzielić use case’ami z wykorzystania AI w pracy,
  4. stworzenie i promowanie procesów, które umożliwią pracownikom sygnalizowanie potencjalnie niebezpiecznych zastosowań AI w firmie,
  5. opracowanie wytycznych dot. korzystania (lub nie) ze sztucznej inteligencji w oparciu o zasady i wartości organizacji.

Wewnętrzna systematyka AI w organizacji

Aby wdrożenie i rozwój AI w firmie miały sens trzeba zacząć od podstaw, czyli ustalenia czym jest AI (w danej organizacji), jakie wiążą się z jego używaniem korzyści i jakich niebezpieczeństw trzeba unikać. Pomoże to podejmować pracownikom (i nie tylko) świadome decyzje dotyczące systemów AI.

Dlatego zanim kierownictwo da zielone światło do używania AI, warto zacząć od:

  1. opracowania zrozumiałych definicji (Gen AI, RAG, prompt itd.), opartych na istniejących standardach lub wytycznych,
  2. opisania zastosowania AI w firmie (np. w formie katalogu modeli AI oraz związanych z ich użyciem ryzyk i korzyści),
  3. zapewnienia dostępu do użycia systemów AI w organizacji (wcześniej przez organizację ocenionych, udokumentowanych oraz monitorowanych),
  4. opracowania klarownego „drzewa decyzyjnego” procesów zarządzania lub wymogów oceny ryzyka w kontekście AI.

Szkolenia dopasowane do pracownika i jego przyszłej roli. Wiedza w praktyce

Szkolenia powinny być dopasowane do roli, doświadczenia i sposobu pracy z narzędziami AI danej osoby. Warto pomyśleć o szkoleniach podstawowych dla wszystkich a następnie przeprowadzenie warsztatów pod kątem roli w organizacji. Nie bez znaczenia jest oczywiście forma i preferencje pracowników (np. szkolenia stacjonarne/online).

Kolejnym krokiem powinno być stworzenie wewnętrznej bazy wiedzy dot. AI – skatalogowanej wg tematu, roli pracownika i poziomu kompetencji. To pomoże ułatwić późniejsze odświeżenie oraz znalezienie konkretnych informacji.

Jednak same szkolenia nie wystarczą, aby zbudować solidne podstawy i kulturę umiejętności korzystania z AI w całej firmie. Warto również pomyśleć o:

  1. wdrażaniu wiedzy w praktyce (np. poprzez interdyscyplinarne szkolenie zespołowe, analizy case study),
  2. wsparciu finansowym pracowników, którzy chcą skorzystać z kursów dot. AI i uzyskać certyfikaty.

Feedback. Aktualizacja. Powtórka

AI jest technologią, która wymaga ciągłej aktualizacji wiedzy, monitorowania zmian (w technologii i prawie) oraz optymalizacji i poprawy procesów w organizacji.

Istotną częścią cyklu życia AI w firmie jest regularne zbieranie informacji zwrotnej od pracowników na temat tego co działa, a co wymaga poprawy. Pomaga to dostosować szkolenia, polityki i zasoby w temacie AI Literacy do nowych informacji i bieżących zmian w organizacji.

AI Literacy na zewnątrz

Jak już zostało wcześniej wspominanie, AI jest technologią, która wpływa nie tylko na jednostki, ale i całe społeczeństwa. Dlatego CIPL zachęca również do dzielenia się wiedzą poza organizacją (np. z klientami czy kontrahentami).

Działania te mogą obejmować m.in. organizację warsztatów dot. skutecznego i odpowiedniego wdrażania AI czy udostępnianie wizualizacji, które przedstawiają sposób działania systemów AI podmiotom zewnętrznym (jednocześnie chroniąc swoje poufne informacje).