Wstęp

Nowe przepisy wymagają od firm precyzyjnego raportowania emisji CO₂, śladu węglowego w całym łańcuchu dostaw, ryzyka środowiskowych i społecznych, a także wykazania, że przedstawione dane są kompletne, udokumentowane oraz możliwe do zweryfikowania. W praktyce oznacza to konieczność integracji informacji pochodzących z systemów ERP, IoT, dokumentacji technicznej, umów z dostawcami czy raportów operacyjnych – często w formatach nienadających się do ręcznej analizy. Tradycyjne narzędzia szybko przestają wystarczać.

Właśnie tutaj AI staje się narzędziem przełomowym. Umożliwia automatyczną analizę ogromnych wolumenów danych, wykrywanie luk i niespójności, ocenę ryzyk ESG, a nawet prognozowanie emisji na podstawie zmiennych produkcyjnych czy energetycznych.

Jednocześnie rodzi to nowe wyzwania:

  • jak zweryfikować modele AI wykorzystywane do monitorowania śladu węglowego?
  • jak zapewnić zgodność z GHG Protocol, ESRS oraz wymogami audytu, który obejmuje również sam algorytm?
  • jak zapobiec zjawisku automated greenwashing, w którym system generuje wyniki atrakcyjne narracyjnie, lecz niepoparte rzetelnymi danymi?

Automated greenwashing to zjawisko, w którym systemy sztucznej inteligencji – często nieintencjonalnie – tworzą, wzmacniają lub usprawniają wprowadzające w błąd komunikaty środowiskowe, sprawiając, że firma wygląda na bardziej „zieloną”, niż jest w rzeczywistości.

Celem niniejszego opracowania jest pokazanie, jak rozsądnie i bezpiecznie wykorzystać AI w raportowaniu zrównoważonego rozwoju oraz jak audytor – wewnętrzny czy zewnętrzny – powinien podchodzić do weryfikacji systemów analizujących dane ESG. Omówimy kluczowe zastosowania AI: od obliczania emisji CO₂, przez due diligence w łańcuchu dostaw, po automatyzację raportowania w standardzie ESRS/XBRL. Wskażemy także modele kontroli i metody oceny algorytmów używanych w obszarze sustainability – tak, aby raportowanie pozostało nie tylko szybkie i efektywne, ale przede wszystkim wiarygodne, audytowalne i zgodne z prawem.

Rola AI w analizie danych niefinansowych i raportowaniu śladu węglowego

Wymogi raportowe

Wymogi raportowe wynikające z CSRD oraz standardów ESRS sprawiły, że dane niefinansowe stały się równie istotne jak dane finansowe – a często nawet bardziej złożone. Organizacje zobowiązane są dziś do wykazania nie tylko ogólnej strategii klimatycznej, lecz także szczegółowych informacji dotyczących emisji CO₂, ich intensywności, wpływu łańcucha dostaw, konsumpcji zasobów oraz szeregu czynników społecznych i środowiskowych. Tymczasem ogromna część tych danych jest rozproszona, niespójna i pochodzi z systemów, które nigdy nie były projektowane z myślą o raportowaniu ESG. To właśnie w tym miejscu sztuczna inteligencja zaczyna odgrywać kluczową rolę.

Integracja danych i automatyzacja interpretacji

AI pozwala zintegrować dane z systemów ERP, magazynów energii, czujników IoT, systemów produkcyjnych, arkuszy kalkulacyjnych czy dokumentów PDF, a następnie zautomatyzować ich interpretację. Modele uczenia maszynowego klasyfikują informacje w wymagane kategorie ESRS, identyfikują braki i niespójności, a narzędzia NLP analizują treści nienumeryczne – od polityk środowiskowych po deklaracje dostawców. Dzięki temu organizacja zaczyna dysponować znacznie bardziej uporządkowanym i wiarygodnym zbiorem danych, który może być wykorzystany do raportowania, audytu i podejmowania decyzji.

Raportowanie śladu węglowego

Szczególnie duże znaczenie ma zastosowanie AI w raportowaniu śladu węglowego. Emisje w ramach Scope 1 i 2 oparte są na relatywnie stabilnych danych operacyjnych, ale już Scope 3 – obejmujący cały łańcuch wartości – to obszar, w którym luki w informacjach są częste, a koszty ręcznej weryfikacji gigantyczne. AI pomaga automatycznie mapować dane aktywności na współczynniki emisyjności, przewidywać emisje na podstawie danych produkcyjnych oraz wypełniać braki w informacji poprzez imputację bazującą na wzorcach branżowych lub danych porównawczych. Z punktu widzenia ESRS E1 oraz ISO 14064-1 kluczowe jest jednak to, że modele te można audytować – pod warunkiem właściwego ich wdrożenia, dokumentacji i nadzoru.

Wykrywanie anomalii i ryzyk ESG

Jednocześnie AI umożliwia wykrywanie anomalii i ryzyk ESG, które w tradycyjnym procesie raportowania mogłyby pozostać niezauważone. Zestawienia dostawców, ich deklaracje środowiskowe, wyniki audytów, certyfikaty czy otwarte źródła danych (takie jak rejestry naruszeń środowiskowych lub wzmianki medialne) poddawane są analizie automatycznej, która pozwala zidentyfikować potencjalne zagrożenia w łańcuchu dostaw. Na tej podstawie łatwiej ocenić, czy dostawca rzeczywiście spełnia wymagania due diligence, czy jedynie deklaruje zgodność.

Obowiązek weryfikacji raportów zrównoważonego rozwoju

To przejście od ręcznego przetwarzania danych do inteligentnej analizy przekłada się nie tylko na poprawę jakości raportów, lecz także na realną możliwość ich późniejszej atestacji. CSRD wprowadza obowiązek weryfikacji raportów zrównoważonego rozwoju, co oznacza, że dane i procesy obliczeniowe muszą być odtwarzalne, ścieżka audytu zachowana, a wszystkie modele i reguły – dobrze udokumentowane. Wymagania te są spójne z najlepszymi praktykami MLOps oraz normami takimi jak ISO/IEC 27001 czy ISO/IEC 42001, które wprost wskazują potrzebę zapewnienia integralności danych, logowania działań modeli oraz kontroli zmian.

Różnice między tradycyjnym raportowaniem ESG a podejściem opartym o AI

Aby zobrazować praktyczne różnice między tradycyjnym raportowaniem ESG a podejściem opartym o AI, zestawienie prezentuje poniższa tabela:

Tabela 1. Tradycyjne raportowanie ESG vs. raportowanie z wsparciem AI

Obszar

Tradycyjne podejście

Podejście oparte na AI

Pozyskiwanie danych

Ręczne zbieranie informacji z wielu działów; wysoka podatność na błędy

Automatyczna integracja z ERP, IoT, SCADA, dokumentami; redukcja błędów

Analiza danych nienumerycznych

Czasochłonna analiza dokumentów, często skrótowa

NLP analizuje umowy, polityki, raporty – pełna i spójna analiza

Obliczanie emisji CO₂

Zależne od ręcznych wprowadzeń i uproszczeń

Modele AI mapują dane aktywności na emisje (Scope 1–3)

Wykrywanie anomalii

Weryfikacja ręczna, często incydentalna

Automatyczna detekcja nietypowych wartości i braków danych

Ślad rewizyjny

Ograniczony – trudne odtworzenie procesu obliczeń

Pełne logowanie, wersjonowanie modeli i danych (MLOps)

Ryzyka ESG w łańcuchu dostaw

Oparte na deklaracjach dostawców

Analiza zewnętrznych danych, sygnałów ryzyka, dokumentów źródłowych

Możliwość audytu

Zależna od jakości dokumentacji, często niewystarczająca

Odtwarzalność wyników, zgodność z ESRS i GHG Protocol

Ważne

Choć potencjał AI w ESG jest ogromny, należy pamiętać, że technologia ta działa w obszarze regulowanym i wrażliwym. Błędne dane wejściowe, niewłaściwie dobrane algorytmy czy brak nadzoru człowieka mogą prowadzić do zjawiska automated greenwashing, czyli generowania atrakcyjnych, lecz nieprawdziwych narracji. Dlatego nieodłącznym elementem wdrażania AI w ESG powinny być procedury walidacji, testowania, dokumentowania modeli oraz kontrole zgodności – tak, aby organizacja była w stanie wykazać, na podstawie jakich danych i algorytmów powstał raport środowiskowy.

Niepodważalna rola człowieka

Sztuczna inteligencja nie eliminuje odpowiedzialności człowieka, lecz zmienia jej charakter. ESG staje się procesem opartym na danych, a AI umożliwia nadanie temu procesowi powtarzalności, przejrzystości i audytowalności. To jednak organizacja – nie algorytm – odpowiada za ostateczną jakość raportowania i jego zgodność z prawem. Właściwie wdrożona AI pozwala tę odpowiedzialność realizować efektywniej, szybciej i przy niższym ryzyku błędu.

Audyt i weryfikacja wskaźników ESG przy użyciu AI

Audyt jako proces wielowarstwowy

Włączenie sztucznej inteligencji do procesów raportowania ESG sprawia, że audyt zrównoważonego rozwoju przestaje być działaniem wyłącznie skupionym na weryfikacji danych źródłowych. Staje się procesem wielowarstwowym, obejmującym zarówno ocenę poprawności wskaźników, jak i kontrolę modeli, które dane te przetwarzają. AI, stosowana do automatycznej integracji danych, klasyfikacji dokumentów i obliczania emisji CO₂, znacząco zwiększa efektywność pracy, lecz równocześnie wprowadza dodatkową odpowiedzialność po stronie audytora. Wymaga on bowiem nie tylko zrozumienia wyników analitycznych, lecz także zdolności do oceny ich genezy, ograniczeń i ryzyk związanych z samym algorytmem.

Rola audytora w nadzorze nad algorytmami

Nowoczesne narzędzia ESG oparte na uczeniu maszynowym pozwalają analizować pełne populacje danych – wszystkie faktury, zapisy pomiarowe, pliki źródłowe czy dokumenty dostawców. To fundamentalna zmiana w porównaniu z tradycyjnym podejściem opartym na próbkowaniu. Audytor staje przed możliwością znacznie dokładniejszej oceny zgodności danych z wymogami ESRS, ale w zamian musi ocenić, czy modele AI działają w sposób stabilny, nie wprowadzają systematycznych błędów oraz posiadają odpowiednią jakość danych uczących i wejściowych. Zgodnie z podejściem prezentowanym w zestawieniach dotyczących integracji AI w raportowaniu ESG, stosowane algorytmy muszą wykazywać transparentność, umożliwiać prześledzenie pełnej ścieżki obliczeń oraz funkcjonować w środowisku kontrolowanym, zgodnym z dobrymi praktykami MLOps.

Weryfikacja modeli w obszarze raportowania śladu węglowego

W obszarze raportowania śladu węglowego AI pełni szczególnie istotną rolę. Jej zastosowanie obejmuje zarówno automatyczne przetwarzanie danych aktywności (activity data), jak i mapowanie ich na współczynniki emisyjności oraz wypełnianie luk informacyjnych wynikających z niekompletności danych dostawców. To właśnie tutaj pojawia się konieczność bardzo ostrożnej weryfikacji. Audytor musi potwierdzić, że zastosowany model działa w sposób spójny z GHG Protocol oraz ESRS E1, a jego decyzje są odtwarzalne i poprawnie udokumentowane. W literaturze branżowej zwraca się uwagę na potrzebę analizy takich elementów jak jakość danych wejściowych, stabilność parametrów, zakres danych treningowych czy wpływ algorytmu na końcową wartość emisji. Wraz z rosnącą liczbą narzędzi obliczających emisje CO₂ pojawia się również konieczność oceny ich wpływu środowiskowego, co jest zgodne z zaleceniami dotyczącymi oceny śladu ekologicznego modeli AI, przedstawianymi w opracowaniach dotyczących CodeCarbon i Green AI.

Ocena nadzoru człowieka nad procesami obliczeniowymi

Kluczowym elementem pracy audytora staje się także ocena nadzoru człowieka nad procesami obliczeniowymi.

Ważne

W dokumentach dotyczących raportowania ESG i automatyzacji procesów akcentuje się, że modele używane do zadań regulowanych muszą być objęte nadzorem human-in-the-loop. Oznacza to, że organizacja powinna posiadać klarowne procedury przeglądu wyników, ich zatwierdzania oraz korygowania sytuacji, w których AI generuje wartości budzące wątpliwości.

To podejście wynika nie tylko z wymogów jakościowych, lecz także z ogólnych zasad odpowiedzialnego stosowania sztucznej inteligencji, opisanych w publikacjach dotyczących audytu AI oraz zgodności z AI Act. Szczególnie ważne jest, aby algorytmy wykorzystywane w kluczowych procesach ESG nie funkcjonowały w sposób w pełni autonomiczny, lecz pozostawały pod stałym monitoringiem operacyjnym.

Procesy due diligence dotyczące łańcucha dostaw

Integralną częścią audytu ESG stają się również procesy due diligence dotyczące łańcucha dostaw. Zgodnie z analizami przedstawianymi w źródłach dotyczących raportowania ESG i nadchodzących zmian, organizacje są zobowiązane do wykazywania informacji nie tylko o własnych emisjach, lecz także o śladzie węglowym dostawców. Wykorzystanie AI w tym obszarze oznacza automatyczną analizę deklaracji, polityk środowiskowych, certyfikatów i informacji publicznych. Audytor musi więc ocenić, czy model, który klasyfikuje ryzyka dostawców lub przypisuje im określone parametry emisyjne, działa w sposób zgodny z dokumentacją, posiada odpowiedni zakres danych oraz nie pomija istotnych źródeł ryzyka.

Zgodność z zasadą traceability

Wreszcie, audyt wskaźników ESG wykorzystujących sztuczną inteligencję musi uwzględniać pełną audytowalność procesów – obowiązek szczególnie podkreślany w publikacjach poświęconych automatyzacji raportowania ESG oraz MLOps w kontekście CSRD. Modele muszą mieć pełną dokumentację techniczną, zawierającą opis danych, parametrów, ograniczeń i wersji. Wszystkie operacje powinny być logowane, a system musi pozwalać na odtworzenie dokładnego przebiegu obliczeń. Właśnie ta możliwość odtworzenia wyników – a więc zgodność z zasadą traceability – przesądza o tym, czy raport ESG może zostać pozytywnie zweryfikowany podczas zewnętrznej atestacji.

Podniesienie standardów audytu

AI w audycie ESG nie jest więc narzędziem, które upraszcza pracę poprzez automatyzację obliczeń. Przeciwnie – wymusza podniesienie standardów audytu, uzupełniając tradycyjne czynności o analizę algorytmów, danych, metadanych, reguł walidacji i mechanizmów kontroli. Audytor musi rozumieć nie tylko rezultat, lecz także sposób jego uzyskania. Tylko wtedy można stwierdzić, że raport ESG jest zgodny z wymogami CSRD, rzetelny oraz oparty na danych, które przeszły odpowiednią weryfikację merytoryczną i techniczną.

Weryfikacja modeli AI wykorzystywanych w monitorowaniu śladu węglowego i raportowaniu CSRD

Spójny system kontroli jakości

Zgodnie z wymogami CSRD, ESRS oraz GHG Protocol, dane niefinansowe, w tym dotyczące emisji gazów cieplarnianych, muszą być weryfikowalne, oparte na wiarygodnych źródłach oraz możliwe do odtworzenia. Jeżeli organizacja korzysta z algorytmów uczenia maszynowego do obliczania emisji, klasyfikacji danych aktywności czy szacowania brakujących wartości – to właśnie te modele stają się przedmiotem audytu. Wymaga to połączenia kompetencji technicznych i regulacyjnych oraz wdrożenia spójnego systemu kontroli jakości podobnego do tego, który opisano w standardach bezpieczeństwa informacji i audytu AI.

Kompletne, rzetelne i reprezentatywne dane

Modele stosowane w ESG muszą spełniać kilka fundamentalnych kryteriów. Przede wszystkim powinny działać w oparciu o kompletne, rzetelne i reprezentatywne dane. Kwestia jakości danych była wielokrotnie akcentowana zarówno w literaturze dotyczącej ESG, jak i w analizach związanych z AI Act, gdzie precyzyjnie wskazuje się, że algorytmy bazują na jakości informacji, na których zostały wytrenowane. W kontekście raportowania emisji CO₂ oznacza to konieczność zapewnienia, że dane wejściowe – od zużycia energii po dane zakupowe – nie zawierają luk, błędów ani elementów mogących zafałszować wynik. Audytor powinien więc ocenić proces pozyskiwania danych, ich walidacji oraz kontrolę nad źródłami danych dostawców.

Pełna dokumentacja techniczna

Drugim filarem weryfikacji modelu jest analiza jego mechaniki działania – sposobu, w jaki przetwarza dane i wytwarza wyniki. W tym obszarze szczególne znaczenie mają zasady dokumentacji i przejrzystości, które wprost wynikają z dobrych praktyk zarządzania systemami AI. Model musi posiadać pełną dokumentację techniczną, opisującą dane treningowe, parametry, zakres zastosowania, potencjalne ograniczenia oraz sposób walidacji. Dokumentacja ta – podobnie jak w systemach wysokiego ryzyka – służy nie tylko celom technicznym, lecz przede wszystkim zapewnia rozliczalność i możliwość przeprowadzenia kontroli zgodności. Audytor powinien mieć możliwość prześledzenia ścieżki obliczeniowej oraz odtworzenia wyników dla dowolnego wskaźnika ESG.

Wdrożenie procedur kontrolnych

Nie mniej istotnym elementem jest ocena stabilności i odporności modelu na zmienność danych. Modele wykorzystywane w ESG działają w środowisku dynamicznym – parametry produkcyjne zmieniają się, struktura dostawców ewoluuje, a regulacje dotyczące emisji podlegają aktualizacjom. Dlatego modele muszą być regularnie testowane, kalibrowane i monitorowane. W praktyce oznacza to wdrożenie procedur kontrolnych typowych dla środowisk MLOps: wersjonowanie modeli, monitorowanie driftu danych, okresową walidację wyników oraz utrzymywanie pełnej historii zmian. W literaturze regulacyjnej i technicznej dotyczącej AI podkreśla się, że to właśnie stabilność modelu i jego odporność na „poślizg” danych decydują o wiarygodności wyników – w szczególności wyników, które podlegają późniejszej atestacji.

Uzasadnienie oraz wskazanie źródeł wszystkich ujawnień

Kolejnym aspektem jest ocena wpływu modelu na treści raportu ESG. Wykorzystanie AI nie może prowadzić do sytuacji, w której organizacja nie jest w stanie wyjaśnić, skąd wynikają wartości dotyczące emisji, konsumpcji zasobów czy danych o łańcuchu dostaw. Wymogi ESRS i CSRD wyraźnie nakazują uzasadnienie oraz wskazanie źródeł wszystkich ujawnień. Oznacza to, że nawet jeżeli model stosuje zaawansowane techniki imputacji braków w danych, to organizacja musi jasno wykazać, jakie algorytmy zostały użyte, jakie założenia przyjęto oraz jakie są granice niepewności wyników. Audytor ocenia więc również to, czy organizacja potrafi zarządzać niepewnością modelu i czy dokumentuje ją w sposób przejrzysty.

Nadzór człowieka w procesach decyzyjnych o wysokiej wadze

W procesie weryfikacji modeli AI stosowanych w ESG kluczową rolę odgrywa także ocena nadzoru człowieka. Modele generujące wartości wykorzystywane do raportowania regulowanego nie mogą działać w pełni autonomicznie – muszą być objęte stałym monitoringiem, przeglądem oraz zatwierdzaniem przez kompetentne osoby. Wymóg ten znajduje odzwierciedlenie zarówno w zasadach odpowiedzialnego stosowania AI, jak i w standardach bezpieczeństwa informacji, które jednoznacznie wskazują na konieczność zapewnienia human-in-the-loop w procesach decyzyjnych o wysokiej wadze. W obszarze ESG jest to szczególnie istotne, ponieważ błędna decyzja algorytmu może wpłynąć na raport podlegający atestacji, a w konsekwencji – na odpowiedzialność organizacji wobec regulatorów.

Analiza zgodności z przepisami, standardami i dobrymi praktykami

Ostatnią warstwą weryfikacji jest analiza zgodności z przepisami, standardami i dobrymi praktykami. Modele stosowane do liczenia śladu węglowego muszą być zgodne z GHG Protocol, ESRS E1, ISO 14064-1:2018, a ich działanie powinno uwzględniać obowiązki dokumentacyjne i audytowe, które pojawiają się w regulacjach dotyczących AI. W tym kontekście należy zwrócić uwagę na wymogi dotyczące logowania, rejestrowania zmian i prowadzenia dokumentacji technicznej – podejście to było szczegółowo analizowane w publikacjach dotyczących IR-AI oraz ISO 27001 i stanowi fundament audytowalności każdego systemu opartego na AI. Modele AI używane w ESG powinny więc być traktowane w sposób analogiczny: jako systemy podlegające kontroli, dokumentacji i cyklicznemu przeglądowi.

Elementy pełnej walidacji modelu AI w ESG

Weryfikacja modeli AI w ESG nie polega zatem wyłącznie na sprawdzeniu poprawności matematycznej. Jest to proces, który obejmuje analizę jakości danych, logiki algorytmicznej, stabilności modelu, nadzoru człowieka oraz zgodności regulacyjnej. Dopiero równoczesne uwzględnienie tych elementów pozwala uznać, że wynik modelu – wartość emisji, wskaźnik środowiskowy czy klasyfikacja dostawcy – może być wykorzystany w raporcie zrównoważonego rozwoju, a następnie poddany atestacji bez ryzyka zakwestionowania przez audytora lub regulatora.

Cyberbezpieczeństwo i rozliczalność AI w raportowaniu ESG

Zarządzanie bezpieczeństwem modeli AI

Rosnąca rola sztucznej inteligencji w obszarze ESG oznacza, że modele i automatyczne procesy liczące emisje czy konsolidujące dane niefinansowe stają się częścią infrastruktury krytycznej dla raportowania regulowanego. CSRD, ESRS i GHG Protocol nakładają wysokie wymogi dotyczące wiarygodności i audytowalności danych, a to z kolei przekłada się na potrzebę zarządzania bezpieczeństwem modeli AI w sposób zbliżony do praktyk stosowanych w systemach wysokiego ryzyka czy procesach bezpieczeństwa informacji.

Ważne

AI w ESG nie jest już narzędziem wspierającym – staje się elementem systemu raportowania, którego kompromitacja może oznaczać błędne ujawnienia, utratę zgodności i ryzyko sankcji.

Dlatego organizacje muszą traktować cyberbezpieczeństwo i rozliczalność modeli ESG-AI jako element strategiczny.

Zapewnienie integralności danych wejściowych oraz pełnej kontroli źródeł

Podstawowym wyzwaniem pozostaje bezpieczeństwo danych. Modele ESG przetwarzają informacje pochodzące z bardzo wielu źródeł – od systemów ERP i chmurowych modułów produkcyjnych, przez sensory IoT i inteligentne liczniki, aż po dokumenty dostawców i rejestry publiczne. Tak zróżnicowany ekosystem zwiększa ryzyko błędów, manipulacji lub ataków prowadzących do zafałszowania wyników. Aby temu zapobiec, konieczne jest zapewnienie integralności danych wejściowych oraz pełnej kontroli źródeł. Organizacje muszą posiadać mechanizmy potwierdzające autentyczność i niezmienność danych oraz procesy weryfikacji informacji pochodzących od dostawców. Tylko wtedy modele AI będą miały szansę generować wyniki, które można uznać za wiarygodne.

Konieczność wdrażania środków ochrony modeli

Drugim kluczowym aspektem jest bezpieczeństwo samych modeli. W literaturze dotyczącej bezpieczeństwa AI podkreśla się, że systemy trenowane na dużych, heterogenicznych zbiorach danych są podatne na specyficzne wektory ataków: zatruwanie danych (data poisoning), manipulacje na wejściu (adversarial input), próby odtworzenia danych treningowych (model inversion) czy ingerencję w pipeline’y MLOps odpowiedzialne za wdrażanie i aktualizację modeli. W kontekście ESG skutki takich ataków mogą być wyjątkowo poważne – mogą prowadzić do zaniżenia emisji, zaburzenia informacji o łańcuchu dostaw lub generowania błędnych wskaźników środowiskowych. Dlatego organizacje muszą wdrażać środki ochrony modeli, w tym kontrolę dostępu, monitorowanie integralności wag, wersjonowanie modeli, automatyczne testy regresji i procedury zatwierdzania modeli przed ich użyciem produkcyjnym.

Wymogi rozliczalności i dokumentowalności systemów AI

Kolejna warstwa to rozliczalność, czyli możliwość odtworzenia sposobu działania modelu i wyjaśnienia, na jakiej podstawie wygenerował określone wyniki. W środowisku ESG rozliczalność nie jest jedynie dobrą praktyką – to wymóg regulacyjny. CSRD i ESRS kładą nacisk na pełną dokumentację źródeł danych i metodologii obliczeń. GHG Protocol wymaga zachowania ścieżek dowodowych wskazujących, skąd pochodzą współczynniki i jakie dane aktywności zostały zastosowane. Jeśli organizacja wykorzystuje AI, to właśnie model – jego parametry, dane wejściowe, wersja i sposób działania – staje się częścią dokumentacji raportowej. Oznacza to obowiązek prowadzenia szczegółowych logów obejmujących źródła danych, transformacje, przeliczenia oraz interakcje człowieka z modelem. Takie logowanie, zgodnie z zasadami bezpieczeństwa opisanymi w analizach dotyczących systemów IR-AI i ISO/IEC 27001, jest kluczowym elementem umożliwiającym audyt i rekonstrukcję zdarzeń.

Nadzór człowieka jako warunek rozliczalności AI

Wymóg rozliczalności prowadzi bezpośrednio do potrzeby wdrożenia nadzoru człowieka. Modele wykorzystywane w ESG nie mogą funkcjonować w sposób w pełni autonomiczny. Ich zadaniem jest wspieranie procesu, ale nie zastępowanie oceny eksperckiej. Organizacja musi więc zapewnić mechanizmy human-in-the-loop, umożliwiające walidację i zatwierdzanie wyników generowanych przez model, a w razie potrzeby – ich korektę. Nadzór człowieka nie tylko redukuje ryzyko błędów technicznych, ale także wzmacnia zgodność regulacyjną, ponieważ umożliwia wykazanie, że dane zostały świadomie ocenione, a nie bezrefleksyjnie przejęte z systemu AI.

Cykliczna walidacja i rekalibracja modeli AI

Warstwa cyberbezpieczeństwa w ESG obejmuje także kontrolę zmian i ciągły monitoring modeli. Dane środowiskowe mają charakter dynamiczny – zmieniają się profile produkcji, zużycie surowców, wartości współczynników emisyjnych, a także wymagania regulacyjne. Modele muszą więc podlegać cyklicznej walidacji i rekalibracji. W tym kontekście szczególne znaczenie ma integracja praktyk MLOps, takich jak kontrola wersji datasetów, automatyczne testy regresji, monitorowanie driftu danych i modeli czy procedury wycofywania modeli w przypadku wykrycia nieprawidłowości. Jest to podejście zgodne z logiką systemów zarządzania bezpieczeństwem informacji i analogiczne do modeli stosowanych w sektorach finansowych lub bezpieczeństwa – co potwierdzają normy ISO/IEC 27001 i ISO/IEC 42001.

Zgodność regulacyjna systemów AI w raportowaniu ESG

Całość tych działań musi być powiązana z wymogami regulacyjnymi dotyczącymi raportowania ESG. Systemy AI stosowane do liczenia emisji muszą działać zgodnie z GHG Protocol, ESRS E1 oraz ISO 14064-1:2018, a ich działanie musi umożliwiać późniejszą atestację raportu. Oznacza to, że wszystko – od danych wejściowych, przez logikę algorytmu, po sposób prezentacji wyników – musi być przejrzyste, udokumentowane i możliwe do audytu. Tylko wtedy raport można uznać za zgodny, a organizacja może wykazać należytą staranność w korzystaniu z systemów AI.

Cyberbezpieczeństwo i rozliczalność jako fundament raportowania ESG

W rezultacie cyberbezpieczeństwo i rozliczalność modeli AI w ESG nie są dodatkowymi elementami „dookoła technologii”, lecz fundamentem całego procesu raportowania zrównoważonego rozwoju. Obejmują ochronę danych, odporność modeli, logowanie i audytowość procesów, nadzór człowieka oraz pełną dokumentację zgodności. Dopiero połączenie tych aspektów pozwala uznać, że modele wykorzystywane w ESG spełniają wymogi rzetelności, wiarygodności i zgodności z regulacjami.

Zakończenie

Nowe możliwości dzięki AI

Wykorzystanie sztucznej inteligencji w raportowaniu zrównoważonego rozwoju otwiera przed organizacjami możliwości, które jeszcze niedawno były poza zasięgiem tradycyjnych metod analitycznych. Modele AI pozwalają porządkować rozproszone dane niefinansowe, uszczelniać procesy obliczania emisji oraz automatyzować zadania, które dotąd wymagały znacznych nakładów pracy eksperckiej. Jednocześnie rosnący zakres regulacji – od CSRD i ESRS po wymogi weryfikacyjne dotyczące jakości danych – powoduje, że to właśnie precyzja, transparentność i audytowalność rozwiązań technicznych stają się kluczowymi czynnikami ich odpowiedzialnego wdrożenia.

Nieustający i szeroki nadzór audytora

AI nie jest jednak narzędziem neutralnym. Jej zastosowanie w obszarze ESG może wzmacniać jakość raportowania i zwiększać zaufanie odbiorców, ale przy braku kontroli – prowadzić do błędów, zafałszowań lub tzw. automated greenwashing, w którym atrakcyjne narracje zastępują rzetelną analizę danych. Dlatego rola audytora, zarówno wewnętrznego, jak i zewnętrznego, nie ogranicza się już wyłącznie do oceny poprawności wskaźników. Musi obejmować również ocenę algorytmów, źródeł danych, sposobu trenowania modeli oraz ich odporności na błędy i manipulacje.

Integracja systemów i budowanie kompetencji

Przyszłość raportowania zrównoważonego rozwoju będzie w coraz większym stopniu zależeć od tego, w jaki sposób organizacje zintegrują systemy AI z istniejącymi procesami ładu korporacyjnego. Modele sztucznej inteligencji mogą znacząco podnieść jakość raportów ESG, ale tylko wtedy, gdy wdrażane są w sposób świadomy, odpowiedzialny i zgodny z ramami regulacyjnymi. Kluczowe jest zatem konsekwentne budowanie kompetencji, rozwijanie kultury danych oraz tworzenie mechanizmów audytu, które obejmują nie tylko wyniki, lecz także procesy obliczeniowe stojące za każdym wskaźnikiem.

Ostatecznie AI nie zastąpi odpowiedzialności przedsiębiorstwa – może ją jednak wzmocnić. Warunkiem jest działanie w oparciu o przejrzystość, dokumentację oraz systemowe podejście do ryzyk. Dzięki temu technologia stanie się nie zagrożeniem, lecz sojusznikiem w realizacji ambitnych celów środowiskowych i społecznych.

Kup Legalisa Księgowość Kadry Biznes online i uzyskaj natychmiastowy dostęp! Sprawdź