Wstęp – emocje jako nowe paliwo algorytmów
AI Act pojawia się w momencie, w którym granica pomiędzy usprawnieniem procesów a ingerencją w sferę godności i autonomii jednostki staje się coraz mniej wyraźna. AI Act nie wprowadza generalnego zakazu technologii rozpoznawania emocji jako takich. Zakaz przewidziany w art. 5 ust. 1 lit. c AIAct dotyczy wyłącznie określonego kontekstu ich stosowania – tj. wykorzystywania systemów AI do wnioskowania o stanie emocjonalnym pracowników oraz osób uczących się w środowisku pracy i edukacji, gdzie relacja podporządkowania strukturalnie ogranicza autonomię jednostki. Oznacza to, że przedmiotem regulacji nie jest sama technologia, lecz ryzyko wynikające z jej zastosowania w relacjach asymetrycznych, mogących prowadzić do nadmiernej kontroli, presji psychologicznej lub naruszenia godności osoby fizycznej.
Brak bezpośredniego i jednoznacznego zakazu stosowania systemów rozpoznawania emocji wobec klientów nie może być interpretowany jako przyzwolenie na ich swobodne wykorzystanie. AI Act w tym obszarze nie operuje logiką „dozwolone–zakazane”, lecz świadomie przenosi ocenę dopuszczalności na poziom skutków, kontekstu i celu zastosowania systemu AI. Oznacza to, że wykorzystanie analizy emocji klientów podlega ocenie nie przez pryzmat samej technologii, lecz przez realny wpływ na sytuację osoby fizycznej, w tym dostęp do usług, warunki ich świadczenia oraz ryzyko naruszenia praw podstawowych.
Klient nie jest bowiem podmiotem „mniej chronionym” tylko dlatego, że nie pozostaje w relacji podporządkowania służbowego. Jego emocje, analizowane przez system AI, mogą prowadzić do decyzji realnie wpływających na dostęp do usług, sytuację ekonomiczną, reputację czy sposób traktowania w przestrzeni publicznej. Gdy złość lub agresja werbalna stają się skuteczną strategią skracania kolejki, a spokój i cierpliwość prowadzą do dłuższego oczekiwania, algorytm zaczyna kształtować normy społeczne – i to w sposób, który trudno pogodzić z zasadą równego traktowania.
Analiza emocji klientów przy użyciu systemów sztucznej inteligencji nie musi sama w sobie oznaczać przetwarzania danych osobowych w rozumieniu RODO. Zastosowanie tego rozporządzenia zależy nie od charakteru technologii, lecz od tego, czy w danym przypadku dochodzi do identyfikacji osoby fizycznej – bezpośredniej lub pośredniej – przy użyciu danych lub kontekstu ich wykorzystania. Dopiero w sytuacji, gdy wynik analizy emocji może zostać powiązany z konkretną osobą, kontem klienta, sprawą lub sesją, mamy do czynienia z przetwarzaniem danych osobowych podlegającym reżimowi RODO.
W konsekwencji ocena zgodności analizy emocji z RODO wymaga każdorazowo badania nie samej techniki analitycznej, lecz sposobu jej wdrożenia oraz skutków dla sytuacji konkretnej osoby.
AI Act nie traktuje systemów sztucznej inteligencji jako autonomicznych podmiotów odpowiedzialności prawnej. Rozporządzenie konsekwentnie przypisuje obowiązki i ryzyka związane z wykorzystaniem AI określonym podmiotom uczestniczącym w łańcuchu jej tworzenia i wdrażania, w szczególności dostawcom i podmiotom stosującym systemy AI. Choć AI Act nie ustanawia bezpośredniej odpowiedzialności osobistej członków organów zarządzających, to jego konstrukcja wzmacnia odpowiedzialność organizacyjną, która na gruncie prawa spółek, compliance i nadzoru korporacyjnego pośrednio obciąża osoby decydujące o wdrożeniu i sposobie użycia systemów AI. W tym sensie AI Act nie „przenosi” odpowiedzialności na algorytm ani na pojedynczego menedżera, lecz eliminuje możliwość jej rozmycia w strukturze organizacyjnej.
W tym sensie brak zakazu nie oznacza braku ograniczeń, lecz przesunięcie ciężaru regulacyjnego z formalnej kwalifikacji systemu na odpowiedzialność za jego skutki.
Badanie emocji klientów w świetle AI Act – granice dopuszczalności i ryzyko dyskryminacji
Badanie emocji klientów przy użyciu systemów sztucznej inteligencji lokuje się w jednym z najbardziej niejednoznacznych obszarów regulacyjnych AI Act. Z jednej strony rozporządzenie nie wprowadza generalnego, bezwzględnego zakazu rozpoznawania emocji klientów, z drugiej – jednoznacznie wskazuje, że technologie ingerujące w sferę psychologiczną jednostki wymagają szczególnej ostrożności i oceny skutków dla praw podstawowych. Kluczowe znaczenie ma tu nie samo techniczne „rozpoznanie emocji”, lecz cel, kontekst i konsekwencje wykorzystania tej informacji w procesach decyzyjnych.
AI Act operuje podejściem opartym na ryzyku. Oznacza to, że systemy AI nie są oceniane wyłącznie przez pryzmat ich funkcjonalności, ale przede wszystkim przez skutki, jakie wywierają na sytuację osoby fizycznej. Jeżeli analiza emocji klientów pozostaje wyłącznie elementem wsparcia konsultanta, bez automatycznego wpływu na decyzje dotyczące dostępu do usług, kolejności obsługi czy warunków umownych, ryzyko regulacyjne jest relatywnie niższe. Sytuacja zmienia się jednak zasadniczo w momencie, gdy emocja staje się przesłanką decyzyjną, a system AI zaczyna samodzielnie modyfikować sposób traktowania klienta.
W praktyce szczególnie problematyczny jest mechanizm uprzywilejowania klientów na podstawie ich zachowania emocjonalnego. Jeżeli system rozpoznaje zdenerwowanie, frustrację lub agresję werbalną i na tej podstawie przyznaje wyższy priorytet obsługi, skraca czas oczekiwania lub eskaluje sprawę szybciej niż w przypadku klientów spokojnych i cierpliwych, wówczas emocja przestaje być neutralnym sygnałem operacyjnym. Staje się kryterium różnicującym sytuację prawną i faktyczną użytkowników.
Z perspektywy AI Act taki mechanizm rodzi ryzyko naruszenia praw podstawowych, w szczególności zasady równego traktowania wyrażonej w Karcie praw podstawowych Unii Europejskiej. Choć emocja nie jest cechą chronioną wprost, to jej wykorzystanie prowadzi do systemowego naruszenia zasady równego traktowania oraz sprawiedliwości proceduralnej. Kryterium, które na pierwszy rzut oka wydaje się neutralne technologicznie, w rzeczywistości premiuje określony typ zachowania i penalizuje inny. W efekcie osoby przestrzegające norm społecznych – spokojne, rzeczowe, nieeskalujące konfliktu – są systemowo stawiane w gorszej sytuacji niż osoby reagujące agresją lub presją emocjonalną.
Taki model obsługi trudno pogodzić również z zasadą sprawiedliwości i rzetelności przetwarzania danych osobowych, wynikającą z art. 5 ust. 1 lit. a RODO. Przetwarzanie danych – w tym danych dotyczących emocji lub zachowań – nie może prowadzić do arbitralnych i nieprzejrzystych różnic w traktowaniu podmiotów danych. Co więcej, w sytuacji gdy decyzje dotyczące priorytetu obsługi są podejmowane w sposób wyłącznie zautomatyzowany i wywołują wobec klienta skutki prawne lub w podobny sposób istotnie na niego wpływają, zastosowanie znajduje art. 22 RODO, przewidujący szczególne gwarancje, w tym prawo do interwencji człowieka oraz zakaz bezrefleksyjnego podporządkowania się decyzjom algorytmicznym.
Na gruncie AI Act dodatkowym problemem jest fakt, że systemy analizujące emocje bardzo łatwo przekraczają granicę pomiędzy wsparciem a sterowaniem zachowaniami społecznymi. Algorytm, który „uczy” klientów, że podniesiony głos i agresja skutkują szybszą obsługą, realnie kształtuje niepożądane normy społeczne. W tym sensie nie jest to już wyłącznie kwestia efektywności procesowej, lecz ingerencja w relacje społeczne i kulturę organizacyjną, za którą odpowiedzialność ponosi podmiot wdrażający system AI.
Warto również podkreślić, że AI Act nie pozwala zasłaniać się neutralnością technologii. Organizacja, która decyduje się na wykorzystanie emocji jako zmiennej decyzyjnej, musi być w stanie wykazać, że rozwiązanie to jest proporcjonalne, niezbędne i nie prowadzi do systemowego uprzywilejowania lub wykluczenia określonych grup klientów. Brak takiej analizy może zostać uznany za naruszenie obowiązków w zakresie zarządzania ryzykiem i nadzoru nad systemami AI.
W konsekwencji badanie emocji klientów znajduje się na cienkiej granicy pomiędzy dopuszczalnym usprawnieniem obsługi a mechanizmem prowadzącym do dyskryminacji pośredniej. AI Act, czytany łącznie z RODO i Kartą praw podstawowych UE, przesuwa punkt ciężkości z pytania „czy technicznie potrafimy to zrobić” na pytanie „czy skutki tego rozwiązania są akceptowalne w demokratycznym państwie prawa”. W tym sensie emocje jako kryterium uprzywilejowania nie są problemem technologicznym, lecz prawnym i społecznym – a odpowiedzialność za ich wykorzystanie zawsze spoczywa po stronie człowieka, nie algorytmu.
RODO i ochrona podmiotu danych – decyzje, skutki i odpowiedzialność
Wykorzystywanie systemów sztucznej inteligencji do analizy emocji klientów nie funkcjonuje w próżni regulacyjnej. Niezależnie od kwalifikacji danego rozwiązania na gruncie AI Act, w zdecydowanej większości przypadków zastosowanie znajdą przepisy RODO. Warto jednak wyraźnie zaznaczyć granicę, która w praktyce bywa nieostro rysowana: RODO chroni wyłącznie dane osobowe, a nie dane anonimowe. To rozróżnienie ma kluczowe znaczenie w kontekście analizy emocji, zwłaszcza gdy organizacje sięgają po anonimowe ankiety lub zagregowane badania satysfakcji.
Jeżeli dane są rzeczywiście anonimowe, a więc nie pozwalają na identyfikację osoby fizycznej ani bezpośrednio, ani pośrednio – także przy użyciu „rozsądnie prawdopodobnych środków”, o których mowa w motywie 26 RODO – wówczas rozporządzenie nie znajduje zastosowania. Anonimowe ankiety badające ogólny poziom zadowolenia klientów, nastroje w punktach obsługi czy odbiór jakości usług, co do zasady nie podlegają reżimowi RODO, o ile nie istnieje możliwość powiązania odpowiedzi z konkretną osobą, kontem klienta, numerem sprawy czy innym identyfikatorem.
Problem pojawia się jednak w momencie, gdy „anonimowość” ma charakter wyłącznie deklaratywny. W praktyce wiele systemów zbiera dane, które formalnie nie zawierają imienia i nazwiska, ale mogą zostać łatwo powiązane z konkretnym klientem poprzez kontekst: godzinę zgłoszenia, kanał komunikacji, treść sprawy, nagranie rozmowy czy identyfikator sesji. W takim przypadku mamy do czynienia nie z anonimizacją, lecz z pseudonimizacją, która wprost pozostaje w zakresie stosowania RODO. Anonimowa ankieta przestaje być anonimowa, jeżeli jej wynik wpływa na dalsze traktowanie konkretnego klienta lub jest analizowany łącznie z innymi danymi pozwalającymi na jego identyfikację.
Szczególnego znaczenia nabiera to w kontekście emocji jako zmiennej decyzyjnej. Jeżeli emocje są badane w sposób anonimowy i wykorzystywane wyłącznie do analiz statystycznych, trendów lub poprawy jakości procesów – bez możliwości oddziaływania na sytuację konkretnej osoby – ryzyko naruszenia RODO jest istotnie ograniczone. Tego rodzaju przetwarzanie mieści się w klasycznych badaniach satysfakcji klientów. Sytuacja diametralnie się zmienia, gdy analiza emocji, nawet pozornie anonimowa, jest wykorzystywana operacyjnie, np. do zmiany kolejności obsługi, eskalacji sprawy czy oceny „trudności” klienta.
RODO wymaga bowiem oceny nie tylko formy danych, ale również skutków ich wykorzystania. Jeżeli wynik analizy emocji – nawet pozyskany w ankiecie – wpływa na decyzje dotyczące konkretnej osoby, to z perspektywy prawa mamy do czynienia z przetwarzaniem danych osobowych i potencjalnie z profilowaniem. W takim przypadku zastosowanie znajdują zasady z art. 5 RODO, obowiązki informacyjne z art. 13 RODO i art. 14 RODO oraz ograniczenia wynikające z art. 22 RODO dotyczące zautomatyzowanego podejmowania decyzji.
Warto również podkreślić, że pełna anonimizacja w środowisku opartym na AI i dużych zbiorach danych jest technicznie i organizacyjnie trudna do utrzymania w długim okresie. Systemy uczące się mają naturalną tendencję do łączenia danych z różnych źródeł, co zwiększa ryzyko ponownej identyfikacji (re-identyfikacji) osoby fizycznej. Z tego względu organizacja, która deklaruje wykorzystywanie wyłącznie danych anonimowych, powinna być w stanie wykazać, że ryzyko re-identyfikacji zostało realnie ocenione i ograniczone, a dane nie są używane w sposób pozwalający na indywidualne oddziaływanie na klienta.
Kwestia odpowiedzialności pozostaje w tym kontekście niezmienna. Jeżeli dane są rzeczywiście anonimowe i wykorzystywane wyłącznie w celach statystycznych, odpowiedzialność regulacyjna na gruncie RODO nie powstaje. Jeżeli jednak „anonimowość” okazuje się pozorna, a skutki przetwarzania przenoszą się na sytuację konkretnej osoby – odpowiedzialność spoczywa po stronie administratora danych. RODO nie dopuszcza bowiem fikcji anonimowości jako sposobu obejścia ochrony praw jednostki.
W tym sensie anonimowe ankiety mogą być bezpiecznym narzędziem badania emocji klientów, ale tylko pod warunkiem, że pozostają faktycznie anonimowe i nie są wykorzystywane do podejmowania decyzji dotyczących konkretnych osób. Każde wyjście poza ten model przesuwa analizę emocji z obszaru badań jakościowych do sfery regulowanej, w której kluczowe znaczenie mają przejrzystość, proporcjonalność i odpowiedzialność człowieka za skutki działania systemów AI.
Konsekwencje społeczne analizy emocji i mit technologicznego alibi
Automatyczna analiza emocji może prowadzić do bardzo konkretnych strat finansowych. Jeżeli na podstawie zachowania emocjonalnego klienta system AI ogranicza dostęp do określonych usług, zmienia warunki oferty, opóźnia realizację sprawy lub klasyfikuje klienta jako „problemowego”, konsekwencje ekonomiczne są często bezpośrednie i mierzalne. Co istotne, skutki te mogą kumulować się w czasie – pojedyncza decyzja algorytmu, pozornie techniczna, może uruchomić łańcuch dalszych decyzji organizacyjnych, które prowadzą do trwałego pogorszenia sytuacji osoby fizycznej.
Jeszcze bardziej dotkliwe bywają skutki niematerialne. Stygmatyzacja klienta jako „trudnego”, „agresywnego” czy „emocjonalnie niestabilnego” wpływa na sposób jego dalszego traktowania przez organizację, a nierzadko także przez inne podmioty, jeżeli informacje te są przekazywane lub wykorzystywane wtórnie. W praktyce może to prowadzić do wykluczenia z usług, obniżenia zaufania, a nawet trwałego naruszenia reputacji. Tego rodzaju etykietowanie, dokonywane przez algorytm, jest szczególnie problematyczne, ponieważ osoba, której dotyczy, często nie ma świadomości istnienia takiej klasyfikacji ani możliwości jej zakwestionowania.
W szerszej perspektywie społecznej analiza emocji przez AI może również kształtować niepożądane wzorce zachowań. Jeżeli system premiuje agresję, eskalację i presję emocjonalną, a nie nagradza spokoju i rzeczowości, algorytm staje się aktywnym uczestnikiem zmiany norm społecznych. Zamiast łagodzić konflikty, technologia zaczyna je wzmacniać, wysyłając sygnał, że najbardziej opłacalną strategią jest podniesiony głos, frustracja lub konfrontacja. Takie skutki wykraczają daleko poza relację klient–organizacja i wpływają na jakość debaty publicznej oraz zaufanie społeczne do instytucji.
W tym kontekście szczególnie niebezpieczny staje się mit technologicznego alibi. Popularność AI wynika nie tylko z jej efektywności, lecz także z psychologicznego mechanizmu przenoszenia odpowiedzialności na algorytm. Decyzja, która w rzeczywistości jest wynikiem określonych założeń projektowych i biznesowych, bywa przedstawiana jako „obiektywny wynik działania systemu”. AI zaczyna pełnić rolę wygodnej tarczy, za którą chowają się decydenci, menedżerowie i organizacje.
AI Act oraz powiązane regulacje unijne próbują ten mit systemowo rozbroić. Ustawodawca wychodzi z założenia, że największym zagrożeniem nie jest sama technologia, lecz brak odpowiedzialności za jej użycie. Dlatego odpowiedzialność za skutki działania systemów AI jest konsekwentnie przypisywana ludziom – tym, którzy decydują o wdrożeniu, konfiguracji i celach wykorzystania algorytmu. W tym modelu „to AI tak zdecydowała” nie jest usprawiedliwieniem, lecz sygnałem błędu w zarządzaniu.
Z perspektywy społecznej iluzja bezkarności prowadzi do erozji zaufania. Jeżeli jednostka doświadcza realnych strat – finansowych, reputacyjnych czy społecznych – a jednocześnie słyszy, że nikt nie ponosi za to odpowiedzialności, bo „zadecydował algorytm”, dochodzi do podważenia podstawowych zasad państwa prawa. Technologia, zamiast być narzędziem poprawy jakości usług, staje się źródłem frustracji i poczucia niesprawiedliwości.
W konsekwencji analiza emocji klientów przez AI nie może być oceniana wyłącznie przez pryzmat efektywności operacyjnej. Jej rzeczywistym testem jest to, czy organizacja potrafi wziąć odpowiedzialność za społeczne skutki automatyzacji. AI Act jasno sygnalizuje, że era technologicznego alibi dobiega końca. W świecie, w którym algorytmy coraz głębiej ingerują w relacje społeczne, odpowiedzialność nie znika – przeciwnie, staje się bardziej skoncentrowana i trudniejsza do zignorowania.
Podsumowanie
Choć AI Act nie wprowadza bezwzględnego zakazu rozpoznawania emocji klientów, to w połączeniu z RODO oraz Kartą praw podstawowych UE wyznacza wyraźne granice dopuszczalności takich praktyk. Granice te nie przebiegają na poziomie samej technologii, lecz na poziomie skutków, jakie jej zastosowanie wywiera na sytuację jednostki i relacje społeczne.
Emocje, wykorzystywane jako kryterium decyzyjne, bardzo łatwo przekształcają się z narzędzia analitycznego w mechanizm uprzywilejowania lub wykluczenia. Premiowanie agresji, frustracji czy presji emocjonalnej kosztem spokoju i cierpliwości prowadzi do pośredniej dyskryminacji oraz systemowego naruszania zasady równego traktowania. W takim modelu algorytm nie tylko obsługuje procesy, lecz zaczyna kształtować normy społeczne – i to w sposób trudny do pogodzenia z ideą sprawiedliwości proceduralnej.
RODO przypomina, że w centrum każdej operacji przetwarzania danych stoi człowiek, a nie algorytm. Niezależnie od stopnia automatyzacji, odpowiedzialność za skutki decyzji podejmowanych na danych osobowych – w tym danych dotyczących emocji – spoczywa na administratorze. Nawet tam, gdzie organizacje sięgają po anonimowe ankiety, granica odpowiedzialności przesuwa się w momencie, gdy wyniki analiz zaczynają wpływać na sytuację konkretnej osoby. Anonimowość nie może być fikcją ani wygodnym sposobem obejścia ochrony praw jednostki.
Najistotniejszym wnioskiem płynącym z AI Act jest jednak odrzucenie technologicznego alibi. Sztuczna inteligencja nie stanowi autonomicznego aktora społecznego i nie przejmuje odpowiedzialności za swoje działania. Jest narzędziem, którego skutki – finansowe, reputacyjne i społeczne – zawsze obciążają tych, którzy zdecydowali o jego wdrożeniu i użyciu. Popularność AI, budowana na poczuciu bezkarności i rozmycia winy, wprost koliduje z unijną koncepcją odpowiedzialnego i godnego zaufania AI.
W tym sensie pytanie o badanie emocji klientów nie jest pytaniem o granice technologii, lecz o dojrzałość organizacyjną i prawną. AI Act przesuwa debatę z poziomu „czy możemy to zrobić” na poziom „czy jesteśmy gotowi wziąć odpowiedzialność za skutki tego, co robimy z danymi i algorytmami”. To przesunięcie stanowi najważniejszą zmianę, jaką niesie ze sobą nowa era regulacji sztucznej inteligencji.
