Składki ZUS przy umowie zlecenia wykonywanej przez studenta do 26. roku życia

W przypadku wskazanym w zapytaniu wyjaśniamy, że student do 26. roku życia, zatrudniony na podstawie umowy zlecenia, nie podlega obowiązkowi opłacania żadnych składek na ubezpieczenia społeczne ZUS. Fakt pobierania renty rodzinnej przez studenta wykonującego pracę na podstawie umowy zlecenia nie ma znaczenia w kontekście obowiązku opłacania składek na rzecz ZUS.

Co do zasady, zleceniobiorcy oraz osoby z nimi współpracujące podlegają obowiązkowo ubezpieczeniom emerytalnemu, rentowym i wypadkowemu, a także mogą dobrowolnie przystąpić do ubezpieczenia chorobowego. Zleceniobiorcy podlegają obowiązkowo ubezpieczeniom emerytalnemu i rentowym od dnia wskazanego w umowie jako dzień rozpoczęcia jej wykonywania do dnia rozwiązania lub wygaśnięcia umowy, natomiast osoby z nimi współpracujące – od dnia rozpoczęcia współpracy. Każda osoba objęta obowiązkowo ubezpieczeniami emerytalnym i rentowymi podlega zgłoszeniu do ubezpieczeń społecznych do dnia zakończenia współpracy. Obowiązek zgłoszenia spoczywa na płatniku składek, który dokonuje zgłoszenia w terminie 7 dni od daty powstania obowiązku ubezpieczenia. Składki na ubezpieczenia emerytalne i rentowe finansowane są w równych częściach przez ubezpieczonego i płatnika składek. Przystąpienie do dobrowolnego ubezpieczenia chorobowego następuje na wniosek zleceniobiorcy lub osoby współpracującej i obejmuje okres od dnia wskazanego we wniosku, nie wcześniej jednak niż od dnia jego złożenia.

Więcej praktycznych wyjaśnień po zalogowaniu. Nie posiadasz dostępu? Odbierz

Powyższe zasady nie dotyczą jednak osób wykonujących pracę na podstawie umowy zlecenia, które są uczniami szkół ponadpodstawowych lub studentami do ukończenia 26. roku życia. Zgodnie z przepisami ustawy o systemie ubezpieczeń społecznych osoby te nie podlegają obowiązkowo ubezpieczeniom emerytalnemu i rentowym, a tym samym nie są objęte również ubezpieczeniem chorobowym.

W związku z tym, że uczniowie i studenci do ukończenia 26. roku życia nie mogą przystąpić do ubezpieczeń społecznych z tytułu umowy zlecenia – ani obowiązkowo, ani dobrowolnie – brak jest podstaw do objęcia ich ubezpieczeniem zdrowotnym z tytułu wykonywania tej umowy. Dotyczy to uczniów szkół ponadpodstawowych, policealnych oraz studentów, niezależnie od formy kształcenia (studia stacjonarne lub niestacjonarne).

Dla celów opłacania składek na ubezpieczenia społeczne przyjmuje się, że status ucznia szkoły zachowuje się do dnia 31 sierpnia danego roku szkolnego. Zasada ta dotyczy osób, które kontynuują naukę w tej samej szkole, rozpoczynają naukę w kolejnej szkole, w której rok szkolny rozpoczyna się 1 września, jak również osób, które nie kontynuują nauki. Osoby posiadające zaświadczenie o przyjęciu na studia wyższe mogą być uznawane za uczniów do dnia 30 września danego roku, gdyż status studenta uzyskują dopiero od 1 października.

Kup Legalisa Księgowość Kadry Biznes online i uzyskaj natychmiastowy dostęp! Sprawdź

Możliwość odwołania pełnomocnictwa udzielonego na formularzu UPL–1

Nie jest to możliwe. Odwołać pełnomocnictwo może jedynie osoba, która je udzieliła.

Pełnomocnictwo to jednostronne oświadczenie woli mocodawcy, którego skutkiem jest umocowanie innej osoby do działania w jego imieniu. Analogicznie należy uznać możność odwołania tego pełnomocnictwa w formie jednostronnego oświadczenia woli mocodawcy. Dlatego odwołanie pełnomocnictwa możliwe jest jedynie przez osobę udzielającą wcześniej pełnomocnictwa poprzez wypełnienie i złożenie formularza UPL–1. Sama struktura formularza sugeruje, że jedyną osobą mogącą je podpisać jest podatnik, płatnik lub inkasent.

Więcej treści podatkowych po zalogowaniu. Nie posiadasz dostępu? Przetestuj

Również przepisy ordynacji podatkowej w tym aspekcie rozstrzygają temat bez wątpliwości – to podatnik, płatnik lub inkasent składa odwołanie pełnomocnictwa organowi podatkowemu właściwemu w sprawach podatku, którego dana deklaracja dotyczy.

Dodatkowo nie ma podstawy prawnej, która nakładałaby na biuro rachunkowe obowiązek odwołania pełnomocnictw UPL–1 udzielonych przez jego kontrahentów. W związku z tym nie ma legalnej konieczności ich odwoływania w przypadku, gdy biuro rachunkowe nie prowadzi już usług dla danego podatnika.

AI Act, emocje i granice dopuszczalnej automatyzacji

Wstęp – emocje jako nowe paliwo algorytmów

AI Act pojawia się w momencie, w którym granica pomiędzy usprawnieniem procesów a ingerencją w sferę godności i autonomii jednostki staje się coraz mniej wyraźna. AI Act nie wprowadza generalnego zakazu technologii rozpoznawania emocji jako takich. Zakaz przewidziany w art. 5 ust. 1 lit. c AIAct dotyczy wyłącznie określonego kontekstu ich stosowania – tj. wykorzystywania systemów AI do wnioskowania o stanie emocjonalnym pracowników oraz osób uczących się w środowisku pracy i edukacji, gdzie relacja podporządkowania strukturalnie ogranicza autonomię jednostki. Oznacza to, że przedmiotem regulacji nie jest sama technologia, lecz ryzyko wynikające z jej zastosowania w relacjach asymetrycznych, mogących prowadzić do nadmiernej kontroli, presji psychologicznej lub naruszenia godności osoby fizycznej.

Brak bezpośredniego i jednoznacznego zakazu stosowania systemów rozpoznawania emocji wobec klientów nie może być interpretowany jako przyzwolenie na ich swobodne wykorzystanie. AI Act w tym obszarze nie operuje logiką „dozwolone–zakazane”, lecz świadomie przenosi ocenę dopuszczalności na poziom skutków, kontekstu i celu zastosowania systemu AI. Oznacza to, że wykorzystanie analizy emocji klientów podlega ocenie nie przez pryzmat samej technologii, lecz przez realny wpływ na sytuację osoby fizycznej, w tym dostęp do usług, warunki ich świadczenia oraz ryzyko naruszenia praw podstawowych.

Klient nie jest bowiem podmiotem „mniej chronionym” tylko dlatego, że nie pozostaje w relacji podporządkowania służbowego. Jego emocje, analizowane przez system AI, mogą prowadzić do decyzji realnie wpływających na dostęp do usług, sytuację ekonomiczną, reputację czy sposób traktowania w przestrzeni publicznej. Gdy złość lub agresja werbalna stają się skuteczną strategią skracania kolejki, a spokój i cierpliwość prowadzą do dłuższego oczekiwania, algorytm zaczyna kształtować normy społeczne – i to w sposób, który trudno pogodzić z zasadą równego traktowania.

Analiza emocji klientów przy użyciu systemów sztucznej inteligencji nie musi sama w sobie oznaczać przetwarzania danych osobowych w rozumieniu RODO. Zastosowanie tego rozporządzenia zależy nie od charakteru technologii, lecz od tego, czy w danym przypadku dochodzi do identyfikacji osoby fizycznej – bezpośredniej lub pośredniej – przy użyciu danych lub kontekstu ich wykorzystania. Dopiero w sytuacji, gdy wynik analizy emocji może zostać powiązany z konkretną osobą, kontem klienta, sprawą lub sesją, mamy do czynienia z przetwarzaniem danych osobowych podlegającym reżimowi RODO.

W konsekwencji ocena zgodności analizy emocji z RODO wymaga każdorazowo badania nie samej techniki analitycznej, lecz sposobu jej wdrożenia oraz skutków dla sytuacji konkretnej osoby.

AI Act nie traktuje systemów sztucznej inteligencji jako autonomicznych podmiotów odpowiedzialności prawnej. Rozporządzenie konsekwentnie przypisuje obowiązki i ryzyka związane z wykorzystaniem AI określonym podmiotom uczestniczącym w łańcuchu jej tworzenia i wdrażania, w szczególności dostawcom i podmiotom stosującym systemy AI. Choć AI Act nie ustanawia bezpośredniej odpowiedzialności osobistej członków organów zarządzających, to jego konstrukcja wzmacnia odpowiedzialność organizacyjną, która na gruncie prawa spółek, compliance i nadzoru korporacyjnego pośrednio obciąża osoby decydujące o wdrożeniu i sposobie użycia systemów AI. W tym sensie AI Act nie „przenosi” odpowiedzialności na algorytm ani na pojedynczego menedżera, lecz eliminuje możliwość jej rozmycia w strukturze organizacyjnej.

W tym sensie brak zakazu nie oznacza braku ograniczeń, lecz przesunięcie ciężaru regulacyjnego z formalnej kwalifikacji systemu na odpowiedzialność za jego skutki.

Kup Legalisa Księgowość Kadry Biznes online i uzyskaj natychmiastowy dostęp! Sprawdź

Badanie emocji klientów w świetle AI Act – granice dopuszczalności i ryzyko dyskryminacji

Badanie emocji klientów przy użyciu systemów sztucznej inteligencji lokuje się w jednym z najbardziej niejednoznacznych obszarów regulacyjnych AI Act. Z jednej strony rozporządzenie nie wprowadza generalnego, bezwzględnego zakazu rozpoznawania emocji klientów, z drugiej – jednoznacznie wskazuje, że technologie ingerujące w sferę psychologiczną jednostki wymagają szczególnej ostrożności i oceny skutków dla praw podstawowych. Kluczowe znaczenie ma tu nie samo techniczne „rozpoznanie emocji”, lecz cel, kontekst i konsekwencje wykorzystania tej informacji w procesach decyzyjnych.

AI Act operuje podejściem opartym na ryzyku. Oznacza to, że systemy AI nie są oceniane wyłącznie przez pryzmat ich funkcjonalności, ale przede wszystkim przez skutki, jakie wywierają na sytuację osoby fizycznej. Jeżeli analiza emocji klientów pozostaje wyłącznie elementem wsparcia konsultanta, bez automatycznego wpływu na decyzje dotyczące dostępu do usług, kolejności obsługi czy warunków umownych, ryzyko regulacyjne jest relatywnie niższe. Sytuacja zmienia się jednak zasadniczo w momencie, gdy emocja staje się przesłanką decyzyjną, a system AI zaczyna samodzielnie modyfikować sposób traktowania klienta.

W praktyce szczególnie problematyczny jest mechanizm uprzywilejowania klientów na podstawie ich zachowania emocjonalnego. Jeżeli system rozpoznaje zdenerwowanie, frustrację lub agresję werbalną i na tej podstawie przyznaje wyższy priorytet obsługi, skraca czas oczekiwania lub eskaluje sprawę szybciej niż w przypadku klientów spokojnych i cierpliwych, wówczas emocja przestaje być neutralnym sygnałem operacyjnym. Staje się kryterium różnicującym sytuację prawną i faktyczną użytkowników.

Z perspektywy AI Act taki mechanizm rodzi ryzyko naruszenia praw podstawowych, w szczególności zasady równego traktowania wyrażonej w Karcie praw podstawowych Unii Europejskiej. Choć emocja nie jest cechą chronioną wprost, to jej wykorzystanie prowadzi do systemowego naruszenia zasady równego traktowania oraz sprawiedliwości proceduralnej. Kryterium, które na pierwszy rzut oka wydaje się neutralne technologicznie, w rzeczywistości premiuje określony typ zachowania i penalizuje inny. W efekcie osoby przestrzegające norm społecznych – spokojne, rzeczowe, nieeskalujące konfliktu – są systemowo stawiane w gorszej sytuacji niż osoby reagujące agresją lub presją emocjonalną.

Taki model obsługi trudno pogodzić również z zasadą sprawiedliwości i rzetelności przetwarzania danych osobowych, wynikającą z art. 5 ust. 1 lit. a RODO. Przetwarzanie danych – w tym danych dotyczących emocji lub zachowań – nie może prowadzić do arbitralnych i nieprzejrzystych różnic w traktowaniu podmiotów danych. Co więcej, w sytuacji gdy decyzje dotyczące priorytetu obsługi są podejmowane w sposób wyłącznie zautomatyzowany i wywołują wobec klienta skutki prawne lub w podobny sposób istotnie na niego wpływają, zastosowanie znajduje art. 22 RODO, przewidujący szczególne gwarancje, w tym prawo do interwencji człowieka oraz zakaz bezrefleksyjnego podporządkowania się decyzjom algorytmicznym.

Na gruncie AI Act dodatkowym problemem jest fakt, że systemy analizujące emocje bardzo łatwo przekraczają granicę pomiędzy wsparciem a sterowaniem zachowaniami społecznymi. Algorytm, który „uczy” klientów, że podniesiony głos i agresja skutkują szybszą obsługą, realnie kształtuje niepożądane normy społeczne. W tym sensie nie jest to już wyłącznie kwestia efektywności procesowej, lecz ingerencja w relacje społeczne i kulturę organizacyjną, za którą odpowiedzialność ponosi podmiot wdrażający system AI.

Warto również podkreślić, że AI Act nie pozwala zasłaniać się neutralnością technologii. Organizacja, która decyduje się na wykorzystanie emocji jako zmiennej decyzyjnej, musi być w stanie wykazać, że rozwiązanie to jest proporcjonalne, niezbędne i nie prowadzi do systemowego uprzywilejowania lub wykluczenia określonych grup klientów. Brak takiej analizy może zostać uznany za naruszenie obowiązków w zakresie zarządzania ryzykiem i nadzoru nad systemami AI.

W konsekwencji badanie emocji klientów znajduje się na cienkiej granicy pomiędzy dopuszczalnym usprawnieniem obsługi a mechanizmem prowadzącym do dyskryminacji pośredniej. AI Act, czytany łącznie z RODO i Kartą praw podstawowych UE, przesuwa punkt ciężkości z pytania „czy technicznie potrafimy to zrobić” na pytanie „czy skutki tego rozwiązania są akceptowalne w demokratycznym państwie prawa”. W tym sensie emocje jako kryterium uprzywilejowania nie są problemem technologicznym, lecz prawnym i społecznym – a odpowiedzialność za ich wykorzystanie zawsze spoczywa po stronie człowieka, nie algorytmu.

RODO i ochrona podmiotu danych – decyzje, skutki i odpowiedzialność

Wykorzystywanie systemów sztucznej inteligencji do analizy emocji klientów nie funkcjonuje w próżni regulacyjnej. Niezależnie od kwalifikacji danego rozwiązania na gruncie AI Act, w zdecydowanej większości przypadków zastosowanie znajdą przepisy RODO. Warto jednak wyraźnie zaznaczyć granicę, która w praktyce bywa nieostro rysowana: RODO chroni wyłącznie dane osobowe, a nie dane anonimowe. To rozróżnienie ma kluczowe znaczenie w kontekście analizy emocji, zwłaszcza gdy organizacje sięgają po anonimowe ankiety lub zagregowane badania satysfakcji.

Jeżeli dane są rzeczywiście anonimowe, a więc nie pozwalają na identyfikację osoby fizycznej ani bezpośrednio, ani pośrednio – także przy użyciu „rozsądnie prawdopodobnych środków”, o których mowa w motywie 26 RODO – wówczas rozporządzenie nie znajduje zastosowania. Anonimowe ankiety badające ogólny poziom zadowolenia klientów, nastroje w punktach obsługi czy odbiór jakości usług, co do zasady nie podlegają reżimowi RODO, o ile nie istnieje możliwość powiązania odpowiedzi z konkretną osobą, kontem klienta, numerem sprawy czy innym identyfikatorem.

Problem pojawia się jednak w momencie, gdy „anonimowość” ma charakter wyłącznie deklaratywny. W praktyce wiele systemów zbiera dane, które formalnie nie zawierają imienia i nazwiska, ale mogą zostać łatwo powiązane z konkretnym klientem poprzez kontekst: godzinę zgłoszenia, kanał komunikacji, treść sprawy, nagranie rozmowy czy identyfikator sesji. W takim przypadku mamy do czynienia nie z anonimizacją, lecz z pseudonimizacją, która wprost pozostaje w zakresie stosowania RODO. Anonimowa ankieta przestaje być anonimowa, jeżeli jej wynik wpływa na dalsze traktowanie konkretnego klienta lub jest analizowany łącznie z innymi danymi pozwalającymi na jego identyfikację.

Szczególnego znaczenia nabiera to w kontekście emocji jako zmiennej decyzyjnej. Jeżeli emocje są badane w sposób anonimowy i wykorzystywane wyłącznie do analiz statystycznych, trendów lub poprawy jakości procesów – bez możliwości oddziaływania na sytuację konkretnej osoby – ryzyko naruszenia RODO jest istotnie ograniczone. Tego rodzaju przetwarzanie mieści się w klasycznych badaniach satysfakcji klientów. Sytuacja diametralnie się zmienia, gdy analiza emocji, nawet pozornie anonimowa, jest wykorzystywana operacyjnie, np. do zmiany kolejności obsługi, eskalacji sprawy czy oceny „trudności” klienta.

RODO wymaga bowiem oceny nie tylko formy danych, ale również skutków ich wykorzystania. Jeżeli wynik analizy emocji – nawet pozyskany w ankiecie – wpływa na decyzje dotyczące konkretnej osoby, to z perspektywy prawa mamy do czynienia z przetwarzaniem danych osobowych i potencjalnie z profilowaniem. W takim przypadku zastosowanie znajdują zasady z art. 5 RODO, obowiązki informacyjne z art. 13 RODO i art. 14 RODO oraz ograniczenia wynikające z art. 22 RODO dotyczące zautomatyzowanego podejmowania decyzji.

Warto również podkreślić, że pełna anonimizacja w środowisku opartym na AI i dużych zbiorach danych jest technicznie i organizacyjnie trudna do utrzymania w długim okresie. Systemy uczące się mają naturalną tendencję do łączenia danych z różnych źródeł, co zwiększa ryzyko ponownej identyfikacji (re-identyfikacji) osoby fizycznej. Z tego względu organizacja, która deklaruje wykorzystywanie wyłącznie danych anonimowych, powinna być w stanie wykazać, że ryzyko re-identyfikacji zostało realnie ocenione i ograniczone, a dane nie są używane w sposób pozwalający na indywidualne oddziaływanie na klienta.

Kwestia odpowiedzialności pozostaje w tym kontekście niezmienna. Jeżeli dane są rzeczywiście anonimowe i wykorzystywane wyłącznie w celach statystycznych, odpowiedzialność regulacyjna na gruncie RODO nie powstaje. Jeżeli jednak „anonimowość” okazuje się pozorna, a skutki przetwarzania przenoszą się na sytuację konkretnej osoby – odpowiedzialność spoczywa po stronie administratora danych. RODO nie dopuszcza bowiem fikcji anonimowości jako sposobu obejścia ochrony praw jednostki.

W tym sensie anonimowe ankiety mogą być bezpiecznym narzędziem badania emocji klientów, ale tylko pod warunkiem, że pozostają faktycznie anonimowe i nie są wykorzystywane do podejmowania decyzji dotyczących konkretnych osób. Każde wyjście poza ten model przesuwa analizę emocji z obszaru badań jakościowych do sfery regulowanej, w której kluczowe znaczenie mają przejrzystość, proporcjonalność i odpowiedzialność człowieka za skutki działania systemów AI.

Konsekwencje społeczne analizy emocji i mit technologicznego alibi

Automatyczna analiza emocji może prowadzić do bardzo konkretnych strat finansowych. Jeżeli na podstawie zachowania emocjonalnego klienta system AI ogranicza dostęp do określonych usług, zmienia warunki oferty, opóźnia realizację sprawy lub klasyfikuje klienta jako „problemowego”, konsekwencje ekonomiczne są często bezpośrednie i mierzalne. Co istotne, skutki te mogą kumulować się w czasie – pojedyncza decyzja algorytmu, pozornie techniczna, może uruchomić łańcuch dalszych decyzji organizacyjnych, które prowadzą do trwałego pogorszenia sytuacji osoby fizycznej.

Jeszcze bardziej dotkliwe bywają skutki niematerialne. Stygmatyzacja klienta jako „trudnego”, „agresywnego” czy „emocjonalnie niestabilnego” wpływa na sposób jego dalszego traktowania przez organizację, a nierzadko także przez inne podmioty, jeżeli informacje te są przekazywane lub wykorzystywane wtórnie. W praktyce może to prowadzić do wykluczenia z usług, obniżenia zaufania, a nawet trwałego naruszenia reputacji. Tego rodzaju etykietowanie, dokonywane przez algorytm, jest szczególnie problematyczne, ponieważ osoba, której dotyczy, często nie ma świadomości istnienia takiej klasyfikacji ani możliwości jej zakwestionowania.

W szerszej perspektywie społecznej analiza emocji przez AI może również kształtować niepożądane wzorce zachowań. Jeżeli system premiuje agresję, eskalację i presję emocjonalną, a nie nagradza spokoju i rzeczowości, algorytm staje się aktywnym uczestnikiem zmiany norm społecznych. Zamiast łagodzić konflikty, technologia zaczyna je wzmacniać, wysyłając sygnał, że najbardziej opłacalną strategią jest podniesiony głos, frustracja lub konfrontacja. Takie skutki wykraczają daleko poza relację klient–organizacja i wpływają na jakość debaty publicznej oraz zaufanie społeczne do instytucji.

W tym kontekście szczególnie niebezpieczny staje się mit technologicznego alibi. Popularność AI wynika nie tylko z jej efektywności, lecz także z psychologicznego mechanizmu przenoszenia odpowiedzialności na algorytm. Decyzja, która w rzeczywistości jest wynikiem określonych założeń projektowych i biznesowych, bywa przedstawiana jako „obiektywny wynik działania systemu”. AI zaczyna pełnić rolę wygodnej tarczy, za którą chowają się decydenci, menedżerowie i organizacje.

AI Act oraz powiązane regulacje unijne próbują ten mit systemowo rozbroić. Ustawodawca wychodzi z założenia, że największym zagrożeniem nie jest sama technologia, lecz brak odpowiedzialności za jej użycie. Dlatego odpowiedzialność za skutki działania systemów AI jest konsekwentnie przypisywana ludziom – tym, którzy decydują o wdrożeniu, konfiguracji i celach wykorzystania algorytmu. W tym modelu „to AI tak zdecydowała” nie jest usprawiedliwieniem, lecz sygnałem błędu w zarządzaniu.

Z perspektywy społecznej iluzja bezkarności prowadzi do erozji zaufania. Jeżeli jednostka doświadcza realnych strat – finansowych, reputacyjnych czy społecznych – a jednocześnie słyszy, że nikt nie ponosi za to odpowiedzialności, bo „zadecydował algorytm”, dochodzi do podważenia podstawowych zasad państwa prawa. Technologia, zamiast być narzędziem poprawy jakości usług, staje się źródłem frustracji i poczucia niesprawiedliwości.

W konsekwencji analiza emocji klientów przez AI nie może być oceniana wyłącznie przez pryzmat efektywności operacyjnej. Jej rzeczywistym testem jest to, czy organizacja potrafi wziąć odpowiedzialność za społeczne skutki automatyzacji. AI Act jasno sygnalizuje, że era technologicznego alibi dobiega końca. W świecie, w którym algorytmy coraz głębiej ingerują w relacje społeczne, odpowiedzialność nie znika – przeciwnie, staje się bardziej skoncentrowana i trudniejsza do zignorowania.

Podsumowanie

Choć AI Act nie wprowadza bezwzględnego zakazu rozpoznawania emocji klientów, to w połączeniu z RODO oraz Kartą praw podstawowych UE wyznacza wyraźne granice dopuszczalności takich praktyk. Granice te nie przebiegają na poziomie samej technologii, lecz na poziomie skutków, jakie jej zastosowanie wywiera na sytuację jednostki i relacje społeczne.

Emocje, wykorzystywane jako kryterium decyzyjne, bardzo łatwo przekształcają się z narzędzia analitycznego w mechanizm uprzywilejowania lub wykluczenia. Premiowanie agresji, frustracji czy presji emocjonalnej kosztem spokoju i cierpliwości prowadzi do pośredniej dyskryminacji oraz systemowego naruszania zasady równego traktowania. W takim modelu algorytm nie tylko obsługuje procesy, lecz zaczyna kształtować normy społeczne – i to w sposób trudny do pogodzenia z ideą sprawiedliwości proceduralnej.

RODO przypomina, że w centrum każdej operacji przetwarzania danych stoi człowiek, a nie algorytm. Niezależnie od stopnia automatyzacji, odpowiedzialność za skutki decyzji podejmowanych na danych osobowych – w tym danych dotyczących emocji – spoczywa na administratorze. Nawet tam, gdzie organizacje sięgają po anonimowe ankiety, granica odpowiedzialności przesuwa się w momencie, gdy wyniki analiz zaczynają wpływać na sytuację konkretnej osoby. Anonimowość nie może być fikcją ani wygodnym sposobem obejścia ochrony praw jednostki.

Najistotniejszym wnioskiem płynącym z AI Act jest jednak odrzucenie technologicznego alibi. Sztuczna inteligencja nie stanowi autonomicznego aktora społecznego i nie przejmuje odpowiedzialności za swoje działania. Jest narzędziem, którego skutki – finansowe, reputacyjne i społeczne – zawsze obciążają tych, którzy zdecydowali o jego wdrożeniu i użyciu. Popularność AI, budowana na poczuciu bezkarności i rozmycia winy, wprost koliduje z unijną koncepcją odpowiedzialnego i godnego zaufania AI.

W tym sensie pytanie o badanie emocji klientów nie jest pytaniem o granice technologii, lecz o dojrzałość organizacyjną i prawną. AI Act przesuwa debatę z poziomu „czy możemy to zrobić” na poziom „czy jesteśmy gotowi wziąć odpowiedzialność za skutki tego, co robimy z danymi i algorytmami”. To przesunięcie stanowi najważniejszą zmianę, jaką niesie ze sobą nowa era regulacji sztucznej inteligencji.

Ochrona danych osobowych – aktualna lista szkoleń Sprawdź

Zmiana sposobu przeznaczenia i wykorzystania samochodu osobowego a VAT

Zmiana sposobu przeznaczenia samochodu osobowego (tj. z towaru handlowego na środek trwały) – co do zasady – nie wywołuje skutków podatkowych na gruncie przepisów ustawy o podatku od towarów i usług (dalej: VATU). Jeśli jednak wraz ze sposobem przeznaczenia nastąpiła również zmiana sposobu wykorzystywania samochodu osobowego (tzn. po ujęciu w ewidencji środków trwałych samochód wykorzystywany jest w celach mieszanych), a jednocześnie przy WNT przedsiębiorca odliczył 100% VAT, to konieczne będzie dokonanie korekty.

Kup Legalisa Księgowość Kadry Biznes online i uzyskaj natychmiastowy dostęp! Sprawdź

Zgodnie z art. 90b ust. 1 VATU: „W przypadku gdy w ciągu 60 miesięcy, licząc od miesiąca, w którym odpowiednio nabyto, dokonano importu lub oddano do używania pojazd samochodowy:

1) o którym mowa w art. 86a ust. 3 pkt 1 lit. a, nastąpi zmiana jego wykorzystywania na wykorzystywanie do celów działalności gospodarczej i do celów innych niż działalność gospodarcza, podatnik jest obowiązany do dokonania korekty kwoty podatku naliczonego odliczonej przy nabyciu, imporcie lub wytworzeniu tego pojazdu;

2) w odniesieniu do którego kwotę podatku naliczonego stanowiła kwota, o której mowa w art. 86a ust. 1, nastąpi zmiana jego wykorzystywania na wykorzystywanie wyłącznie do działalności gospodarczej, podatnik jest uprawniony do dokonania korekty kwoty podatku naliczonego odliczonej przy nabyciu, imporcie lub wytworzeniu tego pojazdu”.

Zakup samochodu osobowego z Niemiec w kwietniu 2025 r. stanowił wewnątrzwspólnotowe nabycie towarów, które zostało prawidłowo wykazane w deklaracji VAT. W tym momencie powstał VAT należny w Polsce oraz prawo do odliczenia VAT naliczonego, ponieważ pojazd był nabyty na potrzeby prowadzonej działalności gospodarczej. Późniejsza decyzja o zmianie jego przeznaczenia z towaru handlowego na środek trwały ma wyłącznie charakter wewnętrzny i nie jest czynnością opodatkowaną, ponieważ nie dochodzi do dostawy towaru ani do nieodpłatnego przekazania na cele osobiste.

Jeżeli samochód po wprowadzeniu do ewidencji środków trwałych jest wykorzystywany w sposób mieszany, czyli zarówno na potrzeby działalności gospodarczej, jak i do celów prywatnych, to ustawowo przyjmuje się, że tylko połowa podatku naliczonego związana jest z czynnościami opodatkowanymi. W efekcie od wszystkich bieżących wydatków eksploatacyjnych przysługuje prawo do odliczenia VAT w wysokości 50%, bez względu na faktyczne proporcje użytkowania.

Znaczenie ma również sposób, w jaki rozliczono VAT przy samym nabyciu pojazdu. Jeżeli przy WNT podatnik odliczył 100% VAT, zakładając wykorzystanie wyłącznie w działalności gospodarczej, a następnie zmienił przeznaczenie samochodu na użytek mieszany, to nastąpiła zmiana zakresu wykorzystania środka trwałego. W takiej sytuacji przepisy ustawy o podatku od towarów i usług nakazują dokonania korekty VAT naliczonego w tzw. okresie korekty, który dla samochodów osobowych o wartości przekraczającej 15 000 zł wynosi 60 miesięcy, licząc od miesiąca, w którym zmieniono sposób wykorzystywania.

Szkolenia z zakresu podatków – aktualna lista szkoleń Sprawdź

Informacja o wynagrodzeniu w ogłoszeniu o pracę

Należy podać wszystkie składniki. Wynagrodzenie zasadnicze należy podać kwotowo. Natomiast pozostałe składnik określa się kwotowo albo procentowo (od wskazanej kwotowo wysokości wynagrodzenia zasadniczego).

Kup Legalisa Księgowość Kadry Biznes online i uzyskaj natychmiastowy dostęp! Sprawdź

Zgodnie z art. 183ca § 1 ustawy Kodeks pracy (dalej: KP), osoba ubiegająca się o zatrudnienie na danym stanowisku otrzymuje od pracodawcy informację o:

1) wynagrodzeniu, jego początkowej wysokości lub jego przedziale – opartym na obiektywnych, neutralnych kryteriach, w szczególności pod względem płci, oraz
2) odpowiednich postanowieniach układu zbiorowego pracy lub regulaminu wynagradzania – w przypadku gdy pracodawca jest objęty układem zbiorowym pracy lub obowiązuje u niego regulamin wynagradzania.

Wynagrodzenie, o którym mowa w art. 183ca § 1 KP, obejmuje wszystkie składniki wynagrodzenia, bez względu na ich nazwę i charakter, a także inne świadczenia związane z pracą, przyznawane pracownikom w formie pieniężnej lub w innej formie niż pieniężna.

Z kolei zgodnie z art. 183ca § 2 KP, powyższe informacje pracodawca przekazuje z wyprzedzeniem umożliwiającym zapoznanie się z tymi informacjami, w postaci papierowej lub elektronicznej, osobie ubiegającej się o zatrudnienie, zapewniając świadome i przejrzyste negocjacje:

1) w ogłoszeniu o naborze na stanowisko;
2) przed rozmową kwalifikacyjną – jeżeli pracodawca nie ogłosił naboru na stanowisko albo nie przekazał tych informacji w ogłoszeniu;
3) przed nawiązaniem stosunku pracy – jeżeli pracodawca nie ogłosił naboru na stanowisko albo nie przekazał tych informacji w ogłoszeniu albo przed rozmową kwalifikacyjną.

W przepisie chodzi o wynagrodzenie rozumiane szeroko, a zatem wykraczające poza wynagrodzenie zasadnicze. Należy zatem uwzględnić wszystkie składniki:

Jednak powyższe może nie do końca wyjaśniać, czy chodzi o rozbicie wynagrodzenia na poszczególne składniki, czy też można wskazać składniki oraz całościową kwotę możliwą do uzyskania. Dlatego należy zwrócić uwagę na art. 183ca § 2 KP, z którego wynika, że celem przekazania informacji o wynagrodzeniu jest umożliwienie kandydatowi zapoznanie się z tymi informacjami, aby zapewnić świadome i przejrzyste negocjacje. Dla kandydata do pracy istotna jest informacja o każdym składniku z osobna, ich wysokościach i zasadach przyznawania. Jeśli więc u pracodawcy obowiązuje regulamin wynagradzania, należy poinformować o jego postanowieniach dotyczących przyznawania wszystkich składnikach wynagradzania.

Szkolenia z zakresu prawa pracy – aktualna lista szkoleń Sprawdź

Kasa fiskalna dla groomera

Groomer nie musi posiadać kasy fiskalnej od pierwszej sprzedaży. Po spełnieniu odpowiednich wymogów może korzystać zarówno ze zwolnienia przedmiotowego, jak i podmiotowego. Ponadto, w przypadku świadczenia usług dla innych podatników VAT może także wystawiać fakturę.

Kup Legalisa Księgowość Kadry Biznes online i uzyskaj natychmiastowy dostęp! Sprawdź

Uwagi wstępne

Zgodnie z art. 111 ust. 1 ustawy o podatku od towarów i usług obowiązkiem posiadania kasy fiskalnej mogą zostać podatnicy dokonujący sprzedaży na rzecz osób fizycznych nieprowadzących działalności gospodarczej oraz rolników ryczałtowych. Na podstawie art. 111 ust. 8 VATU minister właściwy do spraw finansów publicznych może zwolnić, w drodze rozporządzenia, na czas określony, niektóre grupy podatników oraz niektóre czynności z obowiązku, o którym mowa w ust. 1, oraz określić warunki korzystania ze zwolnienia. Minister skorzystał z tego uprawniania wydając rozporządzenie w sprawie zwolnień z obowiązku prowadzenia ewidencji sprzedaży przy zastosowaniu kas rejestrujących (dalej: KasRejR).

Obowiązek stosowania kasy fiskalnej może zatem objąć jedynie podatników dokonujących sprzedaży na rzecz osób fizycznych nieprowadzących działalności gospodarczej lub rolników ryczałtowych. W przypadku gdy groomer wykonuje działalność na rzecz innych podatników VAT może rozliczyć się fakturą, bez obowiązku wystawiania paragonu z kasy fiskalnej.

Zwolnienie przedmiotowe

Zgodnie § 2 ust. 1 KasRejR zwalnia się z obowiązku prowadzenia ewidencji w danym roku podatkowym, nie dłużej jednak niż do 31.12.2027 r., czynności wymienione w załączniku do rozporządzenia.

Z kolei, jak stanowi § 2 ust. 2 KasRejR, w odniesieniu do niektórych czynności wymienionych w załączniku do rozporządzenia zwolnienie, o którym mowa w ust. 1, stosuje się zgodnie z warunkami określonymi w tym załączniku.

Pod poz. 42 załącznika do KasRejR wymieniono: „Świadczenie usług na rzecz osób fizycznych nieprowadzących działalności gospodarczej oraz rolników ryczałtowych, jeżeli świadczący usługę otrzyma w całości zapłatę za wykonaną czynność za pośrednictwem poczty, banku lub spółdzielczej kasy oszczędnościowo-kredytowej (odpowiednio na rachunek bankowy podatnika lub na rachunek podatnika w spółdzielczej kasie oszczędnościowo-kredytowej, której jest członkiem), a z ewidencji i dowodów dokumentujących zapłatę jednoznacznie wynika, jakiej konkretnie czynności dotyczyła”.

Mając na uwadze powyższe w interpretacji indywidualnej z 6.11.2024 r. (0111-KDIB3-2.4012.444.2024.3.MGO) Dyrektor KIS wskazał, że aby groomer mógł skorzystać ze zwolnienia przedmiotowego z kasy fiskalnej musi spełnić łącznie wszystkie poniższe warunki:

Niespełnienie jednego z powyższych warunków oznacza brak możliwości zastosowania zwolnienia z obowiązku ewidencjonowania sprzedaży przy zastosowaniu kasy fiskalnej na podstawie § 2 ust. 1 KasRejR w zw. z poz. 42 załącznika do KasRejR.

Zwolnienie podmiotowe

W przypadku niespełnienia warunków do zwolnienia przedmiotowego, groomer może także skorzystać ze zwolnienia podmiotowego.

Zgodnie z § 3 ust. 1 pkt 1 KasRejR zwalnia się z obowiązku prowadzenia ewidencji w danym roku podatkowym, nie dłużej jednak niż do 31.12.2027 r. podatników, u których wartość sprzedaży dokonanej na rzecz osób fizycznych nieprowadzących działalności gospodarczej oraz rolników ryczałtowych w poprzednim roku podatkowym nie przekroczyła kwoty 20 000 zł, a w przypadku podatników rozpoczynających w poprzednim roku podatkowym dostawę towarów lub świadczenie usług na rzecz osób fizycznych nieprowadzących działalności gospodarczej oraz rolników ryczałtowych, jeżeli wartość sprzedaży z tego tytułu, w proporcji do okresu wykonywania tych czynności w poprzednim roku podatkowym, nie przekroczyła kwoty 20 000 zł.

Po przekroczeniu wyżej wymienionego limitu obrotów powstanie obowiązek rozpoczęcia ewidencjonowania obrotu na kasie fiskalnej z tytułu każdej czynności wykonywanej na rzecz osób fizycznych nieprowadzących działalności gospodarczej i rolników ryczałtowych, w terminie określonym w § 5 ust. 1 KasRejR, tj. po upływie dwóch miesięcy następujących po miesiącu, w którym sprzedaż przekroczy przedmiotowy limit.

Szkolenia z zakresu podatków – aktualna lista szkoleń Sprawdź

Montaż wykładziny w wynajmowanym lokalu a inwestycja w obcym środku trwałym

Jeśli montaż nowej wykładziny nie ma charakteru remontu, a więc nie służy przywróceniu pierwotnego stanu technicznego poprzez odtworzenie wartości użytkowych, wówczas taki wydatek powinien zostać potraktowany jak modernizacja, czyli inwestycja w obcym środku trwałym. Powinien być on rozliczany poprzez amortyzację.

Kup Legalisa Księgowość Kadry Biznes online i uzyskaj natychmiastowy dostęp! Sprawdź

Przepisy ustawy o podatku od osób prawnych wskazują, że amortyzacji podlegają również, niezależnie od przewidywanego okresu używania, przyjęte do używania inwestycje w obcych środkach trwałych. Co prawda w przepisach nie zostało zdefiniowane pojęcie „inwestycji w obcym środku trwałym”, jednak przyjęło się, że polega ona na poniesieniu wydatków na ulepszenie, przebudowę, rozbudowę, rekonstrukcję, adaptację lub modernizację środka trwałego, niestanowiącego własności podatnika i niezaliczanego do majątku podatnika.

Również Dyrektor KIS w interpretacji indywidualnej z 7.11.2022 r. (0111-KDIB2-1.4010.460.2022.1.MKU) opisał inwestycję w obcym środku trwałym w następujący sposób:

Interpretacje

Można stwierdzić, że inwestycje w obcych środkach trwałych to ogół działań (nakładów) podatnika odnoszących się do niestanowiącego jego własności środka trwałego, które zmierzają do jego ulepszenia, tzn. polegają na jego przebudowie, rozbudowie, rekonstrukcji, adaptacji lub modernizacji lub polegają na stworzeniu składnika majątku mającego cechy środka trwałego.

Natomiast w kontekście wydatków remontowych chodzi o przywrócenie pierwotnego stanu technicznego, tj. odtworzeniu wartości użytkowych. Wydatki takie (o charakterze remontowym) mogą być zaliczone bezpośrednio do kosztów uzyskania przychodów.

Ponadto, wracając do inwestycji w obcych środkach trwałych, aby były one rozliczane poprzez odpisy amortyzacyjne, ich wartość powinna przekraczać 10 000 zł. Poniżej tej kwoty podatnik ma prawo do zaliczenia wydatku bezpośrednio do kosztów uzyskania przychodów.

Montaż nowej wykładziny w wynajmowanym lokalu, jeśli nie polega na jej wymianie w związku z utrzymaniem dobrego stanu firmy, lecz ma na celu unowocześnienie lokalu bądź przystosowanie go do nowych celów, w takiej sytuacji powinien zostać potraktowany jako inwestycja w obcym środku trwałym i być rozliczany poprzez odpisy amortyzacyjne.

Szkolenia z zakresu podatków – aktualna lista szkoleń Sprawdź

Obowiązki pracodawcy w przypadku śmiertelnego wypadku przy pracy kierowcy

Zakład pracy powinien zawiadomić o śmiertelnym wypadku przy pracy (z opisu w pytaniu wynika, że był to wypadek przy pracy) okręgowego inspektora pracy oraz prokuratora, a także powołać zespół powypadkowy. Oprócz tego na pracodawcy ciąży szereg innych obowiązków.

Kup Legalisa Księgowość Kadry Biznes online i uzyskaj natychmiastowy dostęp! Sprawdź

1) Pracodawca jest zobowiązany podjąć niezbędne działania eliminujące lub ograniczające zagrożenie oraz zapewnić udzielenie pierwszej pomocy osobom poszkodowanym.

2) Niezwłocznie po powzięciu wiadomości o śmiertelnym wypadku kierowcy pracodawca musi poinformować o nim okręgowego inspektora pracy oraz prokuratora, mimo że odpowiednie służby zapewne już prowadzą czynności związane ze zdarzeniem (art. 234 § 2 ustawy Kodeks pracy; dalej: KP). Zawiadomienia można dokonać m.in. za pośrednictwem portalu biznes.gov.pl.

3) Należy ustalić okoliczności i przyczyny wypadku, powołując w tym celu zespół powypadkowy, w skład którego wchodzą:

a) pracownik służby BHP oraz społeczny inspektor pracy lub – w razie jego braku – przedstawiciel pracowników posiadający odpowiednie szkolenie BHP, u pracodawcy zatrudniającego powyżej 100 pracowników (zobowiązanego do tworzenia służby BHP);

b) pracodawca lub pracownik zatrudniony przy innej pracy, któremu powierzono wykonywanie zadań służby BHP, albo specjalista spoza zakładu pracy oraz – w razie potrzeby – przedstawiciel pracowników posiadający odpowiednie szkolenie BHP, u pracodawcy zatrudniającego do 100 pracowników;

c) pracodawca oraz specjalista spoza zakładu pracy – jeżeli ze względu na małą liczbę zatrudnionych pracowników nie jest możliwe utworzenie zespołu powypadkowego w powyższych, dwuosobowych składach.

Ustalenia okoliczności i przyczyn wypadku przy pracy, do którego doszło na terenie innego zakładu pracy, dokonuje pracodawca poszkodowanego (tj. zatrudniający kierowcę), w obecności przedstawiciela pracodawcy, na którego terenie doszło do wypadku.

Zespół powypadkowy sporządza protokół powypadkowy w terminie 14 dni od dnia uzyskania informacji o wypadku (§ 4–6 oraz § 8 ust. 1 i § 9 rozporządzenia Rady Ministrów w sprawie ustalania okoliczności i przyczyn wypadków przy pracy; dalej: OkolWypR). Następnie zapoznaje z jego treścią członków rodziny zmarłego pracownika oraz poucza ich o prawie zgłaszania uwag i zastrzeżeń do ustaleń zawartych w protokole.

Pracodawca ma 5 dni na zatwierdzenie protokołu, a następnie niezwłocznie doręcza go wskazanym członkom rodziny zmarłego kierowcy oraz okręgowemu inspektorowi pracy (§ 13 i § 14 ust. 3 OkolWypR).

4) Należy wpisać wypadek do rejestru wypadków (§ 16 OkolWypR).

5) Pracodawca jest zobowiązany wypłacić małżonkowi oraz innym członkom rodziny zmarłego, spełniającym warunki do uzyskania renty rodzinnej, odprawę pośmiertną. Wynosi ona:

a) jednomiesięczne wynagrodzenie – jeżeli pracownik był zatrudniony krócej niż 10 lat,

b) trzymiesięczne wynagrodzenie – jeżeli był zatrudniony co najmniej 10 lat,

c) sześciomiesięczne wynagrodzenie – jeżeli był zatrudniony co najmniej 15 lat.

Odprawa przysługuje osobom uprawnionym w częściach równych, a w przypadku jednej osoby uprawnionej – w wysokości połowy należnej odprawy (art. 93 KP).

6) Należy wypłacić małżonkowi i innym uprawnionym członkom rodziny wynagrodzenie oraz inne świadczenia należne zmarłemu pracownikowi za przepracowaną część ostatniego miesiąca. Świadczenia te dzieli się po równo między osoby uprawnione. W razie ich braku prawa majątkowe wchodzą do spadku po zmarłym (art. 631 KP).

7) Pracodawca powinien udzielić wszelkiej pomocy członkom rodziny zmarłego w dochodzeniu świadczeń z ZUS, w szczególności jednorazowego odszkodowania oraz renty wypadkowej.

Szkolenia z zakresu prawa pracy – aktualna lista szkoleń Sprawdź

Prokurent powinien posiadać nadane upoważnienie do przetwarzania danych osobowych

Prokurent powinien posiadać nadane upoważnienie do przetwarzania danych osobowych albowiem jako osoba fizyczna działa w imieniu i na rzecz spółki jako administratora, zaś jego decyzje podporządkowane są decyzjom spółki.

Kup Legalisa Księgowość Kadry Biznes online i uzyskaj natychmiastowy dostęp! Sprawdź

Przepisy dotyczące ochrony danych osobowych wyróżniają trzy rodzaje podmiotów: administratora danych osobowych, podmiot, któremu powierzono dane do przetwarzania (procesora danych), oraz współadministratora danych osobowych.

Administratorem danych w rozumieniu art. 4 pkt. 7 RODO jest osoba fizyczna lub prawna, organ publiczny, jednostka lub inny podmiot, który samodzielnie lub wspólnie z innymi ustala cele i sposoby przetwarzania danych osobowych.

Procesor danych to podmiot zewnętrzny, któremu administrator danych zleca przetwarzanie danych osobowych w jego imieniu zgodnie z art. 28 RODO.

Umowę powierzenia administrator danych powinien zawrzeć wówczas, gdy powierza innemu zewnętrznemu podmiotowi dane osobowe do przetwarzania w jego imieniu.

Podmiot przetwarzający dane w imieniu administratora danych realizuje zatem w ramach operacji przetwarzania danych osobowych cele i sposoby przetwarzania danych osobowych administratora danych (nie swoje własne).

W spółce z o.o. wyróżnia się trzy organy: zgromadzenie wspólników (organ uchwałodawczy); zarząd spółki (organ wykonawczy) oraz rada nadzorcza/komisja rewizyjna (organ kontrolny).

Członkowie zarządu spółek prawa handlowego, które są administratorami danych osobowych w rozumieniu art. 4 pkt. 7 RODO tj. podmiotami decydującymi o celach i sposobach przetwarzania danych osobowych, są uprawnieni do reprezentacji administratora danych osobowych w całym zakresie prowadzonych spraw w imieniu spółki, zgodnie z zasadami reprezentacji wskazanymi w umowie spółki oraz w rejestrze przedsiębiorców Krajowego Rejestru Sądowego. Stąd też przyjmuje się, że członkom zarządu uprawnionym do reprezentacji administratora danych osobowych nie nadaje się upoważnień do przetwarzania danych osobowych. Mogą oni zatem wykonując swoje zadania na rzecz spółki mieć dostęp do wszystkich danych osobowych jakie spółka jako administrator przetwarza.

Prokurent jest pełnomocnikiem, osobą dokonującą określonych czynności w imieniu przedsiębiorcy, ale nie posiadającym, co do zasady kompetencji do podejmowania decyzji w imieniu przedsiębiorcy. Prokurentowi powinno zatem nadawać się upoważnienie do przetwarzania danych osobowych w rozumieniu art. 29 RODO. Powyższa sytuacja dotyczy jednak osoby, która świadczy na rzecz spółki jako osoba fizyczna swoją usługę np. w oparciu o umowę o pracę, umowę zlecenia czy kontraktu i w ramach tej umowy pracuje na infrastrukturze spółki jako administratora danych i wykonuje swoje obowiązki jako osoba reprezentująca spółkę. Prokurent jako pełnomocnik działa wewnątrz struktury administratora, realizując jego cele, co wyklucza co do zasady bycie odrębnym podmiotem przetwarzającym. Rolą prokurenta jest bowiem działanie w imieniu i na rzecz spółki jako administratora, albowiem jego decyzje podporządkowane są decyzjom spółki.

Jeśli jednak prokurent prowadzi swoją np. jednoosobową działalność gospodarczą i na rzecz spółki jako administratora danych świadczy swoje usługi wówczas przyjmuje się, że taka osoba z punktu widzenia przepisów o ochronie danych osobowych nie stanowi „pracownika” administratora, a stanowi podmiot, któremu dane powierza się do przetwarzania „procesora”.

Jeśli prokurent prowadzi odrębną działalność gospodarczą i na podstawie umowy powierzenia świadczy usługi przetwarzania dla spółki, jednocześnie pełniąc rolę prokurenta to teoretycznie mogłoby dojść do takiej sytuacji gdzie powinna być zawarta zarówno umowa powierzenia przetwarzania danych osobowych (dla czynności obejmujących umowę łączącą strony) jak i nadanie upoważnienia do przetwarzania danych dla celów pełnienia roli prokurenta. Nie ma bowiem prawnego zakazu, aby osoba pełniąca funkcję prokurenta (reprezentująca spółkę) świadczyła jednocześnie na jej rzecz usługi zewnętrzne wymagające przetwarzania danych (np. usługi księgowe lub IT jako zewnętrzny kontrahent). Wówczas występuje w dwóch rolach, jest to jednak w ocenie autora sytuacja rzadka i ryzykowna z punktu widzenia możliwości wystąpienia konfliktu interesów.

Ochrona danych osobowych – aktualna lista szkoleń Sprawdź

Odmowa pracy w porze nocnej pracownika opiekującego się dzieckiem do lat 8

W ocenie autora, pracownik może wyrazić wiążącą dla pracodawcy zgodę jedynie na pracę w określonej części pory nocnej. W treści pytania nie wskazano przyjętego przez pracodawcę przedziału pory nocnej.

Kup Legalisa Księgowość Kadry Biznes online i uzyskaj natychmiastowy dostęp! Sprawdź

Pora nocna to 8 kolejnych godzin przypadających w przedziale 21:00-7:00. Wyznaczone godziny pracy nocnej muszą mieścić się w tych „widełkach” czasowych (nieprawidłowe byłoby np. określenie pory nocnej od 20:30 do 4:30). Pory nocne najczęściej określa się na pełne godziny (np. 21:00-5:00, 22:00-6:00, 23:00-7:00), ale możliwe jest również operowanie godzinami niepełnymi, np. od 21:30 do 5:30 lub od 22:45 do 6:45.

Pracownika wychowującego dziecko do ukończenia przez nie 8. roku życia nie wolno bez jego zgody zatrudniać w godzinach nadliczbowych, w porze nocnej, w systemie czasu pracy, o którym mowa w art. 139 Kodeksu pracy, ani delegować poza stałe miejsce pracy. W tym zakresie pobierane jest od pracownika stosowne oświadczenie.

Zgoda lub odmowa pracownika dotyczy pracy w przedziałach czasowych wprost pokrywających się z porą nocną. Uprawnienie to nie obejmuje prawa do odmowy pracy w godzinach poza porą nocną; w tym zakresie oświadczenie pracownika jest niewiążące, chyba że pracodawca wyrazi zgodę – wówczas może zostać ustalony indywidualny rozkład czasu pracy, obejmujący możliwość planowania pracy tylko w ustalonych godzinach.

W omawianym przypadku pracownik wskazał przedział czasowy 5:45-22:15, w którym „wyraża zgodę na pracę”. Przedział ten obejmuje 7 godzin i 45 minut, a zatem część obowiązującej u pracodawcy pory nocnej wykracza poza wskazane godziny. Skoro pracownik może całkowicie odmówić pracy w porze nocnej, należy przyjąć, że może również wyrazić zgodę na pracę jedynie w części pory nocnej.

Przykładowo, jeżeli u pracodawcy pora nocna trwa od 22:15 do 6:15, należy przyjąć, że pracownik wyraził zgodę na pracę jedynie przez 30 minut w porze nocnej. W ocenie autora taka interpretacja przepisów jest dopuszczalna.

Szkolenia z zakresu prawa pracy – aktualna lista szkoleń Sprawdź