Zasady korzystania z narzędzi AI przez pracodawców i pracowników - AI Act [WYWIAD]

REKLAMA
REKLAMA
Zasady korzystania z narzędzi AI przez pracodawców i pracowników – czy AI Act wystarczy? Co zmieni planowana ustawa o systemach AI w Polsce dla firm i instytucji? Czy pracownik może odmówić wykonania polecenia wygenerowanego przez AI? Czy można zwolnić pracownika za korzystanie z narzędzi AI? W szczegółowym wywiadzie na nasze pytania odpowiada radca prawny Marietta Poźniak.
- Sztuczna inteligencja w pracy a prawo pracy
- Polecenie dla pracownika wygenerowane przez system AI
- Zwolnienie pracownika za korzystanie z narzędzi AI
- Błędy pracowników w obszarze AI
- Zasady korzystania z AI w regulaminach pracy
- Automatyzacja jako zagrożenie dla zatrudnienia
- Systemy HR jak rozwiązania wysokiego ryzyka
- AI w rekrutacji
- Błędne decyzje algorytmu a odpowiedzialność
- Ustawa o systemach AI
- Skargi na systemy AI
Sztuczna inteligencja w pracy a prawo pracy
Redaktor infor.pl Emilia Panufnik: Jak szybko sztuczna inteligencja weszła do codziennej pracy pracowników i pracodawców? Czy prawo pracy nadąża za tym tempem?
REKLAMA
REKLAMA
Marietta Poźniak, radca prawny, ekspertka specjalizująca się w prawnych aspektach generatywnej sztucznej inteligencji oraz jej bezpiecznym wykorzystaniu w biznesie i organizacjach, prowadzi działalność "rozwijAI": Sztuczna inteligencja pojawiła się w wielu organizacjach szybciej, niż ktokolwiek przypuszczał. Wynika to przede wszystkim z powszechnej dostępności i intuicyjności narzędzi generatywnych (GenAI). AI weszła do firm często „oddolnie”, najpierw za sprawą samych pracowników, którzy zaczęli korzystać z ogólnodostępnych narzędzi, zazwyczaj wyprzedzając formalne wdrożenia po stronie pracodawców. To zjawisko ma nawet swoje określenie – Shadow AI. Stąd biorą się rozbieżności w statystykach: wyniki badań pracodawców wykazują znacznie niższy poziom adopcji technologii niż ankiety przeprowadzane wśród pracowników.
Z perspektywy prawa pracy oznacza to dużą zmianę, gdyż AI wpływa nie tylko na organizację pracy, ale też na nadzór nad pracownikami czy kwestię odpowiedzialności za błąd. Choć procesy legislacyjne tradycyjnie nie nadążają za technologią, nie działamy w próżni prawnej. Już teraz stosujemy istniejące przepisy, na przykład o ochronie dóbr osobistych czy dotyczące zakazu dyskryminacji. Dlatego dziś można powiedzieć, że prawo próbuje dogonić rzeczywistość. Na pewno ważnym krokiem jest oczywiście unijny AI Act, chociaż i on nie rozwiązuje wszystkich kwestii pracowniczych.

Marietta Poźniak, radca prawny, ekspertka specjalizująca się w prawnych aspektach generatywnej sztucznej inteligencji oraz jej bezpiecznym wykorzystaniu w biznesie i organizacjach
Marietta Poźniak, radca prawny, ekspertka specjalizująca się w prawnych aspektach generatywnej sztucznej inteligencji oraz jej bezpiecznym wykorzystaniu w biznesie i organizacjach. Prowadzi działalność "rozwijAI"
Źródło zewnętrzne
Polecenie dla pracownika wygenerowane przez system AI
Czy pracownik może odmówić wykonania polecenia, jeśli zostało ono wygenerowane przez system AI?
REKLAMA
To ciekawe zagadnienie, na które odpowiedź nie jest jednoznaczna i zależy od kontekstu prawnego, a nie od samego faktu użycia technologii. Zgodnie z art. 100 Kodeksu pracy, pracownik jest obowiązany stosować się do poleceń przełożonych, które dotyczą pracy, jeżeli nie są one sprzeczne z przepisami prawa lub umową o pracę.
Dla ważności polecenia służbowego nie ma znaczenia, czy jego treść sformułował człowiek, czy została ona wygenerowana przez algorytm. Jeśli więc AI jest tylko narzędziem, a polecenie jest merytorycznie prawidłowe, mieści się w zakresie obowiązków i zostało zaakceptowane przez przełożonego, wówczas pracownik nie ma podstaw do odmowy jego wykonania. A więc samo to, że polecenie zostało wygenerowane czy zarekomendowane przez system AI nie oznacza jeszcze, że pracownik może je zignorować.
Sytuacja ulega zmianie, gdy polecenie wygenerowane przez AI jest bezprawne, niebezpieczne, narusza zasady współżycia społecznego czy przepisy prawa (np. BHP, czas pracy), bądź wykracza poza rodzaj pracy umówiony z pracownikiem. W takich przypadkach pracownik ma prawo, a w niektórych sytuacjach nawet obowiązek (np. w przypadku zagrożenia dla bezpieczeństwa) zakwestionować taką instrukcję.
Zwolnienie pracownika za korzystanie z narzędzi AI
Czy pracownik może zostać zwolniony za korzystanie z narzędzi AI bez wiedzy pracodawcy? Gdzie przebiega granica między efektywnym wykorzystaniem technologii, a „wyręczaniem się" nią?
To pytanie chyba zadaje sobie coraz więcej pracowników i pracodawców. I tak, pracownik może zostać zwolniony za korzystanie z narzędzi AI bez wiedzy pracodawcy, ale oczywiście wszystko zależy od okoliczności i konkretnego przypadku.
Samo korzystanie z technologii nie jest przewinieniem, a dopiero naruszeniem konkretnych obowiązków pracowniczych, do którego dochodzi poprzez niewłaściwe użycie algorytmów. Problem pojawia się, gdy pracodawca uregulował kwestię korzystania z narzędzi AI w miejscu pracy, a pracownik świadomie narusza te zasady. W zależności od skali i skutków, może to uzasadniać upomnienie lub naganę, wypowiedzenie umowy o pracę, a w skrajnych przypadkach nawet zwolnienie dyscyplinarne.
Najpoważniejszym ryzykiem jest naruszenie tajemnicy przedsiębiorstwa lub przepisów o ochronie danych osobowych, poprzez umieszczenie poufnych informacji do publicznych modeli AI. Ponadto wprowadzenie pracodawcy w błąd co do autorstwa i jakości pracy, np. poprzez przedstawienie wygenerowanego przez AI materiału jako pracę własną, może być uznane za naruszenie obowiązku sumiennego i starannego wykonania pracy, a w pewnych kontekstach – nawet za nieuczciwość wobec pracodawcy.
Granica między efektywnością a „wyręczaniem się” przebiega w miejscu krytycznej weryfikacji i zapewnieniu nadzoru ludzkiego. O efektywnym wykorzystaniu technologii mówimy wówczas, gdy AI służy jako wsparcie, a pracownik zachowuje kontrolę nad rezultatem, weryfikuje wynik i bierze za niego odpowiedzialność. Natomiast problem zaczyna się wtedy, gdy AI zastępuje realne wykonywanie pracy, a pracownik przestaje samodzielnie analizować, sprawdzać i odpowiadać za efekt.
Błędy pracowników w obszarze AI
Jakie są najczęstsze błędy pracowników w tym obszarze?
Najczęstsze błędy wynikają nie ze złej woli pracowników, ale z braku świadomości technologicznej i prawnej. Niewątpliwie jednym z najczęstszych i najbardziej niebezpiecznych błędów jest wprowadzanie danych poufnych do ogólnodostępnych narzędzi AI, takich jak dane osobowe, fragmenty umów i dokumentów wewnętrznych czy informacje objęte tajemnicą przedsiębiorstwa.
Kolejnym błędem, chyba najłatwiejszym do wykrycia, jest bezrefleksyjne kopiowanie treści wygenerowanych przez AI. To te sprawy zyskują nawet największy rozgłos, gdy pracownik nie zweryfikował rezultatu, a narzędzia AI „halucynowały”, czyli wygenerowały nieprecyzyjne, nieaktualne czy po prostu nieprawdziwe treści.
Co więcej, wielu pracowników zakłada, że skoro narzędzie przyspiesza pracę i często jest darmowe, to nie ma znaczenia, czy pracodawca wie o jego użyciu. Tymczasem może mieć to ogromne znaczenie tam, gdzie liczy się sposób wykonywania zadań, bezpieczeństwo informacji, zgodność z wewnętrznymi procedurami czy warunki umowy z kontrahentem.
Pracownicy często nie odróżniają użycia pomocniczego od pełnego delegowania pracy do systemu. Jak już wspomnieliśmy, korzystanie z narzędzia AI jako wsparcia jest czym innym niż powierzenie mu faktycznego wykonywania obowiązków bez kontroli i bez świadomości konsekwencji.
A to z kolei ma też związek z innym, długofalowym błędem, który polega na zastępowaniu kompetencji zamiast ich wzmacniania. Pracownicy zaczynają delegować zadania do AI, tracąc przy tym umiejętność samodzielnego pisania, czy analizowania, a wręcz uzależniając się od technologii do tego stopnia, że tracą biegłość w wykonywaniu podstawowych zadań.
Zasady korzystania z AI w regulaminach pracy
Czy firmy powinny jasno regulować zasady korzystania z AI w regulaminach pracy?
W tym przypadku mogę odpowiedzieć krótko i stanowczo: tak, absolutnie tak. I powiem więcej: firmy, które tego nie zrobiły, narażają się na poważne ryzyka prawne, organizacyjne, finansowe i wizerunkowe. Z perspektywy pracodawcy takie regulacje są potrzebne głównie po to, aby wyznaczyć granice dopuszczalnego korzystania z AI. Pracownik powinien wiedzieć na przykład, z jakich narzędzi może korzystać i jakich danych nie wolno do nich wprowadzać.
I nie zawsze musi to oznaczać od razu rozbudowany regulamin pracy w sensie formalnym i skomplikowaną procedurę wdrożeniową. Czasem wystarczą proste odrębne polityki, regulaminy wewnętrzne, szkolenia pracowników.
Innymi słowy, na określenie zasad korzystania z AI w pracy należy patrzeć jak na konieczność, a nie zbędny luksus. Dobrze skonstruowana polityka AI chroni jednocześnie pracodawcę (przed wyciekiem danych, odpowiedzialnością prawną i chaosem organizacyjnym), pracowników (przed nieświadomym naruszeniem zasad i ich konsekwencjami), oraz klientów i partnerów biznesowych (przed niekontrolowanym przetwarzaniem ich danych czy naruszeniem postanowień umowy).
Automatyzacja jako zagrożenie dla zatrudnienia
Czy z perspektywy prawa pracy automatyzacja rzeczywiście stanowi zagrożenie dla zatrudnienia?
Automatyzacja procesów oraz wdrażanie systemów AI mogą w istocie prowadzić do redukcji zapotrzebowania na niektóre etaty, szczególnie tam, gdzie zadania mają charakter powtarzalny i schematyczny. Technologia ta doprowadzi przede wszystkim do głębokiej transformacji wielu profesji, wymuszając zmianę sposobu wykonywania pracy czy modyfikację wymaganych kompetencji. Część ról zawodowych zniknie, jednak na ich miejsce pojawią się zupełnie nowe specjalizacje.
Z perspektywy prawa pracy należy podkreślić, że automatyzacja nie zwalnia pracodawcy z obowiązku przestrzegania standardów ochronnych. Przeprowadzając reorganizację struktury zatrudnienia i likwidując określone stanowiska, podmiot zatrudniający nadal musi stosować przepisy dotyczące wypowiedzeń, zwolnień grupowych, zasad równego traktowania czy konsultacji z przedstawicielami załogi.
A więc obecne prawo pracy chroni głównie osoby, które już tracą pracę. W dobie sztucznej inteligencji istotne jest zintensyfikowanie ochrony prewencyjnej, czyli dawanie pracownikom realnych szans na adaptację i zmianę swoich kompetencji, zanim ich dotychczasowe funkcje ulegną całkowitemu wyparciu przez technologię.
Jakie grupy zawodowe są dziś najbardziej narażone na zastąpienie przez AI?
W ogólnym wyobrażeniu dominowała narracja, że automatyzacja zagraża przede wszystkim pracy fizycznej, powtarzalnej. Ale generatywna AI odwróciła ten schemat i sprawiła, że zagraża sektorom dotąd uznawanym za bezpieczne - pracy umysłowej, kreatywnej i biurowej. Najbardziej narażone są grupy zawodowe, których praca opiera się na rutynie, standaryzacji i przetwarzaniu informacji, niezależnie od tego, czy odbywa się w biurze, czy w studiu graficznym. W krótkiej perspektywie największą presję mogą odczuć:
- pracownicy administracyjno -biurowi i obsługa klienta, gdzie AI z łatwością przejmuje raportowanie, wprowadzanie danych i obsługę standardowych zapytań,
- sektor finansowy i księgowy, szczególnie na stanowiskach juniorskich, zajmujących się rutynowymi operacjami,
- branża kreatywna i językowa, a więc tłumacze, graficy czy copywriterzy tworzący treści marketingowe,
- prawnicy - nie mogę uciekać od faktów i mojej branży. Zagrożone są stanowiska zajmujące się researchem, obsługą jednorodnych procesów czy procesami due diligence.
Istotną granicą ochrony zawodu nie jest już „wykształcenie wyższe”, a AI zmienia już niemal wszystkie grupy zawodowe, tylko w różnym stopniu.
Systemy HR jak rozwiązania wysokiego ryzyka
Dlaczego systemy wykorzystywane w HR zostały uznane za rozwiązania wysokiego ryzyka w ramach AI Act?
Systemy sztucznej inteligencji wykorzystywane w obszarze HR (zatrudnienie, zarządzanie pracownikami i dostęp do samozatrudnienia) zostały uznane za rozwiązania wysokiego ryzyka ze względu na ich ogromny, bezpośredni wpływ na życie jednostek i związane z tym zagrożenia dla praw podstawowych. Wiąże się to z ogromnym wpływem na perspektywy życiowe. Decyzje podejmowane przez systemy HR (dotyczące rekrutacji, warunków pracy, awansu czy zwolnienia) mogą w znacznym stopniu wpływać na przyszłe perspektywy zawodowe, źródła utrzymania osób oraz ich prawa pracownicze.
Ponadto wykorzystanie tych systemów niesie ze sobą ryzyko dyskryminacji i powielania uprzedzeń w całym procesie rekrutacji, oceniania czy awansowania. Błędy systemu lub stronniczość w danych treningowych mogą prowadzić do nieobiektywnego traktowania kandydatów i pracowników m.in. ze względu na płeć, wiek, niepełnosprawność, pochodzenie rasowe, etniczne czy orientację seksualną.
Systemy AI służące do monitorowania wydajności i zachowania osób zatrudnionych, a także te służące do spersonalizowanego przydzielania zadań w oparciu o indywidualne zachowania, cechy osobowości czy charakter, mogą w istotny sposób podważać prawa podstawowe pracowników w zakresie ochrony danych osobowych oraz prywatności.
Z tych względów AI Act nakłada na dostawców i podmioty stosujące (pracodawców) tych systemów szczególne obowiązki, takie jak zapewnienie nadzoru ludzkiego, wysokiej jakości danych oraz przejrzystości działania algorytmu.
AI w rekrutacji
Jakie obowiązki będą miały firmy korzystające z AI przy rekrutacji i ocenie pracowników? Gdzie kończy się „wsparcie decyzji", a zaczyna niedozwolona w pełni zautomatyzowana rekrutacja?
Tak jak już powiedzieliśmy, systemy AI wykorzystywane w procesach HR, są kwalifikowane przez AI Act jako rozwiązania wysokiego ryzyka, co nakłada na pracodawców szereg rygorystycznych obowiązków prawnych i organizacyjnych. Różnią się one w zależności od tego, czy firma występuje w roli dostawcy narzędzia, a więc producenta, czy też jest jedynie podmiotem stosującym, a więc użytkownikiem. Zazwyczaj będziemy mieli do czynienia z tą drugą sytuacją i wówczas pracodawca będzie musiał przede wszystkim realizować obowiązek informacyjny wobec pracowników i kandydatów, gwarantując tym ostatnim prawo do uzyskania merytorycznego wyjaśnienia roli algorytmu w podjętej decyzji.
Fundamentem bezpiecznego wdrożenia jest zapewnienie między innymi skutecznego nadzoru ludzkiego przez przeszkolony personel, który posiada kompetencje do krytycznej oceny wyników systemu i realną możliwość zignorowania rekomendacji maszyny. Należy przy tym pamiętać o bezwzględnym zakazie stosowania systemów rozpoznawania emocji i wyciągania na tej podstawie wniosków w miejscu pracy i podczas rekrutacji.
Granica dopuszczalności technologii przebiega w miejscu, gdzie kończy się merytoryczne wsparcie rekrutera, a zaczyna w pełni zautomatyzowane podejmowanie decyzji bez udziału człowieka. Zgodnie z art. 22 RODO, takie zautomatyzowane rozstrzygnięcia są co do zasady zabronione, chyba że zachodzą szczególne przesłanki prawne, a nawet wtedy kandydat musi mieć zapewnione prawo do interwencji ludzkiej i zakwestionowania wyniku algorytmu, co wyklucza traktowanie rekruterów jedynie jako figurantów zatwierdzających w ciemno wyniki generowane przez AI.
Czy kandydaci powinni być informowani o tym, że są oceniani przez algorytmy?
Tak, kandydaci muszą być informowani o tym, że podlegają ocenie algorytmów. Obowiązek ten wynika z przepisów AI Act oraz RODO, które wspólnie tworzą rygorystyczny standard transparentności w relacjach pracodawca-kandydat.
Na gruncie AI Act systemy wykorzystywane do rekrutacji, analizowania CV czy szeroko pojętej oceny kandydatów są jednoznacznie klasyfikowane jako rozwiązania wysokiego ryzyka. Wiąże się to z koniecznością poinformowania osoby aplikującej, że w procesie decyzyjnym bierze udział zaawansowana technologia, a w przypadku bezpośredniej interakcji, na przykład z botem rekrutacyjnym, informacja ta musi zostać przekazana najpóźniej w momencie rozpoczęcia rozmowy. Co więcej, kandydat zyskał prawo do uzyskania merytorycznego wyjaśnienia roli systemu AI w podjęciu ostatecznej decyzji, co oznacza, że pracodawca musi być gotowy wskazać główne czynniki i dane, które wpłynęły na odrzucenie danej aplikacji.
Błędne decyzje algorytmu a odpowiedzialność
Kto ponosi odpowiedzialność za błędną decyzję algorytmu: pracodawca czy dostawca technologii?
Co do zasady, z perspektywy prawa pracy, odpowiedzialność wobec pracownika ponosi pracodawca. To pracodawca organizuje proces pracy, podejmuje decyzje kadrowe i nie może uchylić się od odpowiedzialności tylko dlatego, że korzystał z narzędzia opartego na sztucznej inteligencji. Jeżeli więc algorytm został wykorzystany np. przy rekrutacji, ocenie pracownika, awansie czy zwolnieniu, to wobec pracownika lub kandydata to właśnie pracodawca będzie pierwszym podmiotem odpowiadającym za skutki takiej decyzji.
Nie oznacza to jednak, że dostawca technologii jest całkowicie poza odpowiedzialnością. Na gruncie relacji między firmami odpowiedzialność może być rozłożona inaczej, w zależności od tego, czy wada wynikała z błędnego wdrożenia, niewłaściwego użycia systemu, braku nadzoru po stronie pracodawcy, czy z samej konstrukcji narzędzia. W praktyce możliwe są więc roszczenia regresowe albo odpowiedzialność kontraktowa dostawcy wobec pracodawcy.
Z punktu widzenia pracownika najważniejsze jest jednak to, że nie może on zostać pozbawiony ochrony tylko dlatego, że decyzję podjął algorytm. Pracodawca nie może zasłaniać się technologią, gdyż to on odpowiada za zgodność procesu z prawem pracy, zasadą równego traktowania, ochroną danych osobowych i poszanowaniem praw pracownika.
Krótko mówiąc: wobec pracownika zasadniczo odpowiada pracodawca, natomiast między pracodawcą a dostawcą technologii odpowiedzialność może zależeć od przyczyny błędu i treści umowy.
Ustawa o systemach AI
Co zmieni planowana ustawa o systemach AI w Polsce dla firm i instytucji?
Celem projektowanej ustawy jest powołanie w Polsce systemu sprawowania nadzoru nad systemami sztucznej inteligencji, zgodnego z AI Act. Wprawdzie sam AI Act obowiązuje bezpośrednio, ale bez ustawy krajowej brakuje odpowiedzi na istotne pytania: kto kontroluje, kto egzekwuje, jak wygląda procedura. Najważniejsze zmiany dla firm i instytucji wiążą się z wyznaczeniem organu nadzoru – Komisji Rozwoju i Bezpieczeństwa Sztucznej Inteligencji. Za naruszenie unijnych przepisów (AI Act), Komisja będzie mogła nakładać na firmy i instytucje administracyjne kary pieniężne.
Ponadto firmy będą mogły testować innowacyjne systemy AI przed ich wprowadzeniem na rynek w tzw. piaskownicach regulacyjnych, korzystając z odstępstw od wymogów. Przepisy nałożą na przedsiębiorstwa i instytucje dodatkowe obowiązki niezbędne do stosowania unijnego rozporządzenia, takie jak prowadzenie odpowiedniej dokumentacji czy wprowadzenie systemów zarządzania jakością.
Skargi na systemy AI
Na czym polega nowy tryb składania skarg na systemy AI? Czy firmy są na to gotowe?
Nowy tryb składania skarg na systemy sztucznej inteligencji ma umożliwić zgłaszanie naruszeń do KRiBSI. Skargę może złożyć osoba fizyczna, prawna albo jednostka organizacyjna nieposiadająca osobowości prawnej, w której ma być zawarty m.in. szczegółowy opis istotnych faktów i powodów, dla których skarżący uważa, że unijne lub krajowe przepisy o sztucznej inteligencji zostały naruszone.
W mojej ocenie wiele firm nie jest jeszcze w pełni gotowych, gdyż wdrożenie unijnych przepisów to pierwsza tak kompleksowa regulacja tego sektora, co oznacza dla rynku konfrontację z zupełnie nowymi i skomplikowanymi wyzwaniami.
Jaką rolę będzie pełnił nowy organ nadzorczy KRiBSI?
Komisja Rozwoju i Bezpieczeństwa Sztucznej Inteligencji ma być centralnym organem odpowiedzialnym za nadzór nad rynkiem AI w Polsce. Będzie zajmował się kontrolą zgodności systemów AI z przepisami, rozpatrywaniem spraw i koordynowaniem krajowego systemu nadzoru. W praktyce stanie się kluczową instytucją dla egzekwowania AI Act na poziomie krajowym.
Jednocześnie Komisja ma pełnić ważną rolę w promowaniu innowacji poprzez działania edukacyjne i informacyjne. Do jej zadań będzie ponadto należeć opiniowanie aktów prawnych i współpraca międzynarodowa w zakresie kształtowania polityki AI.
Jakie kompetencje, procedury i zasoby firmy będą musiały zabezpieczyć w związku z jego działalnością?
W związku z działalnością KRiBSI, organizacje rozwijające lub wykorzystujące systemy AI będą musiały zbudować i zabezpieczyć nowe kompetencje, zasoby technologiczne oraz procedury wewnętrzne. Będą musiały przede wszystkim wiedzieć, z jakich systemów AI korzystają i jakie ryzyka się z tym wiążą. Potrzebne będą procedury compliance, obsługi skarg, zarządzania dokumentacją, oceny ryzyka, nadzoru człowieka i współpracy z organem nadzorczym. W praktyce oznacza to konieczność zaangażowania działów prawnych, compliance, HR, IT i cyberbezpieczeństwa.
Bardzo dziękuję za rozmowę.
REKLAMA
© Materiał chroniony prawem autorskim - wszelkie prawa zastrzeżone. Dalsze rozpowszechnianie artykułu za zgodą wydawcy INFOR PL S.A.

- Czytaj artykuły
- Rozwiązuj testy
- Zdobądź certyfikat
REKLAMA








