Jak bronić się przed nadużyciami AI ze strony pracodawcy, platform cyfrowych i dostawców usług internetowych

1
40
3/5 - (3 votes)

Nawigacja:

Czego właściwie się bać? Mapowanie nadużyć AI w codziennym życiu

Trzy role jednej osoby: pracownik, użytkownik, klient

Ta sama osoba może jednocześnie występować w trzech rolach: pracownika, użytkownika platform cyfrowych i klienta usług online. W każdej z tych ról może stać się obiektem decyzji podejmowanych przez systemy AI, często bez swojej wiedzy.

Jako pracownik jesteś oceniany przez systemy monitoringu, algorytmy HR czy narzędzia do analizy efektywności. Jako użytkownik platformy cyfrowej podlegasz profilowaniu, rankingom w feedach, moderacji treści. Jako klient usług internetowych – banku, ubezpieczyciela, sklepu, operatora – możesz być oceniany przez system scoringowy, który wpływa na dostęp do usług i ich cenę.

Pracodawca, platforma czy dostawca usług internetowych często argumentują, że AI „tylko pomaga” i „niczego nie rozstrzyga samodzielnie”. W praktyce dla osoby, która traci konto, pracę lub dostęp do usługi, liczy się efekt: decyzja, której trudno się przeciwstawić, bo brak informacji, jak powstała.

Typowe obszary nadużyć: gdzie AI dotyka cię najmocniej

Nadużycia związane z AI skupiają się wokół kilku powtarzających się obszarów. Można je szybko zidentyfikować, zadając pytanie: „Czy cokolwiek ważnego w moim życiu zależy od decyzji, która powstaje z danych o mnie?”. Jeśli tak, jest to potencjalny punkt ryzyka.

Najczęstsze obszary nadużyć to:

  • Monitoring i śledzenie aktywności – w pracy (kamery, logi komputera, analiza e-maili), na platformach (śledzenie kliknięć, czasu oglądania), u dostawców usług (analiza transakcji, lokalizacji).
  • Profilowanie użytkowników przez AI – tworzenie profili zachowań, zainteresowań, wiarygodności płatniczej, ryzyka nadużyć, „wartości klienta”.
  • Automatyczne decyzje kredytowe i scoring – odmowa kredytu, zmiana limitu, pogorszenie warunków usługi wyłącznie na podstawie wyniku modelu.
  • Manipulacja treścią i rekomendacjami – algorytmy feedów, rekomendacje produktów, treści politycznych, reklamy oparte na wrażliwych danych.
  • Moderacja treści i blokady kont – automatyczne wykrywanie „naruszeń”, shadowban, wyłączanie monetyzacji, usuwanie treści bez realnego uzasadnienia.

W większości tych obszarów AI sama w sobie nie jest problemem. Problemem są brak przejrzystości, nadmierna ingerencja w prywatność oraz zastępowanie ludzi zautomatyzowanymi decyzjami bez działających mechanizmów odwoławczych.

Kiedy zastosowanie AI jest niewygodne, a kiedy bezprawne

Nie każde nieprzyjemne zastosowanie AI oznacza naruszenie prawa. Pracodawca może w pewnym zakresie monitorować pracę, platforma – moderować treści, bank – oceniać ryzyko kredytowe. Granicę wyznaczają przepisy o ochronie danych osobowych, prawie pracy i prawach konsumenta.

Niewygodne, ale co do zasady legalne może być na przykład:

  • stosowanie systemu rejestracji czasu pracy na komputerze, jeśli jest on jasno opisany, proporcjonalny i zgodny z kodeksem pracy,
  • personalizowany feed na platformie społecznościowej, o ile użytkownik jest poinformowany o profilowaniu i ma podstawowe opcje kontroli,
  • wstępna automatyczna selekcja CV, jeśli nie prowadzi do dyskryminacji i kandydaci wiedzą, na jakiej zasadzie działa system.

Bezprzewne lub wątpliwe prawnie jest najczęściej wtedy, gdy:

  • brakuje informacji o tym, że AI decyduje (np. o premii, awansie, limicie kredytowym),
  • system wykorzystuje dane, których nie powinien (np. prywatne rozmowy, dane wrażliwe),
  • brakuje realnej możliwości odwołania się i interwencji człowieka,
  • algorytm prowadzi do dyskryminacji poszczególnych grup (wiek, płeć, pochodzenie, niepełnosprawność),
  • monitoring wykracza poza to, co jest niezbędne do organizacji pracy lub świadczenia usługi.

W praktyce wiele sytuacji bywa „na granicy”. Dlatego ważne jest, aby umieć rozpoznać, że decyzja lub działanie pochodzi z systemu AI, a następnie oprzeć się na konkretnych podstawach prawnych.

Jak rozpoznać, że „zdecydował algorytm”, a nie człowiek

Firmy rzadko wprost mówią „zdecydował algorytm”. Częściej pojawiają się sformułowania typu: „system zdecydował”, „zgodnie z polityką automatycznej oceny”, „wynik weryfikacji nie pozwala na…”. Rozpoznanie zautomatyzowanej decyzji AI jest kluczowe, bo uruchamia określone prawa, zwłaszcza wynikające z RODO.

O tym, że masz do czynienia z decyzją systemu AI, mogą świadczyć:

  • bardzo szybka odpowiedź od razu po złożeniu wniosku lub akcji (odmowa kredytu w kilka sekund, blokada konta tuż po publikacji posta),
  • brak indywidualnego uzasadnienia, a zamiast tego ogólny komunikat lub odwołanie do „polityki firmy”,
  • powtarzalne odpowiedzi w korespondencji, wyglądające jak szablon, mimo pytań o szczegóły,
  • informacja w regulaminie lub polityce prywatności o „zautomatyzowanym podejmowaniu decyzji, w tym profilowaniu”.

Jeśli podejrzewasz, że decyzja była automatyczna, możesz to wprost zakwestionować i zażądać informacji na podstawie RODO oraz prawa pracy lub konsumenckiego. Poniżej – fundamenty, na których można się oprzeć.

Zbliżenie ekranu komputera z interfejsem ChatGPT w ciemnym otoczeniu
Źródło: Pexels | Autor: Matheus Bertelli

Podstawy prawne: na czym można realnie się oprzeć

RODO/GDPR: dane osobowe, profilowanie i zautomatyzowane decyzje

Kluczem do obrony przed nadużyciami AI jest zrozumienie, że większość tych systemów opiera się na przetwarzaniu danych osobowych. To automatycznie uruchamia ochronę przewidzianą w RODO (GDPR). Nawet jeśli firma używa hasła „anonimizacja”, bardzo często da się zidentyfikować konkretną osobę.

Najważniejsze elementy RODO w kontekście AI:

  • Prawo do informacji – administrator (pracodawca, platforma, bank) musi jasno wyjaśnić, jakie dane zbiera, w jakim celu, na jakiej podstawie prawnej oraz czy stosuje profilowanie i zautomatyzowane decyzje.
  • Prawo dostępu do danych (art. 15) – możesz zażądać kopii danych, jakie na twój temat przetwarza firma, oraz informacji o źródłach tych danych, odbiorcach, okresie przechowywania.
  • Prawo do sprzeciwu wobec profilowania – w niektórych sytuacjach możesz sprzeciwić się profilowaniu opartemu na prawnie uzasadnionym interesie administratora.
  • Prawo do niepodlegania decyzji opierającej się wyłącznie na zautomatyzowanym przetwarzaniu (art. 22) – zwłaszcza gdy wywołuje to skutki prawne (np. odmowa usługi) lub w podobny sposób istotnie na ciebie wpływa.

Art. 22 RODO jest często fundamentem przy sporach o automatyczne decyzje kredytowe, scoring, automatyczne odrzucenie CV czy niekorzystne decyzje kadrowe oparte wyłącznie na algorytmie. Zapewnia m.in. prawo do uzyskania interwencji człowieka, prawo do wyrażenia własnego stanowiska i prawo do zakwestionowania decyzji.

Kodeks pracy i prawo pracy UE: monitoring i algorytmy HR

W relacji pracownik–pracodawca samo RODO nie wystarczy. Istotne są przepisy kodeksu pracy oraz dyrektywy i rozporządzenia UE z zakresu prawa pracy, które kształtują standardy ochrony pracownika.

Kluczowe zasady:

  • Monitoring musi być celowy i proporcjonalny – polski kodeks pracy dopuszcza monitoring wizyjny i innych form nadzoru, ale tylko w jasno określonych celach (bezpieczeństwo, ochrona mienia, kontrola produkcji) i z poszanowaniem godności pracownika.
  • Obowiązek informacyjny – pracodawca musi poinformować o wprowadzeniu monitoringu (również cyfrowego), zakresie, celach i sposobach, z wyprzedzeniem i na piśmie lub w regulaminie.
  • Zakaz dyskryminacji – niezależnie od użytych narzędzi (także AI) niedopuszczalne jest różnicowanie pracowników ze względu na płeć, wiek, pochodzenie, niepełnosprawność, przekonania itp.
  • Ochrona dóbr osobistych – zbyt inwazyjny monitoring (np. pełny dostęp do prywatnych wiadomości, ciągłe śledzenie poza czasem pracy) może naruszać dobra osobiste, co otwiera drogę do roszczeń cywilnych.

Prawo pracy UE (w tym orzecznictwo Trybunału Sprawiedliwości) wzmacnia te zasady, zwłaszcza w kontekście przejrzystości algorytmów HR, informowania o kryteriach rekrutacji i oceny oraz wymogu ludzkiej kontroli nad decyzjami o zatrudnieniu lub zwolnieniu.

Prawo konsumenckie i usługi cyfrowe: DSA i regulaminy platform

Jako użytkownik platform cyfrowych i klient usług internetowych jesteś chroniony nie tylko przez RODO, lecz także przez prawo konsumenckie oraz specyficzne regulacje dotyczące usług cyfrowych, w tym unijne Digital Services Act (DSA).

Najważniejsze elementy z punktu widzenia obrony przed nadużyciami AI:

  • Przejrzystość warunków świadczenia usług – regulaminy nie mogą być całkowicie dowolne; muszą być sformułowane jasno, nie mogą wprowadzać w błąd co do kluczowych cech usługi i sposobu jej funkcjonowania.
  • Obowiązki w zakresie moderacji treści – duże platformy muszą informować o stosowaniu algorytmicznej moderacji i oferować procedury odwoławcze od decyzji o usunięciu treści lub zablokowaniu konta.
  • Transparentność reklam i rekomendacji – użytkownik powinien wiedzieć, kiedy ma do czynienia z reklamą, na jakiej podstawie wyświetlane są mu określone treści oraz mieć możliwość wpływu na profilowanie.
  • Ochrona przed nieuczciwymi praktykami – UOKiK i inne organy mogą interweniować, gdy regulaminy lub praktyki platform są sprzeczne z dobrymi obyczajami i rażąco naruszają interesy konsumentów.

DSA wprowadza też nowe obowiązki w zakresie dokumentowania i uzasadniania decyzji moderacyjnych, co można wykorzystać w sporze z platformą o blokadę konta czy ograniczenie zasięgów.

Regulacje dotyczące AI (AI Act) a prawa jednostki

Unijny AI Act tworzy ramy prawne dla systemów sztucznej inteligencji w UE. Dla zwykłego użytkownika ważne są głównie dwie rzeczy: zakaz niektórych rodzajów systemów oraz wymogi przejrzystości i nadzoru dla tzw. systemów wysokiego ryzyka.

W praktyce oznacza to, że:

  • pewne zastosowania AI (np. masowy zdalny biometryczny nadzór w przestrzeni publicznej, manipulacyjne techniki naruszające wolną wolę) są zakazane lub silnie ograniczone,
  • systemy AI używane przy rekrutacji, ocenie pracowników, dostępie do niektórych usług publicznych czy krytycznych prywatnych (np. kredyty) będą podlegać ostrzejszym wymogom dokumentacji, testowania i nadzoru,
  • osoba dotknięta działaniem takiego systemu będzie miała formalne prawa do informacji i składania skarg, a organy nadzoru będą mogły karać dostawców za naruszenia.

Choć AI Act nie zastępuje RODO, prawa pracy ani przepisów konsumenckich, wzmacnia ich stosowanie i nakłada konkretne obowiązki na firmy wykorzystujące AI, co ułatwi dochodzenie roszczeń.

Do kogo realnie można się zwrócić: instytucje i organy

Znajomość przepisów to jedno, a wiedza, gdzie faktycznie można uzyskać wsparcie – drugie. W sporach o nadużycia AI kluczowe są następujące instytucje:

  • UODO (Urząd Ochrony Danych Osobowych) – gdy chodzi o naruszenie RODO: profilowanie bez podstawy, brak informacji, zautomatyzowane decyzje bez możliwości odwołania, przetwarzanie nadmiarowych danych.
  • PIP (Państwowa Inspekcja Pracy) – gdy pracodawca nadużywa monitoringu, stosuje nieproporcjonalny nadzór cyfrowy, nie informuje o AI w HR lub dochodzi do dyskryminacji algorytmicznej w pracy.
  • UOKiK – w sprawach praktyk naruszających zbiorowe interesy konsumentów: nieuczciwe warunki w regulaminach, dyskryminujące modele cenowe, nietransparentne zasady usuwania kont.
  • Rzecznik Praw Obywatelskich – gdy problem dotyczy szerszych naruszeń praw i wolności obywatelskich przez systemy AI.
  • Sąd pracy, sąd cywilny, sąd administracyjny – ostateczne miejsce rozstrzygania sporów indywidualnych: przy bezprawnych zwolnieniach, dyskryminacji, szkodach wyrządzonych przez nielegalny monitoring czy zautomatyzowane blokady usług.

W wielu przypadkach dobrym pierwszym krokiem jest wezwanie do wyjaśnienia i sprostowania skierowane do firmy, a dopiero potem skarga do organu lub pozew. Ważne, by od początku zbierać dowody – o czym więcej w kolejnych fragmentach.

AI w miejscu pracy: monitoring, ocena, rekrutacja

Jak rozpoznać, że AI działa w twojej pracy

Nie zawsze dostajesz wprost informację, że w firmie działa system AI. Czasem widać to tylko po efektach: dziwne oceny, automatyczne komunikaty, brak jasnych kryteriów decyzji.

Sygnały, że w tle działa algorytm:

  • oceny okresowe generowane „z systemu”, bez realnej rozmowy z przełożonym,
  • nagłe zmiany grafików lub targetów, tłumaczone enigmatycznie „optymalizacją”,
  • systemy rejestrujące każde kliknięcie, ruch myszką, czas przy aplikacjach,
  • rekrutacja prowadzona wyłącznie przez formularze online, bez kontaktu z człowiekiem,
  • automatyczne ostrzeżenia dyscyplinarne, bazujące na logach z systemów.

Warto zanotować moment, w którym zaczynają pojawiać się takie zjawiska, oraz treść komunikatów od pracodawcy. To później ułatwia wykazanie, że decyzje były faktycznie algorytmiczne, a nie w pełni „ludzkie”.

Monitoring cyfrowy i „produktywność” liczona przez algorytm

Systemy monitoringu w pracy coraz częściej działają jak „czarne skrzynki”: rejestrują setki parametrów, tworzą wskaźniki produktywności i generują raporty dla menedżerów.

Typowe narzędzia:

  • programy do śledzenia aktywności na komputerze (czas w aplikacjach, odwiedzane strony, zrzuty ekranu),
  • sztuczna inteligencja oceniająca tempo pracy (np. liczba obsłużonych spraw, czas odpowiedzi),
  • analiza rozmów telefonicznych i wideo (tone of voice, słowa kluczowe),
  • systemy w magazynach i logistyce mierzące liczbę ruchów, błędy, „czas bezczynności”.

Granica między kontrolą a naruszeniem prywatności bywa tu łatwo przekraczana. Problem zaczyna się, gdy ocena pracy opiera się wyłącznie na wskaźnikach generowanych przez AI, bez uwzględnienia kontekstu (np. awarii systemu, problemów zdrowotnych, różnic w zadaniach).

Jeżeli masz wrażenie, że system „karze” cię za coś, na co nie masz wpływu, poproś o wyjaśnienie, jak liczony jest wynik. Masz prawo znać kryteria oceny swojej pracy i sposób ich stosowania.

AI w rekrutacji: automatyczne odrzucanie kandydatów

Coraz więcej firm korzysta z automatycznego sortowania CV, testów online ocenianych przez algorytmy czy „analizy wideo” rozmów kwalifikacyjnych.

Typowe praktyki:

  • wstępne odrzucanie CV na podstawie słów kluczowych lub historii zatrudnienia,
  • testy kompetencyjne oceniane w pełni automatycznie, bez wglądu rekrutera,
  • ocena „dopasowania kulturowego” na bazie wypełnionych ankiet,
  • systemy analizujące mimikę i głos w nagranych odpowiedziach wideo.

Tu szczególnie ważny jest art. 22 RODO i AI Act. Jeżeli podejrzewasz, że zostałeś odrzucony wyłącznie przez algorytm, możesz zażądać wyjaśnienia, czy decyzję podejmował człowiek, czy system, oraz jakie były główne kryteria.

W praktyce skuteczne bywają krótkie, rzeczowe maile: prośba o potwierdzenie, czy zastosowano zautomatyzowane podejmowanie decyzji, i prośba o wyjaśnienie podstaw odrzucenia. Sam fakt, że firma musi się wytłumaczyć, często prowadzi do bardziej ostrożnego używania AI.

Algorytmiczne oceny, premie i zwolnienia

W wielu firmach to „system” przydziela premie i bonusy, wyznacza cele sprzedażowe albo wskazuje „najgorszych performerów” do zwolnienia. Na końcu podpisuje się człowiek, ale realnie opiera się na rekomendacji algorytmu.

Ryzyka:

  • ocena na podstawie niepełnych danych (np. brak uwzględnienia pracy zespołowej),
  • dyskryminacja pośrednia – np. algorytm gorzej ocenia osoby, które częściej pracują zdalnie lub mają przerwy w karierze,
  • „spirala kar”: gorsza ocena algorytmiczna prowadzi do gorszych zleceń, a to z kolei obniża kolejne oceny.

Jeżeli decyzja o premii, awansie czy wypowiedzeniu jest uzasadniona enigmatycznie („wyniki systemu oceny efektywności”), możesz powołać się na prawo pracy i RODO jednocześnie. Masz prawo:

  • znać kryteria oceny i ich wagi,
  • uzyskać wgląd w dane, na podstawie których obliczono wynik,
  • zażądać oceny twojej sytuacji przez realnego przełożonego.

Dobrą praktyką jest zapisanie daty i treści rozmowy, w której dowiedziałeś się o takiej decyzji, oraz poproszenie o pisemne (mailowe) uzasadnienie. To bywa kluczowe w sądzie pracy.

Ciemny pokój z zakrzywionym monitorem wyświetlającym interfejs ChatGPT
Źródło: Pexels | Autor: Matheus Bertelli

Twoje prawa jako pracownika wobec algorytmów i monitoringu

Prawo do informacji o narzędziach nadzoru i AI

Pracodawca nie może „ukryć” systemu AI w regulaminie technicznym. Jeżeli dane są wykorzystywane do oceny pracy, rekrutacji, planowania grafików lub decyzji kadrowych, musisz zostać o tym poinformowany.

W praktyce masz prawo oczekiwać, że:

  • w regulaminie pracy lub polityce prywatności będzie opisany rodzaj monitoringu (w tym cyfrowego),
  • dowiesz się, jakie dane są zbierane (np. logi systemowe, lokalizacja, nagrania audio/wideo),
  • zostanie podany cel wykorzystania tych danych (bez ogólników typu „poprawa efektywności”).

Jeżeli tego brakuje, możesz zwrócić się do działu HR lub przełożonego z pisemnym pytaniem o podstawę prawną, zakres i cel monitoringu. Brak odpowiedzi lub odpowiedź wymijająca to sygnał, że sprawą może zainteresować się PIP lub UODO.

Prawo sprzeciwu i ograniczenia przetwarzania danych w pracy

RODO działa także w relacji pracownik–pracodawca, choć nie zawsze możesz skutecznie odmówić przetwarzania danych niezbędnych do pracy. Możesz jednak:

  • wynieść sprzeciw wobec profilowania opartego na „uzasadnionym interesie” pracodawcy,
  • żądać ograniczenia przetwarzania danych wykraczających poza to, co konieczne (np. dane biometryczne do wejścia, gdy wystarczy karta),
  • domagać się usunięcia danych zebranych nadmiarowo lub bez poinformowania.

Przykład: firma instaluje aplikację do śledzenia lokalizacji w telefonie służbowym, która działa 24/7, także po godzinach pracy. Można wówczas powołać się na naruszenie zasady minimalizacji danych, ochrony prywatności i dóbr osobistych oraz zażądać ograniczenia śledzenia do czasu pracy lub wyłączenia funkcji GPS.

Prawo do niepodlegania wyłącznie zautomatyzowanym decyzjom kadrowym

To jedno z najważniejszych narzędzi obrony. Jeśli kluczowa decyzja dotycząca twojego zatrudnienia (np. zwolnienie, nieprzedłużenie umowy, odmowa awansu) wynika wyłącznie z działania systemu AI, możesz:

  • zażądać interwencji człowieka – realnej, a nie „mechanicznego zatwierdzenia”,
  • poprosić o wyjaśnienie logiki decyzji, w granicach ochrony tajemnicy przedsiębiorstwa,
  • zakwestionować tę decyzję i przedstawić własne argumenty.

Jeśli pracodawca twierdzi, że „to system tak policzył i nic nie da się zrobić”, narusza zarówno RODO (art. 22), jak i podstawowe zasady prawa pracy. W takiej sytuacji warto rozważyć równoległe zgłoszenie sprawy do UODO i PIP.

Jak formułować żądania wobec pracodawcy

Nawet prosty, klarowny mail może mocno zmienić układ sił. Chodzi o to, by nie prosić „o przysługę”, tylko wykonywać swoje prawa.

Przykładowe elementy pisma:

  • wskazanie podstawy: że chodzi o dane osobowe, profilowanie, decyzję kadrową,
  • konkretne żądanie: „proszę o udzielenie informacji…”, „wnoszę sprzeciw wobec profilowania…”, „żądam ludzkiej weryfikacji decyzji…”,
  • powołanie się na RODO (art. 15, 21, 22) oraz kodeks pracy, bez rozpisywania się na kilka stron.

Ważne, by zachować kopię wysłanego pisma i odpowiedzi pracodawcy. Jeśli sprawa trafi do organu lub sądu, to często jedyny dowód, że próbowałeś rozwiązać problem polubownie.

Rola związków zawodowych i przedstawicieli pracowników

Przy wprowadzaniu nowych systemów monitoringu lub oceny pracy, pracodawca powinien konsultować się ze związkami zawodowymi lub – tam gdzie ich nie ma – z przedstawicielami pracowników.

To dobry moment, by:

  • żądać oceny skutków dla ochrony danych (DPIA) przy bardziej inwazyjnych systemach,
  • negocjować ograniczenia (np. brak monitoringu poza godzinami pracy, brak nagrywania dźwięku),
  • domagać się jasnych procedur odwoławczych od decyzji algorytmicznych.

Jeżeli w firmie działają związki, warto przekazać im informacje o problemach z AI i monitoringiem. Skargi zbiorowe i spory zbiorowe zwykle wywierają większą presję niż pojedyncze wnioski.

AI na platformach cyfrowych: moderacja treści, blokady kont, ranking

Jak działa algorytmiczna moderacja i gdzie dochodzi do nadużyć

Większość platform – społecznościowych, sprzedażowych, z treściami wideo – używa AI do filtrowania treści i kont. Część decyzji podejmowana jest w pełni automatycznie, reszta trafia do moderatorów jako „priorytetowe zgłoszenia”.

Typowe problemy:

  • masowe usuwanie treści za rzekome naruszenie regulaminu, bez jasnego wskazania, o który fragment chodzi,
  • blokady kont w wyniku pomyłek algorytmu (np. błędne oznaczenie jako spam, nagość, mowa nienawiści),
  • ograniczenie zasięgów („shadowban”) bez oficjalnej informacji.

DSA wymusza na dużych platformach większą przejrzystość takich działań. Powinieneś otrzymać powiadomienie o usunięciu treści, z podstawą i możliwością odwołania. Jeśli tak się nie dzieje, sama platforma narusza swoje obowiązki wobec użytkowników w UE.

Odwołania od decyzji moderacyjnych: co możesz egzekwować

Większość platform ma już formalne „centra odwołań”. Problem w tym, że odpowiedzi są często szablonowe. Można jednak wyegzekwować więcej, jeśli powołasz się na konkretne prawa.

Przy odwołaniu:

  • poproś o doprecyzowanie, jakie fragmenty treści naruszyły które postanowienia regulaminu,
  • wskaż, że jako użytkownik z UE oczekujesz jasnego uzasadnienia, zgodnego z obowiązkami przejrzystości (DSA i prawo konsumenckie),
  • zażądaj informacji, czy decyzja była w pełni zautomatyzowana, i czy podlega ludzkiej weryfikacji.

W przypadku kont zawodowych (np. konto sprzedawcy, twórcy) można też argumentować, że arbitralna, nieuzasadniona blokada stanowi praktykę naruszającą zbiorowe interesy konsumentów lub nieuczciwą praktykę rynkową. Tu potencjalnie wchodzi do gry UOKiK.

Rankingi, rekomendacje i „widoczność” treści

Algorytmy rekomendacji decydują, kto jest widoczny, a kto znika z pola widzenia odbiorców. Dotyczy to twórców, sprzedawców, freelancerów na platformach zleceń.

Możliwe nadużycia:

  • preferowanie własnych usług platformy (self-preferencing) kosztem niezależnych dostawców,
  • karanie za aktywność poza platformą (np. kierowanie klientów bezpośrednio),
  • zmiany w algorytmie bez uprzedzenia, radykalnie obniżające przychody konkretnych grup użytkowników.

DSA i prawo konkurencji w UE ograniczają dowolność takich praktyk, zwłaszcza wobec dużych platform. Masz prawo znać główne parametry rankingów (co wpływa na pozycję oferty, filmu, profilu) i oczekiwać, że zmiany nie będą działać w sposób dyskryminujący.

Jeżeli po zmianach algorytmu drastycznie spadają zasięgi tylko określonych kategorii treści czy sprzedawców, warto dokumentować daty, zrzuty ekranu, statystyki. To później podstawa do skargi zbiorowej lub interwencji regulatora.

Kontrola danych na platformach i sprzeciw wobec profilowania

AI na platformach karmi się danymi: historią kliknięć, polubień, zakupów, wiadomości. Jako użytkownik masz jednak narzędzia, by ograniczyć ten apetyt.

Możliwe działania:

  • sprawdzenie w ustawieniach konta, jak wygląda „profil zainteresowań” i usunięcie niechcianych kategorii,
  • wyłączenie personalizacji reklam (w granicach oferowanych przez platformę),
  • wniesienie sprzeciwu wobec profilowania opartego na „uzasadnionym interesie” – bezpośrednio do platformy, z powołaniem się na RODO,
  • żądanie kopii danych (prawo dostępu) i usunięcia części historii aktywności.

Jeżeli platforma ignoruje takie wnioski lub odmawia w sposób oczywiście nieuzasadniony, możesz skierować skargę do krajowego organu ochrony danych, wskazując, jak brak reakcji wpływa na twoją sytuację (np. niechciane reklamy wrażliwe, nieadekwatne rekomendacje, ryzyko dyskryminacji).

Monitor z ekranem powitalnym ChatGPT Plus na zielonym tle
Źródło: Pexels | Autor: Andrew Neel

Usługi internetowe i scoring: decyzje kredytowe, ubezpieczeniowe, blokady usług

Jak działa scoring i gdzie wchodzi AI

Systemy oceny wiarygodności klienta coraz częściej korzystają z modeli predykcyjnych. Łączą dane z różnych źródeł i tworzą „profil ryzyka”.

Źródła danych mogą obejmować:

  • tradycyjne bazy (BIK, KRD, BIG-i),
  • dane transakcyjne z konta,
  • zachowanie w aplikacji lub serwisie (czas reakcji, sposób wypełniania formularza),
  • dane z urządzenia (model telefonu, system operacyjny, lokalizacja przy składaniu wniosku).

Na tej podstawie system przydziela ci scoring, który wpływa na przyznanie lub odrzucenie kredytu, ubezpieczenia, abonamentu czy zakupy na raty. Kluczowe jest to, że coraz częściej człowiek jedynie „zatwierdza” wynik algorytmu.

Twoje prawa przy decyzjach kredytowych i finansowych

Przy odmowie kredytu lub innego produktu finansowego opartej na profilowaniu możesz domagać się szczegółów.

Masz prawo do:

  • informacji, czy decyzja była oparta na zautomatyzowanym przetwarzaniu danych (w tym profilowaniu),
  • wyjaśnienia głównych czynników, które wpłynęły na negatywną decyzję,
  • wniesienia sprzeciwu i zażądania „ludzkiej” ponownej oceny wniosku,
  • dostępu do danych, które zostały użyte przy ocenie (w tym danych zebranych od podmiotów trzecich),
  • sprostowania błędnych informacji (np. nieaktualne zaległości, pomyłki w raportach BIK).

Odmowa typu „nie możemy ujawnić szczegółów modelu scoringowego” nie zwalnia instytucji z obowiązku podania ogólnych przyczyn decyzji – np. zbyt wysoki poziom zadłużenia, brak historii kredytowej, zaległości w konkretnej bazie.

Jak reagować na automatyczną odmowę kredytu lub rat

Najpierw zbierz dokumenty. Zapisz datę wniosku, zrzuty ekranu, treść odmowy, regulamin i klauzule informacyjne.

Następnie w piśmie lub mailu do instytucji możesz zażądać:

  • potwierdzenia, czy decyzja była wyłącznie zautomatyzowana (RODO art. 22),
  • informacji o źródłach danych (jakie bazy, z jaką datą aktualizacji),
  • wyjaśnienia głównych przyczyn odmowy w zrozumiałej formie,
  • ponownej oceny wniosku z udziałem człowieka.

Krótki przykład: dostajesz odmowę zakupu telefonu na raty u operatora, mimo braku zaległości. W piśmie powołujesz się na RODO (art. 15 i 22), prosisz o wyjaśnienie logiki decyzji i wskazanie, czy doszło do pomyłki w bazach. Często po „ręcznej” weryfikacji decyzja jest zmieniana, jeśli okaże się, że masz błędny wpis w jednej z baz lub algorytm zbyt rygorystycznie potraktował brak historii kredytowej.

Scoring behawioralny w bankowości i fintechach

Banki i fintechy analizują nie tylko historię spłat, ale też sposób korzystania z usług. Z tych danych budują modele „ryzyka oszustwa” i „ryzyka kredytowego”.

Typowe elementy scoringu behawioralnego:

  • schematy logowania (lokalizacje, godziny, urządzenia),
  • typowe kwoty i odbiorcy przelewów,
  • szybkość wykonywania operacji w aplikacji,
  • reakcja na komunikaty bezpieczeństwa.

Na tej podstawie system może np. blokować transakcje, żądać dodatkowej weryfikacji, a w skrajnych przypadkach zamykać konto jako „wysokie ryzyko”. Jeśli takie decyzje stają się masowe, użytkownik traci kontrolę nad swoim dostępem do pieniędzy.

Co robić przy blokadzie konta lub transakcji „ze względów bezpieczeństwa”

Blokady antyfraudowe często opierają się na algorytmach. Mimo to instytucja musi zapewnić ci kanał kontaktu z człowiekiem.

Przy blokadzie konta lub większej kwoty:

  • zażądaj wskazania podstawy prawnej blokady (np. ustawa o przeciwdziałaniu praniu pieniędzy, regulamin banku),
  • poproś o możliwie konkretne wyjaśnienie charakteru podejrzeń (bez ujawniania „tajemnicy algorytmu”),
  • ustal, jakie dokumenty lub informacje są potrzebne do odblokowania środków,
  • poproś o termin, w którym instytucja zobowiązuje się do weryfikacji.

Jeśli blokada trwa długo, a komunikacja jest iluzoryczna, można skierować skargę do Rzecznika Finansowego, UOKiK lub – przy ewidentnym nadużyciu profilowania – do UODO. W piśmie warto podkreślić, że decyzje są w praktyce zautomatyzowane i nieprzejrzyste.

AI w ubezpieczeniach: taryfy, odmowy i podejrzenia wyłudzeń

Zakłady ubezpieczeń korzystają z AI do wyceny ryzyka, ustalania składek i wykrywania wyłudzeń. Systemy analizują m.in. historię szkód, dane pojazdu, miejsce zamieszkania, wzorce w zgłaszanych szkodach.

Możliwe problemy:

  • mocno zróżnicowane składki dla osób z podobnym profilem, bez jasnego uzasadnienia,
  • odmowa zawarcia umowy lub automatyczne narzucenie bardzo wysokiej składki,
  • odrzucenie roszczenia z powodu „podejrzenia wyłudzenia” ustalonego algorytmicznie.

Przy takich decyzjach możesz domagać się wyjaśnienia co najmniej głównych kryteriów. Ubezpieczyciel nie musi ujawniać całego modelu, ale nie może zasłaniać się wyłącznie „wewnętrznym scoringiem”, jeśli odmawia wypłaty lub umowy.

Jak kwestionować decyzje ubezpieczyciela oparte na algorytmie

W reklamacji warto jasno nazwać problem: decyzja została podjęta na podstawie zautomatyzowanego modelu oceny ryzyka lub wykrywania nadużyć.

W piśmie:

  • zażądaj informacji, czy decyzja była wyłącznie zautomatyzowana,
  • poproś o wskazanie kluczowych przyczyn odmowy lub wysokości składki,
  • domagaj się ponownego rozpatrzenia sprawy przez człowieka, z uwzględnieniem twoich wyjaśnień (np. zmian w sytuacji, sprostowania danych),
  • powołaj się na prawo do wyjaśnienia decyzji i sprzeciwu wobec profilowania (RODO), a przy sporze o wypłatę – także na przepisy o działalności ubezpieczeniowej.

Jeśli ubezpieczyciel musi wypłacić świadczenie po interwencji Rzecznika Finansowego lub sądu, to silny sygnał, że algorytm jest nadmiernie restrykcyjny lub źle skalibrowany. Takie przypadki często przyspieszają zmianę praktyk.

Platformy scoringowe i „alternatywny scoring kredytowy”

Oprócz klasycznych banków działają firmy, które budują „alternatywny scoring” – z social mediów, historii zakupów online, korzystania z aplikacji czy nawet stylu pisania we wnioskach.

Ryzyka są oczywiste:

  • ocena na podstawie nieadekwatnych danych (np. aktywność rozrywkowa w sieci),
  • tworzenie ukrytych profili ryzyka bez jasnej zgody,
  • udostępnianie scoringu innym podmiotom bez twojej wiedzy.

Jeżeli trafiasz na usługę, która chce oceniać twoją wiarygodność na podstawie danych z mediów społecznościowych, historii przeglądania czy aplikacji w telefonie, zwróć uwagę na podstawę prawną przetwarzania i zakres zgody. „Zgoda” wciśnięta w długi regulamin, bez realnego wyboru, jest wątpliwa z punktu widzenia RODO.

Jak ograniczać „głód danych” w procesach scoringu

Można stosować kilka prostych kroków, które realnie zmniejszają pole do nadużyć.

  • Nie udostępniaj aplikacjom finansowym pełnych uprawnień do telefonu, jeśli nie jest to technicznie konieczne (kontakty, SMS-y, pliki).
  • Przy usługach „open banking” przejrzyj dokładnie, jaki zakres danych z konta jest pobierany i na jak długo.
  • W razie wątpliwości domagaj się wersji usługi bez rozszerzonego profilowania – nawet jeśli oznacza to mniej „personalizowaną ofertę”.
  • Regularnie sprawdzaj, które aplikacje i serwisy mają dostęp do twoich danych bankowych lub płatniczych i cofaj nieużywane zgody.

Im mniej danych zbierze jedna firma, tym trudniej jej zbudować pełny, szczegółowy profil twojego życia finansowego, zakupowego i prywatnego.

Blockady usług cyfrowych: hosting, domeny, narzędzia w chmurze

Nie tylko banki i ubezpieczyciele korzystają z zautomatyzowanych systemów oceny ryzyka. Dostawcy hostingu, domen, chmury czy narzędzi SaaS też filtrują klientów za pomocą AI.

Przykłady sytuacji:

  • automatyczne zawieszenie strony z powodu „podejrzenia phishingu” po skanowaniu treści i linków,
  • blokada konta deweloperskiego z powodu rzekomego naruszenia zasad bezpieczeństwa,
  • odmowa świadczenia usługi z powołaniem na „automatyczne systemy wykrywania nadużyć”.

Takie blokady uderzają szczególnie w osoby i firmy, które opierają działalność na jednym dostawcy. Problemem jest brak jasnej informacji, co konkretnie narusza zasady i jak odblokować usługę.

Jak walczyć z arbitralną blokadą usługi internetowej

Podstawą jest formalne odwołanie – nie tylko kliknięcie w formularz, ale także mail lub pismo, które można potem załączyć do skargi.

W takim odwołaniu:

  • poproś o precyzyjne wskazanie, które treści lub działania naruszają regulamin,
  • zażądaj informacji, czy blokada była decyzją w pełni zautomatyzowaną,
  • domagaj się weryfikacji przez człowieka w określonym terminie,
  • w przypadku usług dla firm – wskaż konkretne szkody lub ryzyka (utrata klientów, uniemożliwienie realizacji umów),
  • powołaj się na przepisy konsumenckie i – przy dużych dostawcach – na DSA w zakresie przejrzystości i odwołań.

Jeśli dostawca uporczywie odmawia lub nie odpowiada, można rozważyć zawiadomienie UOKiK (praktyki naruszające zbiorowe interesy konsumentów) lub – gdy spór dotyczy danych – UODO. Dobrze udokumentowana historia korespondencji bywa tu kluczowa.

Łączenie ścieżek: kiedy angażować kilka organów naraz

Nadużycia AI przy usługach finansowych i cyfrowych często naruszają kilka reżimów prawnych równocześnie: ochronę danych, prawo konsumenckie, zasady działalności bankowej lub ubezpieczeniowej.

W praktyce oznacza to, że można:

  • złożyć skargę do UODO w zakresie profilowania i przejrzystości decyzji,
  • zgłosić sprawę do Rzecznika Finansowego (spory z bankami, ubezpieczycielami),
  • poinformować UOKiK o potencjalnie nieuczciwych praktykach rynkowych (np. masowe, niejasne odmowy lub blokady),
  • w najpoważniejszych przypadkach – rozważyć pozew cywilny o odszkodowanie lub zadośćuczynienie.

Nie trzeba wybierać jednej ścieżki. Dobrze opisany przypadek, udokumentowany mailami, zrzutami ekranu i odpowiedziami instytucji, zwiększa szanse na realną zmianę praktyk, a nie tylko jednostkowe „odblokowanie” twojego konta czy umowy.

Źródła

  • Regulation (EU) 2016/679 (General Data Protection Regulation). European Union (2016) – RODO: dane osobowe, profilowanie, zautomatyzowane decyzje, art. 15 i 22
  • Charter of Fundamental Rights of the European Union. European Union (2012) – Prawa podstawowe: prywatność, ochrona danych, niedyskryminacja w kontekście AI
  • Opinion 2/2017 on data processing at work. Article 29 Data Protection Working Party (2017) – Wytyczne dot. monitoringu pracowników, narzędzi HR i oceny efektywności
  • Guidelines on Automated individual decision-making and Profiling for the purposes of Regulation 2016/679. European Data Protection Board (2018) – Interpretacja art. 22 RODO, profilowanie, prawa osób, przykłady scoringu
  • Kodeks pracy. Sejm Rzeczypospolitej Polskiej – Polskie przepisy prawa pracy: monitoring, kontrola pracownika, obowiązki pracodawcy
  • Guidelines on the use of Artificial Intelligence and data in workplaces. Council of Europe (2021) – Zalecenia dot. stosowania AI w pracy, ryzyka dla praw pracowników
  • OECD Principles on Artificial Intelligence. Organisation for Economic Co-operation and Development (2019) – Międzynarodowe zasady odpowiedzialnego, przejrzystego i sprawiedliwego AI
  • Guidelines on Artificial Intelligence and Data Protection. Information Commissioner’s Office (2020) – Wytyczne dla organizacji: przejrzystość, wyjaśnialność, zautomatyzowane decyzje
  • Big data, artificial intelligence, machine learning and data protection. European Union Agency for Fundamental Rights (2020) – Analiza wpływu big data i AI na prawa podstawowe, w tym pracę i usługi finansowe

Poprzedni artykułCamera-on-chip: hardware implanta w obiektywie
Następny artykułRutyna pielęgnacji twarzy i brody dla mężczyzn początkujących krok po kroku
Jadwiga Zając
Specjalistka od edukacji cyfrowej, od lat prowadzi szkolenia z bezpiecznego korzystania z internetu dla rodzin, nauczycieli i seniorów. Na blogu koncentruje się na codziennych nawykach cyberhigieny: od ustawień prywatności w mediach społecznościowych po rozsądne korzystanie z poczty i komunikatorów. Zanim opisze zagrożenie, sprawdza je na własnych kontach testowych i konsultuje z ekspertami technicznymi. Jej celem jest tworzenie porad, które naprawdę da się wdrożyć w zabieganym życiu, bez specjalistycznej wiedzy.

1 KOMENTARZ

  1. Czytając ten artykuł, uświadomiłem sobie, jak wiele potencjalnych zagrożeń niesie za sobą rozwój sztucznej inteligencji w obszarze pracy i korzystania z internetu. Dowiedziałem się, jakie prawa przysługują mi jako użytkownikowi w przypadku nadużyć ze strony pracodawców, platform cyfrowych i dostawców usług internetowych. Warto być świadomym swoich praw i umieć skutecznie bronić się przed ewentualnymi nadużyciami AI, które mogą naruszać naszą prywatność i godność. Dziękuję autorom za rzetelne omówienie tego ważnego tematu.

Dostęp do komentarzy: po logowaniu.