W styczniu prokuratura podjęła śledztwo w sprawie wykorzystania wizerunku nieletniej dziewczynki z Mazowsza, której rówieśnicy stworzyli przy użyciu narzędzi sztucznej inteligencji fałszywe nagie zdjęcia. Wcześniej policja i prokuratura dwukrotnie odmawiały wszczęcia postępowania, uznając m.in., że nie doszło do przetwarzania danych osobowych ani do wyrządzenia krzywdy psychicznej. Decyzję tę podważył w interwencji do Prokuratora Generalnego Prezes Urzędu Ochrony Danych Osobowych. O granicach prawa w dobie deepfake’ów, odpowiedzialności państwa i realnych zagrożeniach związanych z AI rozmawiamy z prezesem UODO Mirosławem Wróblewskim.
PAP: Prokuratura ostatecznie wszczęła śledztwo w sprawie dziewczynki z Mazowsza. Dlaczego wcześniej organy ścigania odmawiały działania?
Mirosław Wróblewski: Zawiadomienia były trzy – od dyrekcji szkoły, od rodziców i ode mnie jako prezesa UODO. Wszystkie zostały rozpatrzone w ten sam sposób. Policja, a następnie prokuratura uznały, że nie doszło do krzywdy psychicznej dziecka oraz że nie doszło do przetwarzania danych osobowych. Te tezy budzą zasadnicze wątpliwości, bo nie przeprowadzono realnego postępowania przygotowawczego, które pozwalałoby takie wnioski wyciągnąć.
PAP: Prokuratura uznała m.in., że wykorzystane dane pochodziły ze źródeł powszechnie dostępnych i dlatego nie podlegają ochronie.
M.W.: To jest teza całkowicie nietrafna. Wizerunek osoby fizycznej – zwłaszcza dziecka – może być przetwarzany wyłącznie wtedy, gdy istnieje ku temu podstawa prawna, a w szczególności zgoda. W tej sprawie zgody nie było. Fakt, że zdjęcie twarzy mogło pochodzić z internetu, nie znosi ochrony prawnej.
PAP: Kolejny argument dotyczył tego, że tylko twarz była „prawdziwa”, a reszta ciała została wygenerowana przez AI.
M.W.: I właśnie na tym polega problem deepfake’ów i tzw. deep nude. Najczęściej wykorzystuje się realny wizerunek twarzy, a resztę obrazu generuje sztucznie. Twierdzenie, że w takiej sytuacji nie dochodzi do przetwarzania danych osobowych, jest niezrozumiałe. Dane osobowe to każda informacja pozwalająca zidentyfikować osobę – a twarz bez wątpienia taką informacją jest.
PAP: Czyli w pana ocenie obowiązujące przepisy pozwalały na podjęcie działań?
M.W.: Tak. Doszło do bezprawnego przetwarzania danych osobowych, co wyczerpuje znamiona przestępstwa z art. 107 ustawy o ochronie danych osobowych. Problem polega nie na braku przepisów, ale na ich niestosowaniu.
PAP: Skoro przepisy istnieją, to dlaczego w praktyce okazują się nieskuteczne?
M.W.: Bo organy ścigania często nie kwalifikują takich czynów jako przestępstw albo uznają je za „żarty”. Tymczasem skutki bywają dramatyczne. To zresztą dokładnie ten sam mechanizm, który obserwujemy przy deepfake’ach wykorzystywanych w reklamach.
PAP: Ma pan na myśli reklamy z udziałem znanych osób?
M.W.: Tak. Widzimy masowe kampanie reklamowe, w których bez zgody wykorzystywane są wizerunki i głosy znanych lekarzy, ekonomistów, duchownych czy dziennikarzy. Algorytm tworzy film, w którym dana osoba „poleca” inwestycję, lek albo usługę finansową. To jest bezprawne przetwarzanie danych osobowych i jednocześnie klasyczne oszustwo.
PAP: Platformy tłumaczą się, że tylko udostępniają przestrzeń reklamową.
M.W.: Ten argument przestaje być aktualny. Platformy zarabiają na tych reklamach, wzmacniają ich zasięg i precyzyjnie je targetują. Jeżeli algorytm promuje treść wykorzystującą skradziony wizerunek, to platforma współuczestniczy w przetwarzaniu danych. To nie jest neutralna tablica ogłoszeń.
PAP: Wspomniał pan o państwach, które już wprowadziły szczególne regulacje dotyczące deepfake’ów.
M.W.: We Francji, we Włoszech czy w USA przepisy wprost opisują znamiona czynu zabronionego – przekształcanie wizerunku przy użyciu algorytmów w sposób naruszający godność lub prawa osoby. Często przewidują szybkie procedury usuwania treści, np. w ciągu 48 godzin, oraz jasną odpowiedzialność karną. To bardzo ułatwia działanie organom ścigania.
PAP: Czy Polska powinna pójść tą drogą?
M.W.: Moim zdaniem tak, zwłaszcza w kontekście ochrony dzieci. Komisja sejmowa ds. dzieci i młodzieży już zgłaszała taki postulat. Chodzi o jasne wyznaczenie granic – nie tylko moralnych, ale prawnych. Skoro organy państwa mają trudności ze stosowaniem aktualnych przepisów, twierdząc, że do ścigania takich zjawisk się nie nadają, to konieczne jest stworzenie nowych precyzyjnych ram prawnych.
PAP: Deepfake’i to jedno, ale AI rodzi też inne zagrożenia dla danych osobowych.
M.W.: Jest ich bardzo wiele. Jednym z najpoważniejszych jest tzw. inferencja danych. System AI nie musi mieć bezpośredniego dostępu do informacji wrażliwej, by ją „odgadnąć”. Na podstawie lokalizacji, historii zakupów czy aktywności w sieci można wywnioskować stan zdrowia, przekonania polityczne czy sytuację finansową. Formalnie te dane nigdy nie zostały podane – ale system je rekonstruuje.
PAP: Czyli dane wrażliwe powstają wtórnie?
M.W.: Tak. I to ogromne wyzwanie dla prawa. Kolejne ryzyko to możliwość wydobywania danych treningowych z gotowych modeli – odpowiednio zadane pytania mogą ujawnić fragmenty rzeczywistych danych osobowych, na których system był trenowany, jeśli nie został właściwie zabezpieczony.
PAP: A co z bezpieczeństwem państwa? Ostatnio głośno było o zakazach wjazdu niektórych samochodów na tereny wojskowe.
M.W.: Nowoczesny samochód to dziś mobilny system informatyczny. Zbiera terabajty danych: geolokalizacyjnych, behawioralnych, dotyczących tras, stylu jazdy, częstotliwości postojów. Jeżeli taki pojazd porusza się po terenie jednostki wojskowej czy infrastruktury krytycznej, to staje się źródłem informacji wrażliwych. Nie chodzi o jednorazowe „szpiegowanie”, ale o budowanie długoterminowych profili i wzorców. Na tej podstawie można wyciągać wnioski o rytmie służby, strukturze jednostki czy nawykach kadry dowódczej. W świecie, w którym dane są zasobem strategicznym, takie ryzyko musi być brane pod uwagę.
PAP: Czy ochrona danych osobowych wciąż bywa traktowana jako biurokratyczna fanaberia?
M.W.: Niestety tak. Tymczasem dane osobowe mają bezpośredni związek z godnością człowieka, jego zdrowiem psychicznym i bezpieczeństwem. Badania pokazują, że aż 80 proc. Polaków wybiera tańszy produkt kosztem ochrony danych. To pokazuje skalę problemu świadomościowego.
PAP: Czy wobec rozwoju AI da się w ogóle skutecznie chronić obywateli?
M.W.: Nie da się wyeliminować wszystkich ryzyk, ale da się je znacząco ograniczać. Potrzebne są jasne reguły, skuteczna egzekucja prawa i odwaga w ich stosowaniu – także wobec największych platform.
PAP: Jakie jest pana najważniejsze przesłanie po sprawie z Mazowsza?
M.W.: Że sformułowanie „to tylko żart” nie może być usprawiedliwieniem dla krzywdzenia innych. Technologia się zmienia, ale podstawowe wartości – godność, prywatność, ochrona dzieci – pozostają niezmienne. Prawo musi za nimi nadążać, a państwo musi chcieć je stosować.
Rozmawiała: Mira Suchodolska (PAP)
mir/ mark/
Brak komentarza, Twój może być pierwszy.
Użytkowniku, pamiętaj, że w Internecie nie jesteś anonimowy. Ponosisz odpowiedzialność za treści zamieszczane na portalu wpu24.pl. Dodanie opinii jest równoznaczne z akceptacją Regulaminu portalu. Jeśli zauważyłeś, że któraś opinia łamie prawo lub dobry obyczaj - powiadom nas [email protected] lub użyj przycisku Zgłoś komentarz
Tarcza Wschód: realne wzmocnienie bezpieczeństw
wyslijcie oddziały specjalnej troski zRvchanych Osrajcow Granicy (ROG)
ROG
11:35, 2026-01-27
Pułtusk szuka ludzi do pracy
Kradną na skupach zboża na każdym na wadze i na próbach niech się ktoś za to w końcu weźmie UOKiK
Karol
08:54, 2026-01-27
Pułtusk szykuje walentynkowy hit
Opis wydarzenia bardzo zachęcający. Konkretnie i humorystycznie👍
👍
18:06, 2026-01-26
Pułtusk szykuje walentynkowy hit
Fajnie, a czy będzie przywrócony i wpisany w kalendarz imprez miasta festiwal imienia Krzysztofa Klenczona❓
Złoty Rydwan
14:24, 2026-01-26