Deepfake a ochrona danych osobowych

Ostatnie lata przyniosły niesamowity rozwój algorytmów generatywnych, ale wraz z nimi pojawiły się zagrożenia, na które system prawny musi reagować natychmiast. Jednym z najbardziej drastycznych przykładów nadużyć jest wykorzystywanie sztucznej inteligencji do tworzenia tzw. deepfake’ów pornograficznych.

Sprawa nauczycielki, której wizerunek został przerobiony i opublikowany w sieci, stała się punktem zapalnym dla stanowczej reakcji Prezesa UODO. To czytelny sygnał, że anonimowość internetu nie daje bezkarności, a używanie narzędzi AI przeciwko innym osobom może bardzo szybko przestać być traktowane jako „zabawa” i stać się przedmiotem zainteresowania prokuratury.

Spis treści

Przełomowa interwencja UODO

W mediach społecznościowych doszło do incydentu, który wstrząsnął opinią publiczną. Pod postem nauczycielki nieznany sprawca umieścił jej zdjęcie przerobione w taki sposób, aby sprawiało wrażenie, że kobieta jest naga. Reakcja ofiary była jednoznaczna: „Czuję się paskudnie, czuję się skrzywdzona i nawet mówienie sobie, że przecież to nie było moje ciało, niewiele pomaga”.

Prezes UODO, Mirosław Wróblewski, nie pozostał obojętny. Złożył zawiadomienie do Prokuratury Rejonowej Warszawa-Śródmieście, wskazując na naruszenie przepisów karnych dotyczących ochrony danych osobowych. To nie jest jednostkowy przypadek – to element szerszej strategii organu, który coraz częściej staje w obronie ofiar technologicznej przemocy.

Odpowiedzialność karna za deepfake

Wiele osób błędnie zakłada, że tworzenie i publikowanie zmanipulowanych obrazów w internecie to jedynie „etyczny problem” lub wykroczenie o niskiej szkodliwości. Prawo mówi jednak co innego.

Zgodnie z art. 107 ust. 1 ustawy o ochronie danych osobowych:

Kto przetwarza dane osobowe, choć ich przetwarzanie nie jest dopuszczalne albo do ich przetwarzania nie jest uprawniony, podlega grzywnie, karze ograniczenia wolności albo pozbawienia wolności do lat dwóch.

W przypadku deepfake’ów sprawca przetwarza wizerunek (który jest daną osobową) bez żadnej podstawy prawnej. Nie ma zgody, nie ma uzasadnionego interesu, który pozwalałby na tak drastyczną ingerencję w prywatność. Co istotne, jest to przestępstwo powszechne, ścigane z urzędu. Oznacza to, że organy ścigania mają obowiązek działać, gdy tylko powezmą informację o takim czynie.

Deepfake a ochrona danych osobowych

Dlaczego to nie jest "tylko głupi żart"?

  • Brak zgody: Wykorzystanie ogólnodostępnego zdjęcia do stworzenia treści o charakterze seksualnym jest radykalnym złamaniem zasad legalności przetwarzania danych.
  • Szkoda społeczna: Takie działania godzą w elementarne interesy życiowe, niszczą reputację i zdrowie psychiczne ofiar.
  • Ryzyko wiktymizacji: Często reakcje internautów – zamiast wsparcia – niosą ze sobą dodatkowy hejt, co pogłębia traumę osoby pokrzywdzonej.

Czym jest NSII? Nowa kategoria nadużyć seksualnych

W literaturze przedmiotu zjawisko, z którym mierzy się obecnie także polski system prawny, określa się jako NSII, czyli non-consensual synthetic intimate imagery. Chodzi o syntetyczne treści intymne tworzone bez zgody osoby, której wizerunek został wykorzystany. Innymi słowy, są to materiały wygenerowane lub przerobione w taki sposób, aby przedstawiały daną osobę w kontekście seksualnym, mimo że nigdy nie wyraziła ona na to zgody i nie brała udziału w powstaniu takiej treści.

Z publikacji „Deepfakes i nadużycia na tle seksualnym – prawo wobec wyzwań syntetycznych mediów” autorstwa M. Łabuz, dr. hab. M. Małeckiego oraz adw. dr K. Manii z 2025 roku wynika, że skala tego zjawiska jest wyjątkowo niepokojąca. Autorzy wskazują, że NSII stanowi ponad 90% wszystkich deepfake’ów w formie wideo dostępnych w sieci. Jednocześnie zwracają uwagę, że w niemal 100% przypadków ofiarami takich materiałów są kobiety. To pokazuje, że nie mamy do czynienia z marginalnym problemem internetu, lecz z poważnym mechanizmem przemocy technologicznej, który prowadzi do uprzedmiotowienia kobiet i utrwalania szkodliwych stereotypów płciowych.

Definicja deepfake w świetle AI Act

Ponieważ w polskim prawie brakuje jeszcze konkretnej, „sztywnej” definicji deepfake’a, eksperci i organy takie jak UODO posiłkują się legislacją unijną. Kluczowy jest tutaj art. 3 pkt 60 Rozporządzenia o sztucznej inteligencji (AI Act).

Według tej definicji, deepfake to:

Wygenerowane przez AI lub zmanipulowane przez AI obrazy, treści dźwiękowe lub treści wideo, które przypominają istniejące osoby, przedmioty, miejsca, podmioty lub zdarzenia, które odbiorca mógłby niesłusznie uznać za autentyczne lub prawdziwe.

Działanie sprawcy w sprawie nauczycielki idealnie wpisuje się w tę definicję – wykorzystano autentyczny wizerunek, by stworzyć fałszywą, wysoce szkodliwą narrację.

UODO broni również dzieci

Warto przypomnieć, że interwencja w sprawie nauczycielki nie jest pierwszą tego typu akcją Prezesa UODO. Mirosław Wróblewski interweniował wcześniej u Prokuratora Generalnego w sprawie ucznicy szkoły podstawowej. Jej koledzy, korzystając z narzędzi AI, wygenerowali nagi obraz dziewczynki i rozpowszechniali go w grupie rówieśniczej.

To pokazuje, że problem deepfake’ów dotyka każdej grupy wiekowej i zawodowej. Szkoły, jako miejsca, gdzie wizerunek nauczycieli i uczniów jest często publicznie dostępny (np. na stronach www czy w mediach społecznościowych placówki), stają się niestety polem do takich nadużyć.

Jak chronić swój wizerunek i reagować na nadużycia?

Jeśli Ty lub ktoś z Twojego otoczenia padnie ofiarą manipulacji AI, pamiętaj o następujących krokach:

  1. Zabezpiecz dowody: Zrób zrzuty ekranu, zapisz adresy URL stron lub profili, na których opublikowano materiał.
  2. Zgłoś sprawę na policję: Deepfake z Twoim wizerunkiem, szczególnie o charakterze seksualnym, to przestępstwo.
  3. Zawiadom Prezesa UODO: Możesz złożyć skargę na naruszenie przepisów o ochronie danych osobowych.
  4. Skorzystaj z narzędzi platform: Większość mediów społecznościowych ma mechanizmy zgłaszania treści typu „non-consensual sexual content”.

Podsumowanie

Sprawa zawiadomienia prokuratury przez Prezesa UODO to jasny komunikat: internet nie jest strefą wyjętą spod prawa. Wykorzystanie AI do upokarzania innych poprzez tworzenie deepfake’ów jest przestępstwem, za które grozi do 2 lat więzienia. W dobie rosnącej popularności narzędzi syntetycznych, ochrona wizerunku staje się nie tylko kwestią prywatności, ale fundamentalnym prawem do godności i bezpieczeństwa.

Edukacja społeczna, znajomość przepisów takich jak art. 107 ustawy o ochronie danych osobowych oraz szybka reakcja organów państwowych to jedyne skuteczne metody walki z plagą NSII. Jako społeczeństwo musimy zrozumieć, że za każdą wygenerowaną „pikselową” grafiką stoi prawdziwy człowiek i jego realne cierpienie.

Michał Myśliwy

Michał Myśliwy

Prawnik

Prawnik i praktyk w obszarze ochrony danych osobowych oraz compliance. Od momentu wejścia w życie RODO aktywnie pełni funkcję Inspektora Ochrony Danych w spółkach akcyjnych i spółkach z ograniczoną odpowiedzialnością. Specjalizuje się w projektowaniu i wdrażaniu rozwiązań z zakresu ochrony danych i compliance, opartych na realnych procesach biznesowych, ryzykach oraz odpowiedzialności zarządczej.

Sprawdź naszą ofertę!

Masz pytanie?

O nas

Uważamy, że odpowiednio wdrożone RODO, może posłużyć jako narzędzie wpływające korzystnie na rozwój, postrzeganie oraz reputację firmy. Naszym celem jest zapewnienie prawidłowego przetwarzania, obiegu, archiwizowania oraz dostępu do danych zgodnie z aktualnymi wymogami.

Udostępnij ten post
Facebook
LinkedIn