Rysunek ołówkiem w niebieskim odcieniu przedstawiający młodą kobietę w kapturze stojącą na stacji metra z poważnym wyrazem twarzy. W tle ekran komputera pokazuje proces podmiany twarzy przez AI, z liniami symbolizującymi sztuczną inteligencję i cyfrową manipulację.

Deepfake nudes – jak chronić dzieci przed fałszywymi nagimi zdjęciami generowanymi przez AI?

Co to są deepfake nudes i jak powstają?

Deepfake nudes to realistyczne, ale fałszywe nagie zdjęcia stworzone przez narzędzia sztucznej inteligencji. Najczęściej wykorzystywane jest zwykłe zdjęcie twarzy dziecka, pobrane z medii społecznościowych. AI generuje na jego podstawie zdjęcie, które sprawia wrażenie autentycznego aktu.

Wystarczy kilka sekund i darmowe narzędzie z internetu, by stworzyć obraz, który może zniszczyć komuś życie. W sieci funkcjonują setki takich narzędzi:

  • aplikacje mobilne (np. typu face-swap),
  • generatory stronowe, działające bez logowania,
  • kanały YouTube reklamujące „rozbierające AI”,
  • fora i zamknięte grupy (np. Discord, Telegram).


Jak rozpoznać, że zdjęcie to deepfake?

Choć wiele deepfake’owych obrazów wygląda realistycznie, są elementy, które mogą wzbudzić podejrzenia:

  • zniekształcone dłonie: dwie lewe lub prawe, za mało palców, palce zginające się w złym kierunku;
  • rozmycia na granicy szyi i torsu;
  • nienaturalne proporcje ciała lub cieniowanie;
  • brak realistycznych szczegółów (biżuteria, pieprzyki, tatuaże);
  • nieruchome tło lub twarz przy wideo deepfake.

Warto jednak podkreślić: nie musisz mieć pewności, że obraz jest fałszywy, by zgłosić go jako szkodliwy. Sam fakt, że przedstawia osobę wyglądającą jak dziecko w sytuacji seksualnej, może wystarczyć.


Deepfake nudes a prawo karne

Tworzenie lub udostępnianie deepfake’owych obrazów dzieci w Polsce może naruszać kilka przepisów Kodeksu karnego:

  • Art. 202 §4a k.k. – rozpowszechnianie, posiadanie lub tworzenie pornografii dziecięcej (nawet deepfake).
  • Art. 191a k.k. – utrwalanie i udostępnianie nagiego wizerunku bez zgody.
  • Art. 190a k.k. – cyberstalking, w tym publikacja treści w celu upokorzenia.

🧰 Co jeśli twarz to dziecko, ale ciało już nie?

Polskie prawo nie wymaga, by całe ciało należało do osoby małoletniej. Jeśli obraz zawiera twarz dziecka umieszczoną na dorosłym ciele i jest seksualnie sugestywny, może być uznany za CSAM czyli materiały przedstawiające seksualne wykorzystywanie dzieci .

Decyduje:

  • realistyczność obrazu,
  • możliwość identyfikacji osoby jako dziecka,
  • intencja autora (np. upokorzenie, seksualizacja).

Czy dzieci mogą odpowiadać karnie?

  • Poniżej 13 lat – brak odpowiedzialności karnej.
  • 13–17 lat – podlegają ustawie o postępowaniu w sprawach nieletnich (kurator, ośrodek, zakaz kontaktu, prace społeczne).
  • Od 17 lat – pełna odpowiedzialność karna, tak jak osoba dorosła.

Co zrobić, gdy Twoje dziecko padnie ofiarą?

1. Zachowaj spokój i nie oceniaj

Dziecko nie musi być winne żadnemu zachowaniu, by padć ofiarą deepfake. Wspieraj, nie przesłuchuj.

2. Zabezpiecz materiał dowodowy

  • Zrzuty ekranu (z datami, nazwami profili lub grup),
  • linki do publikacji,
  • eksporty rozmów lub screeny czatów.

Nie edytuj plików – mogą być potrzebne jako dowody.

3. Zgłoś sprawę:

  • Policja – zgłoszenie przestępstwa (art. 202 k.k.).
  • Szkoła – powiadom wychowawcę, pedagoga, dyrekcję.
  • Dyżurnet.pl – zgłoszenia treści nielegalnych online (www.dyzurnet.pl).
  • Take It Down (NCMEC) – platforma usuwająca obrazy dzieci z sieci: https://takeitdown.ncmec.org.

Jak rozmawiać z dzieckiem o deepfake?

Nie strasz. Rozmawiaj. Poniżej przykładowe pytania, które mogą rozpocząć ważną rozmowę:

  • Czy słyszałeś, że komuś z klasy zrobiono fałszywe zdjęcia?
  • Co zrobiłbyś, gdyby takie zdjęcie trafiło do Ciebie?
  • Czy wiesz, że tworzenie deepfake może być przestępstwem?
  • Jak byś się czuł, gdyby to było Twoje zdjęcie?

Warto stworzyć dziecku bezpieczną przestrzeń, by wiedziało, że może do Ciebie przyjść z problemem.


W skrócie: co zapamiętać?

  • Deepfake nudes dzieci to przemoc i potencjalne przestępstwo.
  • Ich tworzenie i udostępnianie może skutkować odpowiedzialnością karną.
  • Warto reagować nawet bez pełnej pewności, że obraz jest sztuczny.
  • Zgłaszaj do: szkoły, policji, Dyżurnet.pl, Take It Down.
  • Rozmawiaj z dzieckiem – to najskuteczniejsza prewencja.

🚩 Potrzebujesz pomocy? Skontaktuj się z nami przez formularz: www.opsec4kids.pl/kontakt

👁️ Zgłoś incydent anonimowo: www.dyzurnet.pl

Bolesław Michalski
założyciel Opsec4Kids
Ekspert ds. edukacji cyfrowej dzieci i cyberbezpieczeństwa

Podobne wpisy

2 komentarze

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *