Deepfake – nowa technika naruszania starych praw. Incydenty z Grokiem na platformie X.

Początek 2026 roku na platformie X (dawniej: Twitter) miał być triumfalnym pokazem możliwości graficznych Groka – czyli wbudowanego w serwis modelu sztucznej inteligencji. Teoretycznie narzędzie to miało służyć kreatywnej zabawie, wizualnym eksperymentom i generowaniu obrazów na polecenie użytkowników. W praktyce stało się jednak czymś zupełnie innym.

❌ Okazało się bowiem, że Grok generuje obrazy erotyczne i pornograficzne z wykorzystaniem wizerunków realnych osób, głównie takich, które nigdy nie wyraziły na to zgody, ani nie miały pojęcia o tym, że ktoś ich wizerunki w taki sposób wykorzystuje i następnie, przerobione publikuje.

❌ Co gorsze, wśród wygenerowanych grafik erotycznych pojawiły się także wizerunki osób nieletnich.

❌ Grok tworzył nie tylko pojedyncze obrazy, ale również krótkie filmy przedstawiające znane postacie w intymnych sytuacjach.

Nie były to przypadki jednostkowe ani sporadyczne nadużycia. Jeszcze 3 stycznia 2026 r. portal X dosłownie kipiał deepfake’ami – wizerunkami realnych osób, zazwyczaj pozyskanymi bez ich wiedzy i zgody, sprowadzonych do erotycznych fantazji, często ograniczonych do „bezpiecznej” konwencji bikini, pozbawionych kontroli nad własnym wizerunkiem.

Skala i seksualny charakter zjawiska wywołały reakcję. Pojawiły się publikacje medialne, komentarze polityków oraz dyskusje wśród użytkowników platformy – od pełnych oburzenia głosów alarmowych po próby bagatelizowania problemu jako „zabawy”, „żartu” lub „konsekwencji obecności w internecie”, na powierzchnię wypłynęli także mizogini, przerzucający winę za deepfake na pokrzywdzone kobiety i dzieci.

Na uwagę i przemyślenie czytelników na pewno zasługuje wypowiedź lekarza psychiatry Mai Herman, która zwróciła uwagę na psychologiczne skutki deepfake’ów, szczególnie tych o charakterze seksualnym. Autorka nie tylko opisała je jako formę naruszenia godności i tożsamości, ale także próbowała uruchomić empatię sprawców, proponując im prosty eksperyment: podstawienie Grokowi własnego zdjęcia albo wizerunku najbliższej osoby, publikację przerobionych na erotyczny deepfake i następnie czytanie seksualnych komentarzy pod takimi deepfake’ami.

Odwołując się do badań naukowych wskazała, że ofiary deepfake’ów doświadczają lęku porównywalnego z napaścią seksualną, spadku zaufania do informacji oraz poważnych konsekwencji psychicznych, co szczególnie dotyczy kobiet i nieletnich. Wnioski są jednoznaczne: deepfake nie są niewinną zabawą ani znakomitym żartem, lecz realnym i poważnym zagrożeniem dla zdrowia psychicznego, poczucia bezpieczeństwa i własnej wartości.

W odpowiedzi na te głosy w przestrzeni X pojawił się jednak bunt. Obok apeli o natychmiastowe zakazy i nowe regulacje prawne zaczęła funkcjonować narracja bagatelizująca problem: deepfake jako „żart”, „śmieszkowanie Grokiem” albo efekt „dobrowolnej publikacji zdjęć w internecie”, z którym rzekomo każdy z nas powinien się liczyć.

Bardzo szybko pojawiły się też hasła doskonale znane z wcześniejszych debat technologicznych – czyli rzekoma „próżnia prawna”, która ma uniemożliwiać skuteczną ochronę ofiar, detrminując konieczność uchwalania nowych, dedykowanych danemu incydentowi przepisów: „lex Grok”.

Dlaczego zdjęcie opublikowane w sieci nie jest zgodą na wszystko.

Prawa autorskie.

Jednym z najczęściej powtarzanych argumentów w dyskusjach wywołanych nadużyciami Groka jest twierdzenie, że osoba, która „sama wrzuciła zdjęcie do internetu”, musi liczyć się z jego dalszym wykorzystaniem przez nieznane jej osoby – również w formie pornograficznych przeróbek generowanych przez AI.

„Bo sama jest sobie winna”.

W tej narracji dobrowolna publikacja wizerunku ma rzekomo oznaczać zgodę na wszelkie późniejsze działania osób trzecich. Jest to rażący błąd prawny i wyjątkowo szkodliwa dezinformacja, które niestety od lat funkcjonują w przestrzeni social-mediów i które w przypadku deepfake’ów przybierają szczególnie destrukcyjną dla ofiar formę.

Prawo nie zna zasady „kto publikuje, ten traci prawo do tego, co opublikował”.

Wręcz przeciwnie – ochrona wizerunku i danych osobowych nie wygasa wraz z ich upublicznieniem. Fakt, że fotografia została opublikowana na platformie społecznościowej, nie oznacza ani przeniesienia praw do wizerunku, ani zgody na jego dowolne przetwarzanie przez nieokreślony krąg osób, ani w końcu – co pomijają dosłownie wszyscy – nie kasuje ustawy o prawie autorskim i prawach pokrewnych.

Fotografia, o ile spełnia przesłanki utworu zdefiniowane w art. 1 ustawy, korzysta z ochrony od momentu jej wykonania.

Wyłącznie jej autorowi przysługuje wyłączne prawo do:

  • zwielokrotniania utworu,
  • jego modyfikowania i opracowywania,
  • rozpowszechniania w określony sposób,
  • oraz decydowania o integralności utworu.

Wykorzystanie cudzej fotografii jako bazy do generowania deepfake’a jest opracowaniem cudzego utworu, a to wymaga zgody uprawnionego. Brak takiej zgody oznacza naruszenie autorskich praw majątkowych, niezależnie od tego, czy deepfake przedstawia daną osobę „ładniej”, czy „brzydziej” od tego, jak wygląda ona w rzeczywistości.

Autorskie prawa osobiste, w tym prawo do nienaruszalności formy i treści utworu są niezbywalne. Deformowanie fotografii poprzez generowanie fałszywej nagości lub intymnych sytuacji może stanowić naruszenie integralności utworu, także wtedy, gdy osoba przedstawiona na zdjęciu nie jest jego autorem.

Sprawca naruszeń musi więc się liczyć z odpowiedzialnością finansową ⬇️

W praktyce, w przypadku generowania deepfake’ów z uzyciem cudzych fotografii, dochodzi do kumulacji naruszeń: prawa autorskiego, prawa cywilnego, prawa karnego oraz ochrony danych osobowych.

Odpowiedzialność karna za naruszenie praw autorskich uregulowana jest w Rozdziale 14 ustawy o prawie autorskim i prawach pokrewnych, poniższy screen obejmuje tylko kilka przepisów ⬇️


„Sama się wystawiła” – narracja, która przerzuca winę na ofiarę. Wtórna wiktymizacja.

Argument dobrowolnej publikacji pełni w praktyce jeszcze jedną funkcję: przerzuca odpowiedzialność z naruszającego na osobę poszkodowaną. To klasyczny mechanizm wtórnej wiktymizacji, dobrze znany zarówno prawu, jak i psychologii. W przypadku deepfake’ów narracja ta prowadzi do szczególnie niebezpiecznego wniosku, że ofiara „powinna była przewidzieć”, iż jej wizerunek zostanie przetworzony na kontekst seksualny przez obcych ludzi, będzie repostowany po platformach społecznościowych, a następnie zostanie setki razy wulgarnie skomentowany.

Przepisy takiego rozumowania nie akceptują.

Publikacja wizerunku nie jest zrzeczeniem się godności, prywatności ani prawa do ochrony przed przemocą – również tą cyfrową.

Fakt publikacji własnego wizerunku nie stanowi też zgody na przetwarzanie danych osobowych.


„Trolla najlepiej wyśmiać albo zignorować”

Prawo nie przewiduje „ignorowania” jako środka ochrony dóbr osobistych.

Naruszenie nie przestaje być naruszeniem dlatego, że ktoś decyduje się nie reagować. Co więcej, w środowisku platformowym brak reakcji pokrzywdzonego zaczyna być komentowany, co często prowadzi do eskalacji – algorytmy promują bowiem treści wywołujące zaangażowanie, a deepfake’i o charakterze seksualnym należą do najbardziej wiralowych.

Psychologicznie zacytowany argument ignoruje fakt, że deepfake, zwłaszcza intymny, nie jest jednorazowym „żartem”, lecz trwałym śladem cyfrowym. Ofiara traci kontrolę nad własnym wizerunkiem, nie wie, gdzie materiał trafi, kto go zapisze, przerobi lub rozpowszechni dalej, ile osób wulgarnie go skomentuje i zrepostuje. To doświadczenie bywa porównywane do utraty kontroli nad własnym ciałem, nawet jeśli naruszenie ma charakter wyłącznie cyfrowy.


„Przecież to tylko zabawa Grokiem”


Przepisy nie przewidują „zabawy”, jako okoliczności wyłączającej bezprawność czynu.

Jeżeli działanie prowadzi do naruszenia prawnie chronionych dóbr osobistych – to jest bezprawne niezależnie od tego, czy sprawca uznaje je za żart stulecia.


„Wygląda lepiej niż w rzeczywistości, więc to komplement”

Powyższy cytat ujawnia uprzedmiotowienie osoby, której wizerunek został wykorzystany w generowaniu deepfake’a. Sprowadza człowieka do obiektu oceny erotyczno-estetycznej, całkowicie ignorując fakt, że nie chodzi o „atrakcyjność”, o którą pokrzywdzona osoba przecież sprawcy nie prosiła – lecz o odebranie jej kontroli nad własnym wizerunkiem.

Prawo chroni dane osobowe w postaci wizerunku nie dlatego, że ktoś wygląda „ładnie” lub „brzydko”, lecz dlatego, że wizerunek jest elementem tożsamości człowieka.

Fałszywe przypisanie komuś nagości, dezinformacja w postaci zarzucania lub sugerowania seksualnych zachowań albo cech fizycznych, których dana osoba nie posiada, stanowi ingerencję w tę tożsamość – niezależnie od subiektywnej oceny sprawcy i odbiorców.


Wolność słowa ma granice – i są one znane

W dyskusjach wokół incydentów z użyciem Groka często pojawia się retoryka „wolności słowa”, wzmacniana publicznymi wypowiedziami właściciela platformy, Elona Muska.

Problem w tym, że zarówno prawo unijne, jak i krajowe, od dawna jasno i precyzyjnie określają granice tej wolności. Nie obejmuje ona:

  • naruszania cudzej godności,
  • tworzenia treści o charakterze seksualnym bez zgody,
  • ani generowania i rozpowszechniania materiałów z udziałem nieletnich – niezależnie od tego, czy są „prawdziwe”, czy wygenerowane.


Wspólny mianownik: normalizacja przemocy cyfrowej

Argumenty „śmieszków” bagatelizujących efekty wykorzystania Groka do masowej produkcji treści erotycznych i pornograficznych z użyciem wizerunków realnych osób łączy jedno: konsekwentne odmawianie uznania deepfake’a za realne naruszenie praw i dóbr osobistych człowieka. To mechanizm obronny, który pozwala sprawcom i obserwatorom zdystansować się od odpowiedzialności i „rozmydlić” wagę naruszenia. Jednak i prawo i psychologia są w tej kwestii zgodne: szkoda nie przestaje istnieć dlatego, że została wyrządzona przez algorytm sztucznej inteligencji.

Deepfake’i o charakterze intymnym nie są „nową formą stand-up’u”.

Są nową techniką zadawania starych krzywd.


Licencja dla platformy nie jest zgodą na przetwarzanie danych osobowych przez innych użytkowników

Zgodnie z regulaminami platform społecznościowych – publikując zdjęcie na X lub Meta, użytkownik udziela platformie niewyłącznej licencji na wyświetlanie, przechowywanie i techniczną dystrybucję treści w ramach działania serwisu. Jest to relacja umowna pomiędzy użytkownikiem a operatorem platformy. Licencja ta nie obejmuje zgody na pobieranie zdjęcia przez innych użytkowników, jego modyfikowanie, ani wykorzystywanie do tworzenia treści naruszających dobra osobiste autora lub osoby przedstawionej na fotografii.

W szczególności nie istnieje żadna domniemana zgoda na wykorzystanie wizerunku do generowania deepfake’ów – zwłaszcza takich, które seksualizują, uprzedmiotawiają lub fałszywie przedstawiają daną osobę. Każde takie użycie wymagałoby odrębnej, wyraźnej i świadomej zgody i to udzielonej nie tylko platformie – ale także każdemu nie będącemu pracownikiem platformy autora prompta, na podstawie którego Grok wygeneruje film bądź grafikę. Brak takiej zgody przesądza o bezprawności działania.

Argumentem obronnym sprawców naruszeń i ich zwolenników bywa również odwoływanie się do regulaminów platform społecznościowych, które rzekomo „zezwalają” na szerokie wykorzystanie treści. Taka argumentacja pomija fundamentalną zasadę: regulamin prywatnej platformy nie może uchylać ani ograniczać obowiązywania prawa krajowego i unijnego.

Platformy świadczące usługi na terytorium Unii Europejskiej są zobowiązane do przestrzegania przepisów chroniących dobra osobiste, dane osobowe i godność użytkowników – niezależnie od tego, gdzie mają siedzibę. Żaden zapis regulaminu nie legalizuje naruszenia wizerunku ani nie zwalnia użytkownika lub platformy z odpowiedzialności.


Mit „próżni prawnej” – dlaczego nie potrzebujemy nowych ustaw, aby walczyć z deep-fake’ami?

Jedną z najczęściej powtarzanych dezinformacyjną tezą jest twierdzenie, że mamy do czynienia z „luką prawną”, a ochrona ofiar deepfake’ów wymaga pilnego uchwalenia nowych, wyspecjalizowanych przepisów chroniących wizerunek w erze sztucznej inteligencji. Czyli „Lex Groka”. Wpisy wzywające do „uregulowania tej kwestii”, „zakazu deepfake’ów” czy stworzenia odrębnej ustawy pojawiają się masowo – zarówno w emocjonalnych reakcjach użytkowników, jak i w komentarzach osób publicznych.

Taka diagnoza potrzeb legislacyjnych, choć zrozumiała na poziomie społecznym, jest błędna na poziomie prawnym. Polski porządek prawny dysponuje przepisami, które pozwalają reagować na opisane naruszenia. Problemem nie jest brak norm, lecz ich skuteczne zastosowanie w środowisku platform cyfrowych, gdzie skala, anonimowość i tempo rozpowszechniania treści znacznie utrudniają egzekucję prawa.

Natomiast kwestia wdrożenia DSA aktualnie leży w rękach prezydenta Polski:

KLIK

O ochronie prawnej wynikającej z ustawy o prawie autorskim i prawach pokrewnych niniejszy artykuł omówił wyżej. W dalszej jego części zostaną omówione pozostałe reżimy odpowiedzialności — na gruncie kodeksu cywilnego, karnego oraz przepisów o ochronie danych osobowych, a także rola DSA jako narzędzia pozwalającego przeciwdziałać dezinformacji i naruszeniom systemowo, na poziomie administracyjnym, a nie wyłącznie poprzez indywidualne postępowania inicjowane przez osoby pokrzywdzone przed sądami lub Prezesem UODO. ⬇️


Wizerunek jako dobro osobiste

Kodeks cywilny

Zgodnie z art. 23 i 24 k.c. wizerunek stanowi dobro osobiste podlegające ochronie niezależnie od formy jego naruszenia. Deepfake – zwłaszcza polegający na „rozebraniu” realnej osoby lub umieszczeniu jej w kontekście seksualnym – nie jest neutralną modyfikacją obrazu, lecz ingerencją w tożsamość osoby, prowadzącą do jej uprzedmiotowienia, ośmieszenia lub naruszenia godności.

Istotne jest to, że prawo cywilne nie wymaga, aby naruszenie miało charakter „realny” w sensie fizycznym. Wystarczy bezprawne stworzenie i rozpowszechnienie wizerunku w formie, która narusza sferę osobistą jednostki. Ofierze przysługuje roszczenie o zaniechanie, usunięcie skutków naruszenia (w tym przeprosiny) oraz zadośćuczynienie pieniężne. Nie jest do tego potrzebna żadna nowa definicja deepfake’a, żaden „lex Grok”, czy osobna „ustawa o AI”.


Wizerunek jako dane osobowe

RODOUodo

Wizerunek osoby fizycznej – także w formie wygenerowanej lub przetworzonej przez system AI są to dane osobowe w rozumieniu RODO. Jego przetwarzanie wymaga istnienia podstawy prawnej, a w przypadku treści o charakterze intymnym lub seksualnym najczęściej jedyną dopuszczalną podstawą byłaby wyraźna zgoda osoby, której dane dotyczą.

Generowanie deepfake’ów z cudzym wizerunkiem, bez wiedzy i zgody tej osoby, stanowi przetwarzanie danych osobowych w sposób nieuprawniony. Polska ustawa o ochronie danych osobowych (Uodo) przewiduje w art. 107 odpowiedzialność karną za takie działania – włącznie z karą grzywny, ograniczenia wolności albo pozbawienia wolności do lat dwóch.

Generowanie deepfake’ów z cudzym wizerunkiem, bez wiedzy i zgody tej osoby, stanowi nieuprawnione przetwarzanie danych osobowych. Dotyczy to zarówno:

  • tworzenia obrazu lub filmu,
  • jego zapisywania,
  • jak i dalszego udostępniania lub publikacji.

Dla ofiar deepfake’ów istotna jest również droga administracyjna. Każda osoba, której wizerunek został wykorzystany bezprawnie, może:

  • złożyć skargę do Prezesa UODO,
  • domagać się zbadania nielegalnego przetwarzania danych,
  • wskazać zarówno sprawcę, jak i platformę, która umożliwiła przetwarzanie danych w sposób sprzeczny z prawem.

Postępowanie przed UODO może zakończyć się:

  • nakazem zaprzestania przetwarzania,
  • nakazem usunięcia danych,
  • a w określonych przypadkach – administracyjną karą pieniężną nakładaną na podmiot odpowiedzialny za naruszenie.

Odpowiedzialność administracyjna nie wyklucza równoległej odpowiedzialności cywilnej i karnej. Pokrzywdzeni nie muszą wybierać procedury, z której zechcą skorzystać w celu zablokowania naruszeń i pociągnięcia do odpowiedzialności ich sprawców – mogą korzystać ze wszystkich prawnych możliwości.


Kodeks karny

art. 191 a § 1

Także prawo karne zawiera przepisy, które mogą znaleźć zastosowanie w przypadku deepfake’ów.

Art. 191a § 1 k.k. stanowi:

„Kto utrwala wizerunek nagiej osoby lub osoby w trakcie czynności seksualnej, używając w tym celu wobec niej przemocy, groźby bezprawnej lub podstępu, albo wizerunek nagiej osoby lub osoby w trakcie czynności seksualnej bez jej zgody rozpowszechnia, podlega karze pozbawienia wolności od 3 miesięcy do lat 5.”

Wytworzenie i rozpowszechnienie nagiego deepfake’a mającego na celu ośmieszenie, seksualizację lub naruszenie reputacji konkretnej osoby spełnia znamiona tego czynu.

Cytowany przepis bowiem chroni intymność cielesną i seksualną osoby, a nie „autentyczność materiału”:

  • przepis nie wymaga, aby wizerunek był prawdziwy,
  • nie wymaga, aby osoba faktycznie była naga lub brała udział w czynności seksualnej,
  • nie wymaga, aby doszło do fizycznego kontaktu.

Chronione jest dobro osobiste w postaci prawa do decydowania, czy i w jakim kontekście wizerunek intymny danej osoby w ogóle istnieje w przestrzeni publicznej.

W orzecznictwie i doktrynie:

  • „utrwalanie” oznacza każde techniczne wytworzenie zapisu obrazu (cyfrowego również),
  • „rozpowszechnianie” to każde udostępnienie osobom trzecim – także w internecie, także w komentarzu, również „dla żartu”.

Prawo karne nie zna kategorii „żartu”, „zabawy” ani „śmieszkowania” jako okoliczności wyłączających odpowiedzialność karną. „Kawał” nie jest kontratypem. Liczy się skutek w sferze dóbr osobistych pokrzywdzonego oraz zachowanie sprawcy.


Problem wyegzekwowania norm prawnych

Masowe apele o „uregulowanie deepfake’ów” nie wynikają z faktycznej próżni prawnej, lecz z poczucia bezradności wobec platform cyfrowych, które przez lata funkcjonowały poza realną odpowiedzialnością. To właśnie ta bezradność i poczucie bezsilności wobec „big-techów” rodzi błędne przekonanie, że jedynym rozwiązaniem jest „napisanie nowych ustaw”.

W rzeczywistości jednak, jak już wskazano w artykule, takie przepisy istnieją. Wyzwaniem nie jest jego tworzenie, lecz skuteczne egzekwowanie – zarówno wobec anonimowych użytkowników, jak i wobec platform, które dostarczają narzędzi umożliwiających masowe naruszenia. I to właśnie w tym obszarze zaczyna się rola unijnych regulacji dotyczących usług cyfrowych, a nie w tworzeniu kolejnej, symbolicznej „ustawy o deepfake’ach”.

Tworzenie osobnej kategorii prawnej „deepfake” grozi błędem systemowym: przesunięciem uwagi z naruszenia prawa człowieka na narzędzie techniczne. Tymczasem problemem nie jest sam deepfake, lecz fakt, że służy on do naruszania godności, prywatności i tożsamości realnych osób. Te dobra osobiste są już chronione – i powinny pozostać chronione niezależnie od tego, czy naruszenie następuje przy użyciu Photoshopa, Groka czy kolejnego, jeszcze nienazwanego modelu AI.


Grok jako narzędzie wbudowane – odpowiedzialność platformy X i wdrożenie DSA

Dyskusja o deepfake’ach koncentruje się na indywidualnych sprawcach: użytkownikach, którzy wydają polecenia, publikują wygenerowane obrazy, repostują je i komentują.

W przypadku Groka na X taka perspektywa okazuje się jednak niewystarczająca. Mamy bowiem do czynienia nie z zewnętrzną aplikacją ani narzędziem używanym poza platformą, lecz z funkcją wbudowaną, dostarczaną i promowaną bezpośrednio przez operatora serwisu.

Grok jest integralnym elementem „ekosystemu” platformy X. Użytkownik nie musi instalować dodatkowego oprogramowania, eksportować danych ani korzystać z zewnętrznych serwisów. Wystarczy oznaczyć narzędzie w poście lub komentarzu, aby wygenerować i natychmiast opublikować treść – często bez jakiejkolwiek wstępnej moderacji.

W praktyce oznacza to, że platforma:

  • aktywnie dostarcza narzędzie,
  • umożliwia jego użycie w czasie rzeczywistym,
  • czerpie korzyści z zaangażowania generowanego przez treści,
  • oraz kontroluje architekturę systemu, w tym zabezpieczenia i filtry.

Nie jest to więc neutralny „pośrednik”, lecz podmiot, który współtworzy warunki naruszeń.

Deepfake’i seksualne, w tym z udziałem nieletnich, są jednym z najlepiej znanych i najczęściej opisywanych zagrożeń związanych z generatywną AI. Brak skutecznych zabezpieczeń Groka nie był więc „wypadkiem”, lecz decyzją projektową.


Digital Services Act

(DSA)

DSA zrywa z dotychczasową fikcją pełnej neutralności platform i wprowadza pojęcie ryzyk systemowych, za które odpowiada dostawca usługi, a nie wyłącznie użytkownik końcowy.

Do takich ryzyk należą m.in.:

  • rozpowszechnianie treści nielegalnych,
  • naruszenia praw podstawowych, w tym godności i prywatności,
  • zagrożenia dla małoletnich,
  • oraz systemowe ułatwianie przemocy cyfrowej.

Duże platformy, do których należy X, mają obowiązek:

  • identyfikować takie ryzyka,
  • wdrażać środki zapobiegawcze,
  • reagować szybko i skutecznie,
  • oraz wykazywać, że podjęte środki są realne, a nie jedynie deklaratywne.

W tym kontekście argument, że „żaden system nie jest w 100% skuteczny”, nie ma znaczenia prawnego. DSA nie wymaga doskonałości, lecz należytej staranności proporcjonalnej do skali zagrożenia.

DSA oraz uzupełniający go AI Act nie wprowadzają cenzury. Wprowadzają odpowiedzialność za architekturę systemów, które umożliwiają masowe naruszenia praw człowieka przy minimalnym koszcie i niemal zerowym ryzyku po stronie sprawców.

Odpowiedzialność platformy jako warunek realnej ochrony

Przypadek Groka pokazuje jasno, że skupienie się wyłącznie na pojedynczych użytkownikach prowadzi donikąd. Skala i szybkość naruszeń nie wynikają z indywidualnej złośliwości, lecz z projektu technologicznego, który pozwala na ich automatyzację i viralowe rozprzestrzenianie.

Dlatego realna ochrona ofiar deepfake’ów nie zaczyna się od nowych zakazów, lecz od:

  • wymuszenia skutecznych zabezpieczeń,
  • realnej moderacji narzędzi generatywnych,
  • oraz egzekwowania odpowiedzialności od podmiotów, które te narzędzia wdrażają i monetyzują.

Podsumowując:


Spór nie dotyczy tego, czy sztuczna inteligencja „może” tworzyć obrazy (bo może, czego dowodem grafika wyrózniająca niniejszy artykuł), tylko tego, czy państwo, regulatorzy i platformy będą w stanie postawić granicę: tożsamość i intymność człowieka nie są zasobem wspólnym internetu.

AI nie tworzy nowej krzywdy, nowego rodzaju szkód, czy nowych dóbr i praw człowieka, które narusza deepfake’ami – jest jedynie narzędziem umożliwiającym masową produkcję owych deepfake’ów.

Dlatego tak istotne jest konsekwentne stosowanie już istniejących instrumentów: ochrony dóbr osobistych, RODO, odpowiedzialności karnej oraz mechanizmów wymuszających należytą staranność platform w ramach DSA.

Dlaczego likwidacja anonimowości w sieci nie jest rozwiązaniem problemu dezinformacji?

NRA uruchamia program wsparcia prawnego dla osób poszkodowanych przez LEXSPACE. Fact checking platformy.

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *