Szukaj

LIFESTYLE Ktoś ukradł tożsamość znanego historyka. AI wkrótce zrobi to z każdym z nas…

Ktoś ukradł tożsamość znanego historyka. AI wkrótce zrobi to z każdym z nas…

CKM
19.10.2025
Kopiuj link

Głos Norberta Bączyka z podcastu ‘Wojenne Historie’ został sklonowany przez AI i wykorzystany bez jego zgody. Dowiedz się, jak działają takie oszustwa i co możesz zrobić, by się ochronić

pexels-cottonbro-6883795

AI kontra Wojenne Historie

Norbert Bączyk, współtwórca podcastu „Wojenne Historie”, którego kanał na YouTube ma ponad 275 000 subskrybentów i setki milionów wyświetleń, pewnego dnia odkrył coś, co wielu twórcom przyprawiłoby zimny dreszcz. Jego głos ‑ brzmienie, intonacja, styl narracji ‑ pojawił się na innym kanale. Nie dlatego, że zgodził się na współpracę. Nie dlatego, że postanowił dać komuś licencję. Został po prostu sklonowany i użyty bez jego wiedzy.
Nowy kanał nosi nazwę „Opowieści II wojny” i ma około 140–150 subskrybentów. W porównaniu z profilem twórców to liczba minimalna. Ale to, co tu się liczy, to nie liczba widzów, lecz sygnał. Sygnał, że technologia klonowania głosu staje się zagrożeniem – nie tylko dla celebrytów, ale dla każdego, kto mówi do mikrofonu. 

Jak to się mogło stać? Kilka sekund wystarczyło

Mechanizm jest przerażająco prosty. Wystarczyły nagrania głosu Bączyka, publicznie dostępne fragmenty podcastu, jego materiały wideo – by ktoś je zebrał, wgrał do narzędzia klonowania głosu opartego na sztucznej inteligencji (takiego jak ElevenLabs, Resemble AI, czy inne) i w krótkim czasie wygenerował syntetyczny głos niemal nie do odróżnienia od oryginału.
Eksperci ostrzegają, że wystarczą zaledwie trzy sekundy nagrania, by algorytm wygenerował wiarygodny klon. To pokazuje jak niska jest bariera wejścia.
I właśnie dlatego każdy twórca, podcaster, youtuber czy po prostu osoba publikująca nagrania głosowe online – nawet hobbystycznie – może być następna. Głos staje się „surowcem cyfrowym”.

 

Oszustwo zaprojektowane w detalu

Klonowanie głosu to jedno. Ale w tym przypadku posunięto się dalej. Sprawca nie tylko wygenerował głos ‑ skopiował również styl miniaturek, wygląd kanału i branding, by przyciągnąć widza i zmylić odbiorcę. Na kanale „Opowieści II wojny” w opisie filmu pojawiła się wzmianka, że „Treści zmodyfikowane lub wygenerowane syntetycznie. Dźwięki lub elementy wizualne zostały znacząco zmodyfikowane lub wygenerowane cyfrowo.” Ale ta informacja była schowana głęboko w opisie ‑ nie w tytule filmu, nie w nazwie kanału.
To oznacza, że widz może nie wiedzieć, że słucha czy ogląda syntetycznej narracji. Nawet fan Bączyka może nie być pewien, czy to autentyk, czy kopia.

Gdzie zaczyna się innowacja, a gdzie zaczyna się przestępstwo?

Norbert Bączyk nie ukrywa, że traktuje ten przypadek jako poważny precedens. Zgłosił sprawę do platformy YouTube i rozważa kroki prawne. „Takie czyny mają już znamiona przestępstwa, są objęte nie tylko Kodeksem Cywilnym, ale i Kodeksem Karnym.” ‑ mówił w rozmowie.


W polskim prawie podszywanie się pod czyjąś tożsamość, publikacja materiałów bez zgody mogą być karalne. Ponadto, w świetle RODO głos klasyfikowany jest jako wrażliwe dane osobowe, co oznacza, że jego wykorzystanie bez zgody może być naruszeniem przepisów.
W skali międzynarodowej trwają prace nad regulacjami sztucznej inteligencji ‑ w tym AI Act w Unii Europejskiej. Niektóre kraje jak Dania idą dalej, przyznając obywatelom prawa autorskie do własnego głosu i wizerunku.
Tyle, że prawo często działa wolniej niż technologia.

 

Co może zrobić twórca i zwykły użytkownik

Nie ma prostego rozwiązania, które da 100 % ochrony, ale istnieją konkretne kroki.

 

  • Ograniczenie publicznego dostępu do nagrań głosowych tam, gdzie to możliwe. Choć publikacja jest elementem działalności twórczej, warto być świadomym że każdy nagrany fragment może być narzędziem.
     
  • Znakowanie audio lub stosowanie technik, które utrudniają klonowanie – np. dodawanie „zakłóceń” lub zmian w tonie. Technologia znakowania wodnego dla audio jest w fazie rozwoju, ale to jeden z kierunków.
     
  • Edukacja odbiorców – informowanie widzów i słuchaczy, że materiały mogą być generowane przez AI; zachęcanie do krytycznego odbioru.
     
  • Weryfikacja tożsamości wrażliwych działań – w przypadkach wymagających np. potwierdzenia głosowego lepiej użyć dodatkowych metod (np. hasło, kod) niż polegać wyłącznie na głosie.
     
  • Zgłaszanie nadużyć – platformy jak YouTube mają mechanizmy raportowania, ale często działają powoli. Jak pokazuje przykład „Wojennych Historii”, reakcja może się opóźniać.

     

Dlaczego to może być jutro twój problem

Sprawa dotyczy znanego twórcy, ale w istocie dotyczy każdego, kto publikuje głos czy wizerunek w sieci. Technologia klonowania głosu jest coraz lepsza, dostępna i tania. To właśnie dlatego może nadejść moment, w którym poranny podcast, transmisja live, wystąpienie czy nagranie domowe zostaną wykorzystane w sposób niezamierzony.
Jeśli nic nie zmienimy ‑ jeśli systemy platform, prawo oraz nawyki użytkowników nie nadążą za rozwojem AI ‑ możemy znaleźć się w świecie, w którym „to nie ja mówiłem” stanie się częstym wyjaśnieniem. Historia „Wojennych Historii” to wyzwanie i ostrzeżenie jednocześnie.


 

Autor CKM
Źródło -
Data dodania 19.10.2025
Aktualizacja 20.10.2025
Kopiuj link
NEWSLETTER
Zapisując się na nasz newsletter akceptujesz Regulamin i Politykę prywatności
KOMENTARZE (0)

Wysyłając komentarz akceptujesz regulamin zamieszczania komentarzy w serwisie. Administratorem Twoich danych osobowych jest CKM.PL, który przetwarza je w celu realizacji umowy – regulaminu zamieszczania komentarzy (podstawa prawna: art. 6 ust. 1 lit. b RODO). Masz prawo dostępu do swoich danych, ich sprostowania, usunięcia lub ograniczenia przetwarzania – szczegóły i sposób realizacji tych praw znajdziesz w polityce prywatności. Serwis chroniony jest przez reCAPTCHA – obowiązuje Polityka prywatności Google i Warunki korzystania z usługi.