Deepfake – czy sztuczna inteligencja mnie oszukuje?

Powered by

Deepfake, czyli technologia produkowania fałszywych postaci oraz obrazów i filmów wykorzystująca sztuczną inteligencję, dotyczy coraz większego obszaru naszej obecności w sieci. Jest też coraz doskonalsza i bardzo trudna do wykrycia. Przyglądamy się technologii, która zagarnia social media, tworzy farmy trolli, podszywa się pod aktorów i celebrytów, a także… nas samych.

Czym jest deepfake?

Deepfake to technika obróbki obrazu, korzystająca z rozwiązań sztucznej inteligencji (AI), która łączy i nakłada obrazy ruchome i nieruchome na obrazy lub filmy źródłowe. Sam termin powstał z połączenia dwóch słów: „deep”, odnoszącego się do „deep learning” – systemów głębokiego uczenia maszynowego, oraz „fake” oznaczającego kłamstwo, fałsz.

W przypadku deepfake, algorytmy deep learning, które uczą się jak rozwiązywać problemy, gdy otrzymują duże zestawy danych, są wykorzystywane do zamiany twarzy w treściach wideo i cyfrowych w celu stworzenia realistycznie wyglądających fake’owych materiałów. Sfabrykowany obraz powstaje na podstawie prawdziwych próbek głosu, filmów i zdjęć.

Istnieje kilka metod tworzenia deepfake’ów, ale najczęstsza opiera się na wykorzystaniu głębokich sieci neuronowych z wykorzystaniem autokoderów, które wykorzystują technikę zamiany twarzy. Najpierw potrzebujesz docelowego filmu wideo, który będzie podstawą deepfake, a następnie kolekcji klipów wideo osoby, którą chcesz wstawić do docelowego filmiku. Korzystając z tej techniki, można stworzyć materiał video łudząco przypominający autentyczne nagranie. Co więcej, „podrabiacze” mają coraz lepsze metody oszukiwania programów wykrywających deepfake – np. technika Generative Adversarial Networks (GAN) wykrywa i poprawia wszelkie wady w fejkowych materiałach, co utrudnia ich dekodowanie.

Deepfake, czyli sztuka manipulacji

Filmy deepfake rozpowszechniają nieprawdziwe informacje, sieją dezinformację, manipulują opinią publiczną, wzniecają skrajne emocje. A ponieważ są coraz bardziej autentyczne i wyłapanie ich jako „fake” robi się coraz trudniejsze, ich rola dezinformacyjna jest przepotężna.

Tworzenie deepfake’ów robi się coraz łatwiejsze za sprawą kilku aplikacji i oprogramowania ułatwiającego ich generowanie, jak np. chińska aplikacja Zao, DeepFace Lab, FaceApp (która jest aplikacją do edycji zdjęć z wbudowanymi technikami sztucznej inteligencji), Face Swap i niedawno usunięta aplikacja DeepNude, która generowała fałszywe nagie zdjęcia kobiet.

Deepfake kojarzy nam się głównie ze zmanipulowanymi wideoklipami znanych polityków i liderów, jednak aktualnie najbardziej zagrożona deepfake’ami nie jest wcale polityka, lecz pornografia. Badania pokazują, że około 96% filmów typu deepfake jest pornograficznych, a niemal 100% z nich dotyczy kobiet, które nie wyraziły na to zgody.

Internet jest pełen przeróbek filmów i zdjęć pornograficznych, których ofiarą padły postaci tak znane jak Scarlett Johansson, Natalie Portman czy Michelle Obama. Jednak ryzyko to nie dotyczy tylko gwiazd i influencerów. Aplikacje typu DeepNude czy FaceMagic pozwalają na błyskawiczną przeróbkę fotografii, przez co ofiarami nadużyć zostają dziś nie tylko celebryci, ale także osoby prywatne. Firmie Sensity badającej wykorzystanie deepfake’ów w pornografii udało się ustalić, że w 2021 r. ofiarą tego procederu padło co najmniej 100 tysięcy kobiet.

Deepfake to także fałszywe nagrania audio. Realistyczne podróbki dźwiękowe można teraz stworzyć za pomocą algorytmów w ciągu kilku godzin albo nawet minut. Sfałszowane nagrania audio są wykorzystywane np. do oszustw
i nadużyć finansowych. Deepfake audio ma jednak i pozytywne zastosowanie w medycynie w postaci zastępowania głosu, a także w projektowaniu gier komputerowych – programiści mogą pozwolić postaciom w grze mówić cokolwiek w czasie rzeczywistym, zamiast polegać na ograniczonym zestawie skryptów, które zostały nagrane przed rozpoczęciem gry.

Czyj jest mój wizerunek?

W październiku głośno zrobiło się o sprawie Bruce’a Willisa, który rzekomo sprzedał prawa do wizerunku amerykańskiej firmie Deepcake, specjalizującej się w produkcji materiałów w technologii deepfake. Brytyjski Telegraph napisał wtedy, że „Bruce Willis stał się pierwszą gwiazdą Hollywood, która sprzedała prawa do stworzenia swojego ‘cyfrowego bliźniaka`, który może wystąpić na ekranie”. Zaczęło się od stworzenia cyfrowego wizerunku Willisa w reklamie rosyjskiej sieci komórkowej w ubiegłym roku. Specjaliści z firmy Deepcake wkleili twarz Willisa na ujęciach zrealizowanych z udziałem innego aktora:

Nie wiadomo na razie jak skończy się obecne zamieszanie wokół Willisa, gdyż aktor twierdzi, że nikomu swojego wizerunku nie oddał, ale na pewno jest to sygnał, że jeszcze wiele znaków zapytania i ciekawych historii dotyczących wykorzystania cyfrowego wizerunku przed nami. W kwietniu tego roku związek brytyjskich artystów zainicjował kampanię „Stop AI Stealing The Show”, aby zwrócić uwagę na to, że sztuczna inteligencja może pozbawić aktorów pracy. Inni uważają, że technologia deepfake może także doprowadzić do utraty przez aktorów kontroli nad wizerunkiem czy głosem.

Jak radzić sobie z deepfake

Zanim uznamy, że oglądany film jest autentyczny, zbadajmy, czy nie mamy do czynienia z deepfake’iem. Przede wszystkim spróbujmy ocenić wartość audio i wizualną nagrania, a pomogą w tym następujące podpowiedzi:

  • zwróć uwagę, czy dźwięk jest zgodny z ruchem ust bohatera nagrania;
  • oceń, czy postać nie wygląda dziwnie: ma nienaturalny kolor ciała, przyjmuje nietypowe pozy, mówi bez mrugania oczami – deepfake ma problem z mruganiem 😉;
  • wsłuchaj się w dźwięk – zazwyczaj w filmach deepfake ścieżka audio ma gorszą jakość od wideo;
  • zwróć uwagę na jakość obrazu – w amatorskich produkcjach często pojawia się migotanie twarzy (szczególnie na krawędziach) i okazjonalne pojawianie się oryginalnego obrazu, szczególnie przy wykonywaniu obrotów głową.

Jeśli mimo pozytywnego rozpatrzenia powyższych punktów, intuicja podpowiada nam, że coś jest „nie tak”, możemy sięgnąć po specjalne narzędzia i aplikacje wykrywające deepfake’i, jak np. Biometer lub opracowane na bostońskim uniwersytecie MIT Detect Fakes. Warto to zrobić, jeśli widzimy materiał, który szokuje, wywołuje skrajne emocje
i konflikt czy wydaje się mało prawdopodobny.

Deepfake w służbie dezinformacji

Deepfake nie tylko podszywa się pod istniejące osoby, ale także generuje fejkowe wirtualne postaci, co bardzo przydaje się na tzw. farmach trolli. Zakłada się, że na Twitterze boty stanowią aż od 12 do 20 procent kont. Konta te replikują treści mające na celu np. destabilizację sytuacji w danym regionie świata czy kraju. Mieliśmy z tym i mamy masowo do czynienia w sieci w kontekście wojny w Ukrainie.

O wojnie hybrydowej, dziejącej się równolegle do wojny tradycyjnej, która wykorzystuje szerokie spektrum możliwości generowanych przez technologię deepfake opowiada Aleksandra Przegalińska w odcinku „Deepfake w służbie dezinformacji” podcastu „Coś osobliwego” w radiu newonce. Partnerem audycji jest Dell Technologies. Zapraszamy do posłuchania.

Więcej z tej kategorii