Deepfake to wykorzystująca sztuczną inteligencję technika obróbki obrazu, która umożliwia tworzenie sfabrykowanych materiałów wideo. Powstałe w ten sposób filmy mają potencjał do skutecznego manipulowania opinią publiczną, kompromitując przedstawiane na nich osoby. Wyniki badań firmy iProov pokazały, że 71 proc. użytkowników nie wie o istnieniu tej technologii. Eksperci Fortinet wyjaśniają proces powstawania materiałów deepfake, wskazują niebezpieczeństwa z nimi związane oraz podpowiadają, jak je rozpoznać.
Jedną z najpopularniejszych metod tworzenia materiałów deepfake jest zastosowanie generatywnej sieci przeciwstawnej (GAN), która uczy się rozpoznawać wzorce za pomocą algorytmów. Te mogą być z kolei wykorzystywane również do tworzenia fałszywych obrazów.
Inna metoda bazuje na wykorzystaniu algorytmów AI, zwanych koderami. Grają one kluczową rolę w procesie modyfikacji i zastępowania twarzy. Materiały typu deepfake wykorzystują także autokodery, które przekraczają kompetencje swoich klasycznych odpowiedników. Dzięki nim cyberprzestępcy są w stanie tworzyć zupełnie nowe obrazy. Dostępne w internecie generatory deepfake wykorzystują po dwa autokodery. Proces przenoszenia obrazów z jednego na drugi odbywa się właśnie za ich pośrednictwem.
Produkcje deepfake bywają trudne w identyfikacji. Na wątpliwości co do autentyczności filmu mogą wskazywać: nienaturalne ruchy oczu, brak mrugnięć, niedopasowana mimika i punktowe rozmycia twarzy, nienaturalny kształt ciała, zmienna tekstura włosów, nienaturalne ułożenie głowy i ciała oraz liczne przebarwienia
Wśród najbardziej szkodliwych konsekwencji stosowania deepfake’ów eksperci Fortinet wymieniają:
- destabilizację funkcjonowania firm i instytucji;
- inżynierię społeczną;
- ataki dezinformacyjne;
- sfabrykowaną pornografię;
- manipulacje wyborcze;
- kradzież tożsamości i oszustwa finansowe.