GenAI w rękach cyberprzestępców może być użyte do profilowania, tworzenia deepfake i malware

Do 2025 roku raczej nie nastąpi znaczny wzrost cyberataków wykorzystujących GenAI – szacuje brytyjski Urząd ds. Krajowego Cyberbezpieczeństwa (NCSC). Przestępcy już dziś jednak zaczynają używać modeli generatywnej sztucznej inteligencji do profilowania ofiar, ataków z użyciem deepfake oraz tworzenia malware. Jednak, jak wskazują eksperci WithSecure, AI pomaga również specjalistom ds. cyberbezpieczeństwa – dzięki niej średni czas wykrycia incydentów i zniwelowania ich skutków skrócił się o ponad 100 dni.

WithSecure podkreśla, że modele GenAI są dla cyberprzestępców szczególnie przydatne do przeprowadzania cyfrowego rekonesansu, działań z zakresu inżynierii społecznej oraz generowania kodu złośliwego oprogramowania. Wykorzystanie odpowiednio wytrenowanego modelu GenAI do profilowania potencjalnej ofiary znacznie przyspiesza proces i zwiększa szansę powodzenia ataku. Sztuczna inteligencja robi to dokładniej od człowieka – może przeszukać tysiące stron pod kątem każdej, nawet najdrobniejszej wzmianki o danej firmie lub osobie. Takie informacje pomagają lepiej dopasować atak pod konkretny cel, co zwiększa szansę na jego powodzenie.

Pojawiać zaczynają się także ataki z użyciem deepfake. Przestępcy generują nagrania dźwiękowe lub wideo, w których znane osoby mówią lub robią rzeczy, które w rzeczywistości nigdy nie miały miejsca. W przestrzeni publicznej pojawiły się informacje o pierwszych przypadkach, w których oszuści wykorzystali GenAI, aby podszyć się pod kierownictwo firmy i zlecić osobom odpowiedzialnym za finanse wypłatę środków z jej rachunku.

Zaawansowane modele GenAI są zdolne także do pisania działających kodów złośliwego oprogramowania. Choć firmy takie jak OpenAI wprowadzają zabezpieczenia, które powinny uniemożliwić wykorzystanie modelu do takich celów, cyberprzestępcy posiadający specjalistyczną wiedzę mogą te zabezpieczenia obejść – m.in. generując poszczególne fragmenty kodu osobno, a następnie składając je w całość. Uzyskują w ten sposób gotowe, w pełni funkcjonalne i zdolne do wyrządzenia dużych szkód oprogramowanie.

Obecnie największym zagrożeniem wynikającym z użycia AI przez przestępców jest szybkość z jaką mogą zostać wygenerowane elementy ataku. Musimy więc zadbać o to, aby móc reagować równie szybko – wskazuje Leszek Tasiemski, VP w firmie WithSecure.

Jak wskazują eksperci WithSecure, choć modele GenAI są coraz bardziej zaawansowane, obecnie ich wykorzystanie przez cyberprzestępców zdaje się ograniczać przede wszystkim do wczesnych etapów ataków.