AI - zagrożenie czy rewolucja?
Wszystkie artykuły
Poradniki

Sztuczna inteligencja, phishing i deepfake – nowe techniki ataków na administrację publiczną

Rozwój sztucznej inteligencji zmienia oblicze cyberzagrożeń. Raport ENISA wskazuje, że administracja publiczna coraz częściej staje się celem ataków wykorzystujących AI – od zaawansowanego phishingu po deepfake i voice cloning. Wyjaśniamy, na czym polega to zagrożenie i dlaczego stanowi ono poważne wyzwanie dla bezpieczeństwa państwa.

Synergia Analytic
19 grudnia 20252 min czytania58 wyświetleń
#ENISA#sztuczna inteligencja#phishing#deepfake#administracja publiczna#cyberbezpieczeństwo#NIS 2#socjotechnika#zagrożenia cybernetyczne

AI jako narzędzie cyberataku

ENISA wskazuje, że sztuczna inteligencja znacząco obniża próg wejścia dla cyberprzestępców. Algorytmy generatywne umożliwiają szybkie tworzenie realistycznych treści, wiadomości e-mail oraz materiałów audio i wideo, które trudno odróżnić od autentycznych.

W administracji publicznej oznacza to wzrost ryzyka ataków, które wykorzystują zaufanie do hierarchii służbowej, procedur oraz komunikacji wewnętrznej.

Phishing nowej generacji

Tradycyjny phishing opierał się na masowych, łatwych do rozpoznania wiadomościach. ENISA podkreśla, że obecnie coraz częściej mamy do czynienia z phishingiem ukierunkowanym, tworzonym przy użyciu narzędzi AI.

Takie wiadomości są dopasowane do konkretnego urzędu, stanowiska lub osoby, zawierają poprawny język urzędowy i nawiązują do bieżących wydarzeń administracyjnych.

Deepfake i voice cloning – nowy wymiar manipulacji

Jednym z najbardziej niepokojących zjawisk opisywanych przez ENISA jest wykorzystanie technologii deepfake oraz klonowania głosu. Atakujący są w stanie wygenerować fałszywe nagrania audio lub wideo, podszywając się pod kierownictwo urzędów lub wysokich rangą urzędników.

Tego typu ataki mogą prowadzić do nieautoryzowanych decyzji, ujawnienia informacji lub uruchomienia procedur, które w normalnych warunkach wymagałyby wielopoziomowej weryfikacji.

Dlaczego administracja publiczna jest szczególnie narażona?

Administracja publiczna opiera swoje działanie na formalnych procedurach, zaufaniu do komunikacji służbowej oraz hierarchii organizacyjnej. ENISA wskazuje, że właśnie te cechy są wykorzystywane przez atakujących w kampaniach opartych na AI.

Dodatkowym czynnikiem ryzyka jest brak jednoznacznych procedur weryfikacji nietypowych poleceń oraz ograniczona świadomość zagrożeń związanych z deepfake i manipulacją treściami.

Wnioski dla administracji publicznej

Raport ENISA pokazuje, że wykorzystanie sztucznej inteligencji w cyberatakach przestaje być scenariuszem przyszłości. Administracja publiczna musi przygotować się na zagrożenia, które łączą technologię, psychologię i manipulację informacją.

W kontekście NIS 2 kluczowe znaczenie mają szkolenia personelu, procedury weryfikacji komunikacji oraz zdolność do szybkiego reagowania na nietypowe incydenty o charakterze socjotechnicznym.

Źródło: ENISA, ENISA Sectorial Threat Landscape – Public Administration

Zobacz również

Popularne artykuły

Potrzebujesz pomocy ze swoją sprawą?

Nasz kreator pomoże Ci ocenić czy Twoja sytuacja kwalifikuje się do złożenia skargi do UODO.