Coraz więcej cyberataków z użyciem AI. Tak działają oszuści
Raport AU10TIX ujawnia nową falę oszustw tożsamościowych napędzanych przez AI, które stanowią wyzwanie dla platform cyfrowych.
16.12.2024 | aktual.: 16.12.2024 13:07
Najnowszy raport Global Identity Fraud Report autorstwa AU10TIX wskazuje na rosnące zagrożenie oszustwami tożsamościowymi, które są napędzane przez ataki oparte na sztucznej inteligencji. Analiza milionów transakcji od lipca do września 2024 r. pokazuje, że platformy cyfrowe, zwłaszcza media społecznościowe, płatności i kryptowaluty, stają przed bezprecedensowymi wyzwaniami.
Ewolucja taktyk oszustów
Oszustwa ewoluowały od prostych fałszerstw dokumentów do zaawansowanych syntetycznych tożsamości, obrazów deepfake i zautomatyzowanych botów, które mogą omijać tradycyjne systemy weryfikacji. Media społecznościowe doświadczyły dramatycznego wzrostu ataków botów przed wyborami prezydenckimi w USA w 2024 r. Raport wskazuje, że ataki na media społecznościowe stanowiły 28 proc. wszystkich prób oszustw w III kwartale 2024 r., co stanowi znaczący wzrost w porównaniu do 3 proc. w I kwartale.
Dalsza część artykułu pod materiałem wideo
Czas na AI. Zapowiedź buntu maszyn czy nowa rewolucja przemysłowa? - Historie Jutra napędza PLAY #5
Ataki te koncentrują się na dezinformacji i manipulacji opinią publiczną na dużą skalę. AU10TIX podkreśla, że kampanie dezinformacyjne napędzane przez boty wykorzystują zaawansowane elementy Generative AI (GenAI), aby unikać wykrycia. Innowacja ta pozwala atakującym na skalowanie operacji przy jednoczesnym unikaniu tradycyjnych systemów weryfikacji.
Wzrost liczby syntetycznych selfie
Jednym z najbardziej uderzających odkryć w raporcie jest pojawienie się w 100 proc. syntetycznych selfie deepfake - hiperrealistycznych obrazów, które mają na celu obejście systemów weryfikacji. AU10TIX podkreśla, że te syntetyczne selfie stanowią unikalne wyzwanie dla tradycyjnych procedur KYC (Know Your Customer).
AU10TIX zaleca, aby organizacje wykraczały poza tradycyjne metody weryfikacji oparte na dokumentach. Kluczową rekomendacją jest przyjęcie systemów wykrywania opartych na zachowaniach, które sięgają głębiej niż standardowe kontrole tożsamości. Analizując wzorce zachowań użytkowników, takie jak rutyny logowania, źródła ruchu i inne unikalne wskazówki behawioralne, firmy mogą identyfikować anomalie wskazujące na potencjalnie oszukańczą działalność.
Zastosowanie AI w przestępczości
Zastosowanie sztucznej inteligencji w przestępczości stało się poważnym zagrożeniem dla cyberbezpieczeństwa. FBI ostrzega, że technologia ta pozwala oszustom tworzyć realistyczne treści, które ułatwiają oszustwo. Szybkie generowanie fałszywych dokumentów i wizerunków staje się coraz bardziej powszechne, co wymaga od nas zwiększonej czujności i ostrożności w sieci.
Działania CERT Polska
Wykorzystanie AI do oszustw, to więc coraz większy problem. Poważnie zajmują się tym już także instytucje powołane do ochrony użytkowników. CERT Polska aktywnie zwalcza cyberprzestępczość, zapobiegając milionom prób oszustwa. Dzięki zgłoszeniom od użytkowników oraz narzędziom do analizy, możliwe jest przeciwdziałanie atakom. Szeroka współpraca z operatorami telekomunikacyjnymi dodatkowo wzmacnia ochronę internautów, co skutkuje blokadą fałszywych wiadomości i witryn.
Trend kradzieży wizerunku w świecie cyfrowym rośnie wraz z rozwojem AI. Fałszywe reklamy oraz deepfake’i powodują nie tylko straty finansowe, ale również naruszają prywatność. Incydenty z udziałem znanych osób pokazują, jak zaawansowane narzędzia są używane do podszywania się pod inne osoby, co wymaga nowych strategii ochrony.
Edukacja i współpraca
Edukacja i współpraca stają się kluczowe w walce z cyberprzestępczością. Nie tylko organy ścigania, ale także użytkownicy muszą być świadomi zagrożeń i metod prewencji. Regularne zgłaszanie podejrzanych działań oraz zachowanie ostrożności przy udostępnianiu danych stanowi podstawę ochrony w erze cyfrowej.