Oszustwa trudniejsze do wykrycia. Cyberprzestępcy mają nowe narzędzie

Modele językowe mogą być wykorzystywane przez cyberprzestępców
Modele językowe mogą być wykorzystywane przez cyberprzestępców
Źródło zdjęć: © Getty Images
Konrad Siwik

13.01.2023 16:46

Zalogowani mogą więcej

Możesz zapisać ten artykuł na później. Znajdziesz go potem na swoim koncie użytkownika

Seria eksperymentów przeprowadzonych przez ekspertów WithSecure przy użyciu GPT-3 wskazuje, że modele językowe wykorzystujące sztuczną inteligencję umożliwiają cyberprzestępcom zwiększanie skuteczności komunikacji będącej częścią ataku.

GPT-3 to model językowy wykorzystywany w popularnym ChatGPT. W prowadzonych eksperymentach badacze WithSecure bazowali na tzw. prompt engineering – koncepcji związanej z przetwarzaniem języka naturalnego (NLP). Polega ona na szukaniu danych wejściowych, które wprowadzone do modelu przynoszą pożądane lub użyteczne rezultaty. Eksperci sprawdzali, w jaki sposób mogą być generowane potencjalnie szkodliwe treści.

Zdaniem ekspertów powszechny dostęp do modeli SI, które w kilka sekund dostarczają tekst brzmiący jak napisany przez człowieka to punkt zwrotny w ewolucji cyberzagrożeń. W eksperymentach oceniano, jak zmiany danych wejściowych, czyli poleceń wpisywanych w dostępnych modelach językowych wpływają na otrzymywane wyniki. Celem było sprawdzenie, w jaki sposób generowanie języka przez SI może być używane w złośliwej lub przestępczej działalności.

Dalsza część artykułu pod materiałem wideo

Zagrożenia płynące z modeli językowych

Eksperymenty obejmowały phishing i spear-phishing, nękanie, uwierzytelnianie scamu, przywłaszczanie stylu pisanego, celowe tworzenie polaryzujących opinii, wykorzystywanie modeli językowych do tworzenia podpowiedzi złośliwych tekstów oraz fake newsów.

– Obecnie każdy, kto posiada łącze internetowe, może mieć dostęp do zaawansowanych modeli językowych, a to ma jedną bardzo praktyczną konsekwencję. Lepiej zakładać, że każda nowa wiadomość, którą otrzymujemy, mogła zostać stworzona przez bota – wskazuje Andy Patel, analityk WithSecure Intelligence, który kierował badaniami. – Możliwość wykorzystania SI do generowania zarówno szkodliwych, jak i użytecznych treści będzie wymagała strategii wykrywania, które są zdolne do zrozumienia znaczenia i celu tekstu pisanego.

Wyniki przeprowadzonych eksperymentów oraz analiza rozwoju GPT-3 doprowadziły badaczy do kilku wniosków:

  • Prompt engineering to koncepcja, która będzie się intensywnie rozwijać – podobnie jak tworzenie promptów w złośliwych celach;
  • Cyberprzestępcy będą w nieprzewidywalny sposób rozwijać możliwości, jakie dają duże modele językowe;
  • Identyfikacja złośliwych lub obraźliwych treści będzie coraz trudniejsza dla dostawców platform;
  • Zaawansowane modele językowe już teraz dają przestępcom możliwość zwiększenia skuteczności komunikacji będącej częścią ataku (np. wiadomości phishingowe).

– Rozpoczęliśmy badania, zanim jeszcze ChatGPT udostępnił technologię GPT-3 dla wszystkich – tłumaczy Patel. – Rozwój narzędzia zintensyfikował nasze wysiłki. Teraz w pewnym sensie wszyscy jesteśmy "łowcami androidów", próbując dowiedzieć się, czy inteligencja, z którą mamy do czynienia, jest "prawdziwa", czy sztuczna – puentuje.

Konrad Siwik, dziennikarz dobreprogramy.pl

Programy

Brak danych.
Zobacz więcej
Oceń jakość naszego artykułuTwoja opinia pozwala nam tworzyć lepsze treści.
Wybrane dla Ciebie
Komentarze (6)