Technologia

Czy ChatGPT okaże się skuteczną bronią do walki z cyberprzestępczością?

621
Czy ChatGPT okaże się skuteczną bronią do walki z cyberprzestępczością?

ChatGPT stał się groźnym narzędziem w rękach cyberprzestępców. Jednak, jak przekonują eksperci z Sophos, ten zaawansowany model językowy, zdolny do pisania i analizowania nawet dłuższych tekstów, może być również bardzo pomocny w walce z hakerami i internetowymi oszustami. Sztuczną inteligencję da się z powodzeniem wykorzystać do namierzania podejrzanej aktywności, filtrowania wiadomości e-mail czy przeciwdziałania cyberatakom z wykorzystaniem komponentów wbudowanych w system Microsoft Windows (LOLBin).

Badacze z firmy Sophos pracowali nad trzema projektami, które miały sprawdzić potencjał wykorzystania mechanizmu ChatGPT w cyberbezpieczeństwie. Na potrzeby eksperymentów sztuczna inteligencja trenowana była za pomocą zaledwie małej liczby próbek danych (tzw. Few-Shot Learning). To metoda uczenia maszynowego poprzez analizę wzorców, przypominająca sposób pozyskiwania i klasyfikowania informacji przez człowieka. Dla przykładu, wystarczy kilka zdjęć i namalowanych obrazów, aby ludzki mózg nauczył się odróżniać je od siebie. W podobny sposób, przedstawiając konkretne wzory, da się ćwiczyć SI, co dodatkowo ogranicza potrzebę gromadzenia dużej ilości wstępnie klasyfikowanych informacji.

Pomocna dłoń dla specjalistów ds. bezpieczeństwa

Pierwszym projektem specjalistów z Sophos było opracowanie specjalnego interfejsu zapytań w języku naturalnym (stosowanym przez ludzi do komunikowania się między sobą), który pozwala na filtrowanie złośliwej aktywności w telemetrii oprogramowania zabezpieczającego. Z odpowiednio przygotowanym modelem możliwa stała się obsługa oprogramowania Sophos XDR (Extended Detection and Response) nawet bez znajomości struktury baz danych czy języka SQL. Wystarczyło, że operatorzy wpisywali proste komendy w języku angielskim np. „Pokaż mi wszystkie uruchomione procesy o nazwie powershell.exe”, aby jeszcze szybciej otrzymywać poszukiwane informacje.

Od listopada 2022 r., kiedy Open AI pokazało światu ChatGPT, wielu specjalistów ds. cyberbezpieczeństwa skupiało się głównie na zagrożeniach. Pojawiało się wiele pytań, np. o to czy przestępcy będą przy pomocy nowej technologii tworzyć złośliwe oprogramowanie albo pisać jeszcze bardziej przekonujące maile phishingowe. To możliwe, ale poza niebezpieczeństwami trzeba także zwracać uwagę na możliwości, jakie niesie wykorzystanie ChatGPT. Sztuczną inteligencję postrzegamy jako sprzymierzeńca – mówi Sean Gallagher, główny badacz zagrożeń w firmie Sophos.

Koniec spamu? Zadba o to sztuczna inteligencja

Chat GPT został także wykorzystany do opracowania nowego filtru antyspamowego. Eksperci Sophos wytrenowali istniejący już model językowy przy pomocy zaledwie kilku wiadomości o charakterze spamu. Okazało się to wystarczające, by czat zaczął wychwytywać niechciane e-maile i robił to znacznie skuteczniej niż tradycyjne filtry stosowane w poczcie elektronicznej.

Ostatnim z prototypowych zastosowań ChatGPT było stworzenie oprogramowania, które upraszczałoby rozkładanie na czynniki pierwsze ataków wykorzystujących narzędzia LOLBin (legalne oprogramowanie i komponenty wbudowane w system Microsoft Windows). Układane przez przestępców komendy wprowadzane w wierszu poleceń, które umożliwiają im wejście do systemu, są bardzo trudne do rozszyfrowywania nawet przez doświadczonych specjalistów. Sztuczna inteligencja, zdolna wygenerować działający kod w wielu językach skryptowych i programowania na podstawie poleceń wydanych w języku naturalnym, radzi sobie z tym o wiele lepiej.

Badacze wykorzystali ten fakt i wyszkolili model, aby robił coś odwrotnego – przygotowywał tekstowe opisy służące do późniejszej analizy cyberataków na podstawie wprowadzonych komend wiersza poleceń. Dlatego zastosowanie SI, ułatwiającej i przyspieszającej analizę kodu, może przyczynić się do skuteczniejszego powstrzymywania ataków z użyciem LOLBin w przyszłości.

ChatGPT drugim pilotem dla specjalistów IT

Zdaniem Seana Gallaghear z Sophos jednym z głównych problemów, z którymi mierzą się zespoły ds. bezpieczeństwa, jest duża ilość napływającego „szumu”. Specjaliści muszą sprawdzać zbyt dużą liczbę powiadomień i wykrytych sygnałów. Tymczasem wiele firm ma ograniczone zasoby ludzkie, które nie radzą sobie z dokładnym badaniem wszystkich potencjalnych niebezpieczeństw. Przez to cyberochrona nie jest aż tak skuteczna, jak powinna.

– Nasze analizy udowodniły, że ChatGPT może uprościć czasochłonne procesy i odciążyć specjalistów ds. bezpieczeństwa. Pracujemy już nad włączeniem niektórych z tych prototypowych rozwiązań do naszych produktów – przekonuje Sean Gallagher. – Efekty prac zespołu Sophos X-Ops udostępniliśmy na naszym GitHubie. Mogą z nich skorzystać wszyscy zainteresowani testowaniem możliwości oferowanych przez ChatGPT we własnych środowiskach analitycznych. Wierzymy, że w przyszłości sztuczna inteligencja może pełnić rolę „drugiego pilota” dla specjalistów ds. bezpieczeństwa.

 

 

Sophos