Sztuczna inteligencja zapewnia firmom ogromne możliwości rozwijania produktów, usług i zwiększania produktywności. Ma też niestety mroczną stronę – często bywa narzędziem cyberprzestępców w przeprowadzaniu nowego rodzaju ataków. Jakie są cyberzagrożenia związane z AI i jak się przed nimi bronić?
Narzędzia z sektora uczenia maszynowego zwiększyły skuteczność oprogramowania antymalware’owego do wykrywania oszustw poprzez szybsze diagnozowanie anomalii, niż jest to możliwe dla człowieka. AI z jednej strony pomaga, z drugiej jednak jest skutecznym rozwiązaniem dla cyberprzestępców. Ataki z wykorzystaniem socjotechnik, siłowe czy DoS to tylko niektóre przykłady działań hakerów, w których coraz częściej wykorzystywana jest sztuczna inteligencja.
Ryzyko związane z AI w cyberbezpieczeństwie szybko się zwiększa, ponieważ odpowiednie narzędzia są coraz tańsze i łatwiej dostępne. Możemy ich używać do robienia deepfake’ów, aby tworzyć zaskakująco przekonujące fałszywe ścieżki audio lub klipy wideo z bardzo małą ilością danych treningowych. Jest to stosowane np. w atakach związanych z „wykradaniem twarzy” (ramka Ataki na biometrię). Powoli zbliżamy się do sytuacji, w której publikowanie w sieci jakichkolwiek zdjęć i materiałów umożliwiających naszą identyfikację staje się ryzykowne. Cyberprzestępcy mogą bowiem wykorzystać te pliki do kreowania fałszywych tożsamości i kradzieży danych.
Szerokie ryzyka AI w cyberbezpieczeństwie
W kontekście cyberataków generatywna AI otwiera przed cyberprzestępcami nowe możliwości (ramka GenAI w rękach cyberprzestępców), umożliwiając przeprowadzanie ataków o niebywałej dotąd szybkości i złożoności. Technologia ta może być wykorzystywana do usprawniania ataków ransomware’owych oraz phishingowych, pozwalając na szybsze tworzenie spersonalizowanych wiadomości.
Firma Forcepoint zajmująca się bezpieczeństwem informowała w kwietniu 2023 r., że ChatGPT może generować złośliwy kod funkcja po funkcji. W rezultacie udało się stworzyć niewykrywalny plik wykonywalny (.exe), który kradnie dane i działa jak każde szkodliwe oprogramowanie.
Zagrożenia związane z AI przenikają również do świata fizycznego. Coraz więcej sprzętu i przedmiotów wykorzystuje sztuczną inteligencję oraz połączenie z internetem. Systemy medyczne, sprzęt do produkcji i budowy czy też elektryczne i autonomiczne pojazdy są często wyposażone w odpowiednie oprogramowanie. Autonomiczny samochód, który jest sterowany z wykorzystaniem wirtualnego asystenta AI, czy też narzędzia do prac konserwacyjnych na placu budowy mogą zostać przejęte przez cyberprzestępców, co stwarza poważne zagrożenie dla bezpieczeństwa.
Utrata prywatności i podszywanie się
W przypadku najpopularniejszego czatbota, ChatGPT, odnotowano już przynajmniej jeden incydent związany z wyciekiem danych, gdy fragmenty historii rozmów użytkowników trafiły do sieci. Chociaż błąd, który to umożliwił, został szybko naprawiony, jest to przykład potencjalnych ryzyk dla prywatności towarzyszących korzystaniu z AI. Narzędzia oparte na sztucznej inteligencji przetwarzają ogromne ilości danych, co czyni je atrakcyjnym celem dla cyberprzestępców. Systemy AI wykorzystywane w marketingu, reklamie czy do monitorowania aktywności online również mogą stanowić zagrożenie dla prywatności użytkowników.
Ryzyko nie kończy się jednak na wyciekach danych. Możliwa jest również kradzież samych modeli AI przez ataki sieciowe, techniki socjotechniczne lub wykorzystywanie luk w zabezpieczeniach oprogramowania. Skradzione modele mogą być modyfikowane i wykorzystywane przez hakerów do wspierania różnorodnych złośliwych działań, co stanowi kolejne cyberzagrożenie związane z rozwojem i stosowaniem sztucznej inteligencji.
Modele AI są szczególnie podatne na manipulację danych. Wiarygodność odpowiedzi zależy od jakości danych treningowych, co oznacza, że ich modyfikacja lub zniekształcenie może prowadzić do generowania przez narzędzia AI nieoczekiwanych wyników, takich jak treści o charakterze rasistowskim, kontrowersyjnym, a nawet wprowadzających w błąd, np. przez podawanie nieprawidłowych dat ważnych wydarzeń. W teorii atakujący mógłby „zatruć” korpus treningowy złośliwymi danymi, aby zmienić wyniki modelu. Ponadto możliwa jest również tzw. iniekcja uprzedzeń. Są to ataki szczególnie szkodliwe w takich branżach jak opieka zdrowotna, motoryzacja i transport, w których decyzje oparte na AI i polegające na jej niezawodności mogą zagrażać bezpieczeństwu ludzi.
Sztuczna inteligencja znajduje zastosowanie również w kreowaniu fałszywych wizerunków. W branży filmowej doceniana jest za możliwość np. odmładzania aktorów, jak to miało miejsce w przypadku Harrisona Forda w najnowszym filmie o przygodach Indiany Jonesa. Warto jednak wiedzieć, że cyberprzestępca nie musi dysponować budżetem Hollywoodu, by przygotować oszustwo wykorzystujące tę technologię. Jeśli ma wystarczająco dużo materiałów (zdjęć, filmów) przedstawiających daną osobę, jest w stanie tworzyć wiarygodne deepfaki, w tym nagrania audio, i to z wykorzystaniem darmowych aplikacji. Przykładem może być aplikacja start-upu Eleven Labs, która umożliwia klonowanie głosu. Cyberprzestępcy wykorzystali tę możliwość do stworzenia nagrania z głosem prezydenta Joe Bidena, na którym wzywał ludzi do niegłosowania w zbliżających się wyborach (więcej o wykorzystaniu klonowania głosu w cyberoszustwach możecie przeczytać w „IT Professional” 6/2023, s. 32). Firma musiała szybko interweniować i zawiesiła odpowiednie konto.
Korzystanie z AI wymaga odpowiedzialności
Sztuczna inteligencja jest potężnym i przydatnym narzędziem, ale stanowi duże ryzyko dla cyberbezpieczeństwa. Zarówno użytkownicy indywidualni, jak i organizacje powinny przyjąć całościowe i proaktywne podejście, aby bezpiecznie korzystać z tej technologii.
W pierwszej kolejności wszystkie systemy AI, z których korzysta organizacja, powinny być poddane audytowi mającemu na celu wykrycie i eliminację luk bezpieczeństwa, co pozwoli na zmniejszenie ryzyka związanego z wykorzystaniem sztucznej inteligencji. Istotne jest weryfikowanie reputacji wszystkich narzędzi i aplikacji AI, aby zapobiegać problemom związanym z bezpieczeństwem oraz prywatnością. Najlepiej, aby taki audyt przeprowadzili eksperci z dziedziny cyberbezpieczeństwa oraz sztucznej inteligencji, którzy są w stanie wykonać testy penetracyjne, oceny podatności i dokładne przeglądy zaimplementowanych rozwiązań.
Drugi krok to ograniczenie udostępniania danych osobowych za pośrednictwem narzędzi do automatyzacji. Zauważalny jest trend, w którym ludzie przekazują poufne informacje sztucznej inteligencji, nie zdając sobie sprawy z zagrożeń, jakie to ze sobą niesie. Pomimo że modele językowe AI są projektowane z zabezpieczeniami, a dane nie są ujawniane poza aplikacje, warto pamiętać, że rozmowy z czatbotem są rejestrowane dla potrzeb kontroli jakości i są dostępne dla zespołów obsługujących system. Z tego względu zalecaną praktyką jest unikanie przekazywania jakichkolwiek danych osobowych sztucznej inteligencji
Warto dodać, że firmy takie jak OpenAI, zaczynające jako start-upy, często prowadzone są w specyficzny sposób. Oznacza to, że jednego dnia coś może być zabronione, a następnego dozwolone. Przykład takiego podejścia mieliśmy w lutym tego roku, kiedy dwie grupy protestujących Pause AI i No AGI zgromadziły się przed siedzibą OpenAI w San Francisco, aby pokazać swoje niezadowolenie z faktu, że firma rozpoczęła współpracę z Pentagonem i w rezultacie zmieniła swoją politykę użytkowania, usuwając z niej fragment zabraniający używania AI do celów wojskowych.
Bezpieczeństwo danych to bezpieczeństwo AI
Aby chronić AI przed „zatruciem” danych, organizacje muszą inwestować w zaawansowane szyfrowanie, kontrolę dostępu i technologie tworzenia kopii zapasowych. Sieci powinny być zabezpieczone za pomocą firewalla, systemów wykrywania intruzów i skomplikowanych haseł. Co więcej, konieczne jest również regularne aktualizowanie oprogramowania AI, frameworków, systemów operacyjnych oraz aplikacji najnowszymi łatkami i aktualizacjami, aby zmniejszyć ryzyko cyberataków. Pomocne są nawet narzędzia ochrony antywirusowej nowej generacji, wyposażone w szereg technologii do wykrywania i blokowania wielu zagrożeń.
Podobnie jak w przypadku innych cyberzagrożeń, konieczna jest także edukacja i budowanie świadomości wśród pracowników. Personel musi zdawać sobie sprawę z tego, jakie ataki są możliwe do przeprowadzenia z użyciem AI, szczególnie tych nowszych metod, takich jak klonowanie głosu.
Nawet przy zastosowaniu najlepszych środków bezpieczeństwa istnieje możliwość, że organizacja może stać się celem ataku wykorzystującego AI. W takim przypadku niezbędne jest posiadanie z góry przygotowanego szczegółowego planu reagowania na incydenty. Plan ten powinien zawierać procedury dochodzeniowe i naprawcze, umożliwiające szybkie odzyskanie danych lub systemów po ataku. Kluczowa jest także odpowiednia polityka bezpieczeństwa oraz procedury postępowania.
AI ma więcej zalet niż wad
Cyberzagrożenia i ataki przeprowadzane z użyciem AI są oczywiście możliwe, ale sztuczna inteligencja również świetnie sprawdza się w roli rozwiązania zabezpieczającego. Już teraz organizacje na całym świecie, od banków po rządy, używają sztucznej inteligencji np. do uwierzytelniania tożsamości. Branże finansowa i nieruchomości korzystają z kolei z AI, aby wykrywać anomalie i zmniejszać ryzyko oszustw.
Zaawansowany malware może omijać standardowe technologie cyberbezpieczeństwa dzięki różnorodnym technikom obejścia, w tym zmianom kodu i struktury plików. Jednak profesjonalne oprogramowanie antywirusowe może wykorzystać AI i uczenie maszynowe do wykrywania anomalii w ogólnej strukturze potencjalnego zagrożenia, logice programowania i danych.
Specjaliści ds. cyberbezpieczeństwa mogą ponadto przejść od postawy reaktywnej do proaktywnej, wykorzystując generatywną AI i jej modele predykcyjne. Dla przykładu możemy używać generatywnej AI do tworzenia modeli, które identyfikują nowe zagrożenia i minimalizują ryzyko. Takie modele predykcyjne skutkują szybszym wykrywaniem zagrożeń, oszczędnością czasu, redukcją kosztów, poprawą reakcji na incydenty oraz lepszą ochroną przed ryzykiem.
E-maile phishingowe są istotnym wektorem ataków, w obronie przed którymi sztuczna inteligencja również może pomóc. Filtry serwerów pocztowych oparte na AI mogą skanować treść wiadomości w poszukiwaniu podejrzanych wzorców, a następnie oznaczać lub blokować spam oraz inne złośliwe próby. Dodatkowo AI ma potencjał do identyfikowania botów, które mogą zagrażać lub destabilizować sieci i witryny internetowe, negatywnie wpływając na bezpieczeństwo. Boty te, wykorzystując skradzione dane uwierzytelniające, mogą przejmować konta i wspierać cyberprzestępców w prowadzeniu oszustw. Oprogramowanie oparte na uczeniu maszynowym jest w stanie analizować ruch sieciowy i dane, aby wykrywać wzorce działania botów, co pomaga ekspertom ds. cyberbezpieczeństwa w ich neutralizacji. Specjaliści IT mogą również korzystać z AI do tworzenia bardziej skutecznych mechanizmów CAPTCHA, które lepiej chronią przed botami.
Bezpieczniej nam będzie z AI
Cyberprzestępcy mogą wykradać dane lub infekować systemy IT oprogramowaniem ransomware’owym po włamaniu się do sieci. Wczesne wykrycie takich zagrożeń jest kluczowe. Wykrywanie anomalii oparte na AI może skanować ruch sieciowy i logi systemowe pod kątem nieautoryzowanego dostępu, nietypowego kodu i innych podejrzanych wzorców, aby zapobiegać naruszeniom.
AI może ponadto zwiększyć „polowanie na zagrożenia” (ang. threat hunting), zarządzanie nimi oraz reagowanie na incydenty, pracując nieustannie przez całą dobę. Dzięki temu możliwe jest szybkie działanie w razie potencjalnego zagrożenia i podejmowanie niezbędnych akcji naprawczych, nawet poza godzinami pracy zespołu ds. bezpieczeństwa, co znacznie skraca czas reakcji na incydenty i minimalizuje potencjalne szkody.
Ponadto AI znajduje zastosowanie w wykrywaniu zagrożeń wewnątrz organizacji, które mogą mieć poważne konsekwencje, takie jak strata przychodów, utrata tajemnic handlowych, wrażliwych danych oraz reputacji. Wyróżnia się dwa główne typy zagrożeń wewnętrznych: złośliwe i nieumyślne. Sztuczna inteligencja może wspomagać w zapobieganiu obu rodzajom, identyfikując ryzykowne zachowania użytkowników i zapobiegając wyciekom wrażliwych informacji. Systemy AI mogą również blokować dostępy z podejrzanych adresów IP, oznaczać alarmujące zdarzenia, zachęcać użytkowników do zmiany słabych haseł na mocniejsze oraz promować użycie uwierzytelnienia wieloskładnikowego.
AI pomaga również w wykrywaniu fałszywych alarmów, których obsługa może być wyczerpująca dla zespołów IT. Takie incydenty często odwracają uwagę od rzeczywistych zagrożeń, skupiając zasoby na nierzeczywistych atakach, co zwiększa ryzyko przeoczenia autentycznych zagrożeń. Liczbę fałszywych alarmów można natomiast zmniejszyć dzięki narzędziom cyberbezpieczeństwa, które używają sztucznej inteligencji do poprawy dokładności wykrywania zagrożeń. Takie rozwiązania mogą być zaprogramowane do automatycznego zarządzania zagrożeniami o niskim prawdopodobieństwie, co pozwala zaoszczędzić czas i zasoby standardowo poświęcane przez zespoły bezpieczeństwa.
Na koniec dodajmy, że AI jest również dobrym rozwiązaniem dla małych i średnich przedsiębiorstw, których do tej pory nie było stać na inwestycje w duży wewnętrzny zespół ds. cyberbezpieczeństwa. Obecnie takie przedsiębiorstwa mogą zainwestować w technologię cyberbezpieczeństwa napędzaną sztuczną inteligencją, która działa 24/7, oferując ciągły monitoring, poprawiając efektywność i obniżając koszty.
Autor
Grzegorz Kubera
Autor jest założycielem firmy doradczo-technologicznej. Pełnił funkcję redaktora naczelnego w magazynach i serwisach informacyjnych z branży ICT. Dziennikarz z ponad 13-letnim doświadczeniem i autor książek na temat start-upów oraz przedsiębiorczości.