Czym jest vibe-hacking i dlaczego sztuczna inteligencja może sprawić, że stanie się bardziej powszechny?

Jednym z efektów ubocznych sztucznej inteligencji jest to, że daje ona grupom hakerów narzędzia niezbędne do tworzenia wyrafinowanych zagrożeń. To druga strona medalu i choć może się to wydawać paradoksalne, wspólne wysiłki firm tworzących modele sztucznej inteligencji mogą łagodzić skutki takich incydentów.
Firma Anthropic , która opracowała Claude AI , ujawniła w swoim sierpniowym raporcie Threat Intelligence, że przechwyciła, a następnie zablokowała kilka ataków przestępczych zaprojektowanych z wykorzystaniem swojego generatywnego modelu sztucznej inteligencji. Były to techniki hakowania wibracji, wykorzystywane głównie do atakowania firm amerykańskich, oraz inne techniki wspierające oszukańcze działania północnokoreańskich pracowników, którzy starali się o uzyskanie lub utrzymanie pracy w dużych amerykańskich firmach.
Hackowanie wibracjiVibehacking to forma zaawansowanej inżynierii społecznej , która manipuluje emocjami ludzi, aby wpływać na ich decyzje i zachowania. Praktyczne zastosowania są liczne, ale przede wszystkim polegają na rozpowszechnianiu ukierunkowanych treści, zwłaszcza tekstowych i wideo, w celu zmiany nastroju odbiorców i ograniczenia ich zdolności krytycznego myślenia .
Vibehacking jest również stosowany do targetowania behawioralnego. Polega na badaniu cyfrowych nawyków ofiar i wysyłaniu do nich szczegółowych wiadomości lub treści dokładnie w momentach ich największej podatności.
Co więcej, w mediach społecznościowych boty wpływają na algorytmy , aby zapewnić większą widoczność treści o wysokiej wartości ideologicznej lub dezinformacyjnej w kanałach użytkowników. Techniki vibehackingu wdrożone z wykorzystaniem Claude AI pozwoliły grupie hakerów na wykradanie danych z 17 różnych amerykańskich organizacji, a następnie usiłowanie wyłudzenia płatności do 500 000 dolarów w celu uniemożliwienia ich publikacji online.
Sprawa Korei PółnocnejW tym samym raporcie Anthropic ujawnia, że model sztucznej inteligencji został wykorzystany przez ponad 500 północnokoreańskich pracowników do manipulowania ich umiejętnościami technicznymi i językowymi w celu uzyskania lub utrzymania pracy w różnych amerykańskich firmach. Anthropic nie podaje konkretnych liczb, ale zauważa, że niektóre z tych firm znajdują się wśród 500 największych amerykańskich firm pod względem przychodów.
Koreańczycy z Północy wykorzystywali Claude AI do podszywania się pod ekspertów w dziedzinie programowania i chwalenia się znajomością języków, których nie posiadali, co pozwalało im uniknąć zdalnych rozmów kwalifikacyjnych. Zebrane przez nich pieniądze były następnie przekazywane reżimowi, a zdobyte stanowiska zawodowe służyły również do gromadzenia informacji wywiadowczych i napędzania szpiegostwa przemysłowego .
PrecedensyCyberprzestępcy rutynowo wykorzystują sztuczną inteligencję , aby zwiększyć zarówno liczbę, jak i jakość zagrożeń. Przypadków jest wiele, a dotknęło to nawet Włochy: w lipcu 2024 roku , wykorzystując techniki deepfake, hakerzy podszywali się pod głos prezesa Ferrari, Benedetto Vigny, aby wyłudzić pieniądze od firmy.
Wracając do nowszych zastosowań, w czerwcu ubiegłego roku OpenAI (twórca ChatGpt) zablokował kilka kont powiązanych z oszustwem na pracownikach z Korei Północnej. Nie jest jasne, czy cyberprzestępcy później skorzystali z Claude AI, czy też zawsze operowali jednocześnie, wykorzystując wiele modeli LLM . Nie zmienia to jednak skali problemu. Zanim LLM stały się powszechne, takie oszustwa byłyby nie do pomyślenia.
Opieka to wspólny wysiłek
LLM, czyli „silniki” napędzające generatywne AI, takie jak Claude AI, ChatGpt, Perplexity i inne, to narzędzia, które przyczyniają się do sukcesu cyberprzestępczości , a także zwiększają możliwości tych, którzy korzystają z nich w sposób bardziej etyczny i ostrożny.
27 sierpnia Anthropic ogłosiło utworzenie Rady Doradczej ds. Bezpieczeństwa Narodowego i Sektora Publicznego, w skład której wchodzą byli senatorowie i były zastępca dyrektora CIA, David Cohen. Misją rady jest prowadzenie dogłębnych badań i wzmacnianie mechanizmów obronnych przed nadużyciami sztucznej inteligencji , a także dostrzeganie potrzeby zwalczania jej wykorzystywania przez cyberprzestępców. Oprócz promowania rygorystycznych standardów cyberbezpieczeństwa , Rada Doradcza ds. Bezpieczeństwa Narodowego i Sektora Publicznego doradza również w zakresie integracji sztucznej inteligencji z działaniami rządu.
Rozwiązania z zakresu cyberbezpieczeństwa coraz częściej wykorzystują sztuczną inteligencję do celów predykcyjnych, aby wykrywać potencjalne zagrożenia , zanim dotrą do celu . Z drugiej strony, cyberprzestępcy wykorzystują ją do przewidywania i pokonywania możliwości obronnych potencjalnych ofiar. Reagowanie na ataki cyberprzestępców wspomagane sztuczną inteligencją wymaga systemów obronnych wspomaganych sztuczną inteligencją, a przede wszystkim ścisłej współpracy między twórcami i producentami rozwiązań i usług AI a organami ścigania.
Dyrektywy krajowe i ponadnarodowe również podążają w tym kierunku. W Europie obowiązuje Dyrektywa w sprawie Bezpieczeństwa Sieci i Informacji 2 ( NIS2 ), a w Stanach Zjednoczonych zbiór przepisów, rozporządzeń wykonawczych i ram prawnych nakłada na firmy obowiązek ujawniania incydentów cyberbezpieczeństwa i współpracy z właściwymi organami . Jednym z celów jest utworzenie międzynarodowej sieci współpracy w celu zwalczania cyberprzestępczości.
La Repubblica