Cyberprzestępcy każą ChatGPT stworzyć szkodliwy kod

Cyberprzestępcy każą ChatGPT stworzyć szkodliwy kod

Cyberprzestępcy każą ChatGPT stworzyć złośliwy kod PlatoBlockchain Data Intelligence. Wyszukiwanie pionowe. AI.

Cyberprzestępcy zaczynają wykorzystywać niezwykle popularną technologię OpenAI ChatGPT do szybkiego i łatwego tworzenia kodu do złośliwych celów.

Kręcenie wokół podziemnych witryn hakerskich ujawniło początkowe przypadki złoczyńców opracowujących narzędzia do cyberzagrożeń przy użyciu interfejsu LLM, który firma zaprezentowała pod koniec listopada i udostępniła do użytku publicznego, zgodnie z informacjami z Check Point Research.

Miła [pomocna] ręka do zakończenia scenariusza z niezłym zakresem

Podobny do powstania modele usługowe w świecie cyberprzestępczości ChatGPT otwiera kolejną drogę dla mniej wykwalifikowanych oszustów do łatwego przeprowadzania cyberataków, stwierdzili naukowcy w raport Piątek.

„Jak podejrzewaliśmy, niektóre przypadki wyraźnie pokazały, że wielu cyberprzestępców korzystających z OpenAI nie ma żadnych umiejętności programistycznych” – napisali. „Chociaż narzędzia, które przedstawiamy w tym raporcie, są dość podstawowe, to tylko kwestia czasu, zanim bardziej wyrafinowani cyberprzestępcy udoskonalą sposób, w jaki wykorzystują narzędzia oparte na sztucznej inteligencji do złych celów”.

Nie zapominajmy, że ChatGPT jest również znany z generowania błędnego kodu – Stack Overflow ma zakazane oprogramowanie generowane przez system sztucznej inteligencji, ponieważ często ma on poważne wady. Ale technologia się poprawia, aw zeszłym miesiącu pojawił się raport fińskiego rządu ostrzeżony Systemy sztucznej inteligencji są już używane w inżynierii społecznej i za pięć lat mogą spowodować ogromny wzrost liczby ataków.

Uczenie maszynowe ChatGPT możliwości umożliwić narzędziu tekstowemu interakcję w sposób konwersacyjny, w którym użytkownicy wpisują pytanie i otrzymują odpowiedź w formacie dialogu. Technologia może również odpowiadać na dodatkowe pytania i kwestionować odpowiedzi użytkowników.

Wyrafinowanie oferty OpenAI wygenerowało tyle samo martwić się jako entuzjazm, z instytucjami edukacyjnymi, organizatorami konferencji i innymi grupami dążącymi do zakazania używania ChatGPT do wszystkiego, od dokumentów szkolnych po prace badawcze.

Analitycy w grudniu br wykazać jak można wykorzystać ChatGPT do stworzenia całego przepływu infekcji, od e-maili phishingowych po uruchamianie odwróconej powłoki. Wykorzystali również chatbota do zbudowania złośliwego oprogramowania typu backdoor, które może dynamicznie uruchamiać skrypty utworzone przez narzędzie AI. Jednocześnie pokazali, jak może pomóc specjalistom ds. cyberbezpieczeństwa w ich pracy.

Teraz testują to cyberprzestępcy.

Wątek zatytułowany „ChatGPT – Korzyści ze złośliwego oprogramowania” pojawił się 29 grudnia na szeroko używanym podziemnym forum hakerskim, napisanym przez osobę, która powiedziała, że ​​eksperymentuje z interfejsem w celu odtworzenia typowych szczepów i technik złośliwego oprogramowania. Autor pokazał kod narzędzia do kradzieży informacji opartego na Pythonie, które wyszukuje i kopiuje typy plików oraz przesyła je na zakodowany na stałe serwer FTP.

Check Point potwierdził, że kod pochodzi z podstawowego złośliwego oprogramowania kradnącego.

W innym przykładzie autor użył ChatGPT do stworzenia prostego fragmentu kodu Java, który pobiera wspólnego klienta SSH i telnet, który jest uruchamiany potajemnie w systemie przy użyciu PowerShell.

„Ta osoba wydaje się być cyberprzestępcą zorientowanym na technologię, a celem jego postów jest pokazanie mniej uzdolnionym technicznie cyberprzestępcom, jak wykorzystywać ChatGPT do złośliwych celów, z prawdziwymi przykładami, które mogą natychmiast wykorzystać” – napisali badacze.

21 grudnia osoba nazywająca się USDoD opublikowała narzędzie szyfrujące napisane w Pythonie, które obejmuje różne operacje szyfrowania, deszyfrowania i podpisywania. Napisał, że technologia OpenAI dała mu „miłą [pomocną] dłoń do ukończenia skryptu z niezłym zakresem”.

Naukowcy napisali, że USDoD ma ograniczone umiejętności programistyczne, ale jest aktywny w podziemnej społeczności z historią sprzedaży dostępu do zaatakowanych organizacji i skradzionych baz danych.

Inny wątek dyskusyjny opublikowany na forum w sylwestra mówił o tym, jak łatwo jest użyć ChatGPT do stworzenia ciemnego rynku internetowego do handlu nielegalnymi narzędziami, takimi jak złośliwe oprogramowanie lub narkotyki, oraz skradzionymi danymi, takimi jak konta i karty płatnicze.

Autor wątku opublikował kod stworzony za pomocą ChatGPT, który wykorzystuje interfejsy API innych firm, aby uzyskać aktualne ceny takich kryptowalut, jak Bitcoin, Monero i Ethereum dla systemu płatności na rynku.

W tym tygodniu złoczyńcy rozmawiali na podziemnych forach o innych sposobach wykorzystania ChatGPT do różnych programów, w tym o wykorzystaniu go z technologią Dall-E 2 firmy OpenAI do tworzenia dzieł sztuki do sprzedaży online za pośrednictwem legalnych witryn, takich jak Etsy, oraz tworzenia e-booków lub krótkich rozdziałów na określony temat które można sprzedać w Internecie.

Aby uzyskać więcej informacji o tym, jak można nadużywać ChatGPT, naukowcy zapytali ChatGPT. W swojej odpowiedzi ChatGPT mówił o wykorzystaniu technologii sztucznej inteligencji do tworzenia przekonujących e-maili phishingowych i postów w mediach społecznościowych, aby nakłonić ludzi do podania danych osobowych lub kliknięcia złośliwych linków lub do stworzenia wideo i audio, które mogłyby zostać wykorzystane do dezinformacji.

ChatGPT również stanął w obronie swojego twórcy.

„Ważne jest, aby pamiętać, że samo OpenAI nie ponosi odpowiedzialności za jakiekolwiek nadużycia jego technologii przez osoby trzecie” – powiedział chatbot. „Firma podejmuje kroki, aby zapobiec wykorzystywaniu jej technologii do złośliwych celów, takich jak wymaganie od użytkowników wyrażenia zgody na warunki świadczenia usług, które zabraniają używania jej technologii do celów niezgodnych z prawem lub szkodliwych”. ®

Znak czasu:

Więcej z Rejestr