ChatGPT se uporablja za "kakovostne prevare"

ChatGPT se uporablja za "kakovostne prevare"

Prevare na internetu lahko zdaj postanejo veliko bolj nevarne, zahvaljujoč goljufom, ki imajo neoviran dostop do ChatGPT, Techradar Poročila.

Široko priljubljen chatbot, ki ga poganja umetna inteligenca, ChatGPT, nenehno prihaja na naslovnice. S svojo zmožnostjo pisanja vsega, od odpravljanja napak kode iframe do zapletene kode za računalniško programiranje, je ChatGPT uveljavil AI kot tehnološko modno besedo leta.

Kljub veliki priljubljenosti in angažiranosti je ChatGPT povzročil pomisleke glede etike in predpisov.

Preberite tudi: Uporabniki ChatGPT 'Jailbreak' AI, sprostite Dan Alter Ego

Nedavna poročilo ki so jih objavili raziskovalci kibernetske varnosti pri Norton Labs, so predstavili tri ključne načine, kako lahko akterji groženj zlorabijo ChatGPT. Poročilo navaja, da bi lahko ChatGPT zlorabili za učinkovitejše internetne prevare: z ustvarjanjem globoko ponarejene vsebine, ustvarjanjem lažnega predstavljanja in ustvarjanjem zlonamerne programske opreme.

»Norton Labs predvideva, da prevaranti opazujejo tudi zmogljivosti velikih jezikovnih modelov in preizkušajo načine za izboljšanje svojih kibernetskih zločinov, da bi bili bolj realistični in verodostojni,« je navedeno v poročilu.

Zmogljivost orodja za ustvarjanje »visokokakovostnih dezinformacij ali dezinformacij v velikem obsegu« bi lahko farmam botov pomagala pri učinkovitejšem povečevanju razdora. To bi lahko zlonamernim akterjem omogočilo, da brez truda "vzbudijo dvom in manipulirajo s pripovedmi v več jezikih", pravi Norton.

Zelo prepričljiva 'dezinformacija'

Pisanje poslovnih načrtov, strategij in opisov podjetij na prepričljiv način je za ChatGPT otročja igra. Vendar ta možnost povečuje tudi tveganje napačnih informacij, ki se lahko spremenijo v prevaro.

"Ne samo, da je vsebina, ki jo ustvari ChatGPT, včasih nenamerno napačna, ampak lahko slab igralec ta orodja uporabi tudi za namerno ustvarjanje vsebine, ki se uporablja za škodovanje ljudem na nek način," je navedeno v poročilu.

Njegova sposobnost ustvarjanja »visokokakovostnih dezinformacij ali dezinformacij v velikem obsegu bi lahko povzročila nezaupanje in oblikovala pripovedi v različnih jezikih«.

Laboratoriji Norton

Laboratoriji Norton

Pisanje mnenj o izdelkih je postalo vse lažje s ChatGPT, ki mu ni mogoče slediti, ker ustvari posamezne odgovore z vsakič enakimi informacijami. Kljub svoji zmožnosti predstavlja izziv »odkrivanje lažnih ocen in slabih izdelkov«.

Skrb vzbujajoče je, da se orodje lahko uporablja tudi za ustrahovanje.

"Uporaba teh orodij v kampanjah nadlegovanja na družbenih medijih za utišanje ali ustrahovanje ljudi je prav tako možen rezultat, ki bi imel srhljiv učinek na govor," ugotavlja poročilo.

ChatGPT v lažnih kampanjah

ChatGPT je še posebej dober pri ustvarjanju človeško zvenečega besedila v različnih jezikih, pri čemer bralci ne vedo, ali je besedilo ustvaril AI ali človek. Tudi OpenAI, razvijalec ChatGPT, ne more ugotoviti, ali je besedilo napisal umetna inteligenca, in trdi, da "je nemogoče zanesljivo zaznati vse besedilo, napisano z umetno inteligenco."

Možnost uporabe ChatGPT v lažnih kampanjah je realna.

»Zlonamerni akterji lahko uporabijo ChatGPT za ustvarjanje lažnih e-poštnih sporočil ali objav v družabnih medijih, za katere se zdi, da izvirajo iz zakonitih virov, zaradi česar je težje odkriti tovrstne grožnje in se braniti pred njimi,« je navedeno v poročilu.

Ker se njegova priljubljenost povečuje, je verjetna posledica povečanje števila »lažnega predstavljanja in njihove prefinjenosti«.

Poročilo predlaga, da "lahko zlonamerni akterji ChatGPT nahranijo z resničnimi primeri nezlonamernih sporočil podjetij, za katera se želijo predstavljati, in umetni inteligenci naročijo, naj ustvari nova na podlagi istega sloga z zlonamernimi nameni."

Takšne kampanje bi se lahko izkazale za zelo uspešne pri zavajanju posameznikov v razkritje osebnih podatkov ali pošiljanje denarja kriminalnim subjektom. Norton Labs je potrošnikom svetoval, naj bodo previdni pri "klikanju na povezave ali posredovanju osebnih podatkov".

ChatGPT lahko ustvari zlonamerno programsko opremo

Ustvarjanje kode in prilagajanje različnih programskih jezikov je preprosto sestavni del storitev ChatGPT. Zato ni čudno, da ga goljufi uporabljajo za ustvarjanje zlonamerne programske opreme.

"S pravim pozivom lahko začetniki avtorji zlonamerne programske opreme opišejo, kaj želijo narediti, in dobijo delujoče delčke kode," je navedeno v poročilu. To predstavlja resno grožnjo napadov zlonamerne programske opreme, ki so dovolj napredni, da povzročijo opustošenje.

"Eden od primerov je ustvarjanje kode za zaznavanje, kdaj je naslov denarnice bitcoin kopiran v odložišče, tako da ga je mogoče nadomestiti z zlonamernim naslovom, ki ga nadzira avtor zlonamerne programske opreme," je pojasnjeno v poročilu.

Posledično bo razpoložljivost takšnega chatbota povzročila povečanje prefinjenosti zlonamerne programske opreme.

DELI TO OBJAVO

Časovni žig:

Več od MetaNovice