ChatGPT används för att göra "kvalitetsbedrägerier"

ChatGPT används för att göra "kvalitetsbedrägerier"

Bedrägerier på internet kan bli mycket farligare nu, tack vare att bedragare har obehindrad tillgång till ChatGPT, Techradar rapporter.

Den mycket populära AI-drivna chatboten, ChatGPT, skapar ständigt rubriker. Med sin förmåga att skriva allt från att felsöka iframe-kod till komplex datorprogrammeringskod har ChatGPT etablerat AI som årets tekniska modeord.

Trots sin enorma popularitet och engagemang har ChatGPT väckt oro kring etik och reglering.

Läs också: ChatGPT-användare 'Jailbreak' AI, Släpp loss Dan Alter Ego

En nyligen rapport publicerad av cybersäkerhetsforskare vid Norton Labs presenterade tre viktiga sätt som hotaktörer kan missbruka ChatGPT. Rapporten indikerade att ChatGPT kunde missbrukas för att göra internetbedrägerier på ett mer effektivt sätt: genom generering av djupt falskt innehåll, skapande av nätfiske och skapande av skadlig programvara.

"Norton Labs förväntar sig att bedragare också tittar på kapaciteten hos stora språkmodeller och testar sätt att förbättra sina cyberbrott för att göra dem mer realistiska och trovärdiga", heter det i rapporten.

Verktygets förmåga att producera "desinformation av hög kvalitet eller desinformation i stor skala" skulle kunna hjälpa botfarmer att intensifiera oenigheten mer effektivt. Detta kan göra det möjligt för illvilliga aktörer att utan ansträngning "injaga tvivel och manipulera berättelser på flera språk", enligt Norton.

Mycket övertygande "felinformation"

Att skriva affärsplaner, strategier och företagsbeskrivningar på ett övertygande sätt är en barnlek för ChatGPT. Men denna potential ökar också riskerna för desinformation, som kan förvandlas till en bluff.

"Innehållet som genereras av ChatGPT är inte bara oavsiktligt felaktigt, utan en dålig skådespelare kan också använda dessa verktyg för att avsiktligt skapa innehåll som används för att skada människor på något sätt", stod det i rapporten.

Dess förmåga att generera "desinformation av hög kvalitet eller desinformation i stor skala kan leda till misstro och forma berättelser på olika språk."

Norton Labs

Norton Labs

Att skriva recensioner av produkter har blivit allt lättare med ChatGPT, som inte kan spåras eftersom det genererar individuella svar med samma tillhandahållna information varje gång. Trots sin förmåga innebär det utmaningen att "upptäcka falska recensioner och fula produkter."

Oroväckande nog kan verktyget också användas för mobbning.

"Att använda dessa verktyg i trakasseringskampanjer på sociala medier för att tysta eller mobba människor är också ett möjligt resultat som skulle ha en nedslående effekt på talet", konstaterar rapporten.

ChatGPT i nätfiskekampanjer

ChatGPT är särskilt bra på att generera mänskligt klingande text på olika språk, med läsare som inte är klokare på om texten är producerad av AI eller människa. Inte ens OpenAI, utvecklaren av ChatGPT, kan identifiera om en text skrevs av AI, och säger att "det är omöjligt att på ett tillförlitligt sätt upptäcka all AI-skriven text."

Möjligheterna att ChatGPT används i nätfiskekampanjer är verkliga.

Skadliga aktörer kan använda ChatGPT för att skapa nätfiske-e-postmeddelanden eller inlägg på sociala medier som verkar komma från legitima källor, vilket gör det svårare att upptäcka och försvara sig mot dessa typer av hot, heter det i rapporten.

När dess popularitet ökar är en trolig följd en ökning av antalet "nätfiskekampanjer och deras sofistikerade".

Rapporten föreslog att "skadliga aktörer kan mata ChatGPT med verkliga exempel på icke-skadliga meddelanden från de företag som de vill utge sig för och beordra AI att skapa nya baserat på samma stil med skadlig avsikt."

Sådana kampanjer kan visa sig vara mycket framgångsrika för att lura individer att avslöja personlig information eller skicka pengar till kriminella enheter. Norton Labs rådde konsumenter att vara försiktiga när de "klickar på länkar eller tillhandahåller personlig information."

ChatGPT kan skapa skadlig programvara

Att generera kod och anpassa olika programmeringsspråk är helt enkelt en del av ChatGPTs tjänster. Så det är inte konstigt att bedragare använder det för att generera skadlig programvara.

"Med rätt uppmaning kan nybörjare som författare av skadlig programvara beskriva vad de vill göra och få fungerande kodavsnitt", enligt rapporten. Detta utgör ett allvarligt hot om skadliga attacker som är tillräckligt avancerade för att orsaka förödelse.

"Ett exempel är att generera kod för att upptäcka när en bitcoin-plånboksadress kopieras till urklippet så att den kan ersättas med en skadlig adress som kontrolleras av skadlig programvara", förklarade rapporten.

Som ett resultat kommer tillgängligheten av en sådan chatbot att orsaka en ökning av sofistikeringen av skadlig programvara.

DELA DETTA INLÄGG

Tidsstämpel:

Mer från MetaNews