ChatGPT bliver brugt til at lave 'kvalitetssvindel'

ChatGPT bliver brugt til at lave 'kvalitetssvindel'

Svindel på internettet kan blive meget farligere nu, takket være svindlere, der har uhindret adgang til ChatGPT, Techradar rapporter.

Den meget populære AI-drevne chatbot, ChatGPT, skaber konstant overskrifter. Med sin evne til at skrive alt fra debugging iframe-kode til kompleks computerprogrammeringskode, har ChatGPT etableret AI som årets teknologiske buzzword.

På trods af sin enorme popularitet og engagement har ChatGPT givet anledning til bekymringer om etik og regulering.

Læs også: ChatGPT-brugere 'Jailbreak' AI, Slip Dan Alter Ego løs

En nylig indberette udgivet af cybersikkerhedsforskere ved Norton Labs opstillede tre vigtige måder, hvorpå trusselsaktører kunne misbruge ChatGPT. Rapporten indikerede, at ChatGPT kunne blive misbrugt til at gøre internetsvindel på en mere effektiv måde: gennem generering af dybt falsk indhold, oprettelse af phishing og skabelse af malware.

"Norton Labs forventer, at svindlere også ser på mulighederne i store sprogmodeller og tester måder at forbedre deres cyberkriminalitet på for at gøre dem mere realistiske og troværdige," hedder det i rapporten.

Værktøjets kapacitet til at producere "misinformation af høj kvalitet eller desinformation i stor skala" kunne hjælpe botfarme med at intensivere uenighed mere effektivt. Dette kunne gøre det muligt for ondsindede aktører ubesværet at "indgyde tvivl og manipulere fortællinger på flere sprog," ifølge Norton.

Meget overbevisende 'misinformation'

At skrive forretningsplaner, strategier og virksomhedsbeskrivelser på en overbevisende måde er en børneleg for ChatGPT. Dette potentiale øger dog også risikoen for misinformation, som kan blive til en fidus.

"Ikke kun er indholdet genereret af ChatGPT nogle gange utilsigtet forkert, men en dårlig skuespiller kan også bruge disse værktøjer til med vilje at skabe indhold, der bruges til at skade folk på en eller anden måde," hedder det i rapporten.

Dets evne til at generere "misinformation af høj kvalitet eller desinformation i stor skala kan føre til mistillid og forme fortællinger på forskellige sprog."

Norton Labs

Norton Labs

At skrive anmeldelser af produkter er blevet stadig nemmere med ChatGPT, som ikke kan spores, fordi det genererer individuelle svar med den samme angivne information hver gang. På trods af sin evne udgør det udfordringen med at "spotte falske anmeldelser og sjuskede produkter."

Bekymrende nok kan værktøjet også bruges til mobning.

"At bruge disse værktøjer i chikanekampagner på sociale medier for at bringe folk til tavshed eller mobbe folk er også et muligt resultat, der ville have en afkølende effekt på tale," bemærker rapporten.

ChatGPT i phishing-kampagner

ChatGPT er særlig god til at generere menneskelignende tekst på forskellige sprog, hvor læserne ikke er klogere på, om teksten er produceret af AI eller menneskelig. Selv OpenAI, udvikleren af ​​ChatGPT, er ikke i stand til at identificere, om en tekst er skrevet af AI, og siger, at "det er umuligt pålideligt at detektere al AI-skrevet tekst."

Udsigten til, at ChatGPT bliver brugt i phishing-kampagner, er reel.

"Ondsindede aktører kan bruge ChatGPT til at lave phishing-e-mails eller opslag på sociale medier, der ser ud til at være fra legitime kilder, hvilket gør det sværere at opdage og forsvare sig mod disse typer trusler," hedder det i rapporten.

Efterhånden som dens popularitet stiger, er en sandsynlig konsekvens en stigning i antallet af "phishing-kampagner og deres sofistikerede."

Rapporten foreslog, at "ondsindede aktører kan fodre ChatGPT med eksempler fra det virkelige liv på ikke-ondsindede beskeder fra de virksomheder, de ønsker at efterligne, og beordre AI til at skabe nye baseret på samme stil med ondsindede hensigter."

Sådanne kampagner kan vise sig at være yderst vellykkede med hensyn til at bedrage enkeltpersoner til at afsløre personlige oplysninger eller sende penge til kriminelle enheder. Norton Labs rådede forbrugerne til at være forsigtige, når de "klikker på links eller giver personlige oplysninger."

ChatGPT kan skabe malware

Generering af kode og tilpasning af forskellige programmeringssprog er simpelthen en del af ChatGPTs tjenester. Så det er ikke så mærkeligt, at svindlere bruger det til at generere malware.

"Med den rigtige prompt kan nybegyndere malware-forfattere beskrive, hvad de vil gøre og få fungerende kodestykker," ifølge rapporten. Dette udgør en alvorlig trussel om malware-angreb, der er tilstrækkeligt avancerede til at skabe kaos.

"Et eksempel er at generere kode for at registrere, når en bitcoin-wallet-adresse kopieres til udklipsholderen, så den kan erstattes med en ondsindet adresse, der kontrolleres af malware-forfatteren," forklarede rapporten.

Som et resultat vil tilgængeligheden af ​​en sådan chatbot forårsage en stigning i sofistikeringen af ​​malware.

DEL DETTE OPSLAG

Tidsstempel:

Mere fra MetaNews