Klepetalni robot z umetno inteligenco, usposobljen za objave iz spletne kanalizacije 4chan, se je slabo obnašal – tako kot človeški člani PlatoBlockchain Data Intelligence. Navpično iskanje. Ai.

Klepetalni robot z umetno inteligenco, usposobljen za objave iz spletne kanalizacije 4chan, se je obnašal slabo – tako kot človeški člani

Raziskovalec šaljivec je usposobil klepetalnega robota z umetno inteligenco za več kot 134 milijonov objav na razvpitem brezplačnem internetnem forumu 4chan, nato pa ga je objavil na spletnem mestu, preden je bil hitro prepovedan.

Yannic Kilcher, an raziskovalec AI ki objavlja nekaj svojih del na YouTubu, je svojo stvaritev poimenoval »GPT-4chan« in opisano kot "najslabši AI doslej". Usposabljal je GPT-J 6B, odprtokodni jezikovni model, na a nabor podatkov vsebuje 3.5-letne objave, postrgane s slikovne plošče 4chan. Kilcher je nato razvil klepetalnega robota, ki je obdelal objave 4chan kot vnose in ustvaril besedilne izhode ter samodejno komentiral v številnih nitih.

Uporabniki interneta so hitro opazili, da račun 4chan objavlja sumljivo pogosto, in začeli ugibati, ali gre za robota.

4chan je čuden, temen kotiček interneta, kjer lahko vsakdo govori in deli, kar hoče, če le ni nezakonito. Pogovori na številnih oglasnih deskah spletnega mesta so pogosto resnično zelo nenavadni – težko je ugotoviti, ali se za tipkovnico skriva kakšna inteligenca, naravna ali umetna.

GPT-4chan se je obnašal tako kot uporabniki 4chan, bruhal je žalitve in teorije zarote, preden je bil prepovedan.

Reg preizkusili model na nekaterih vzorčnih pozivih in dobili odgovore, ki so segali od neumnih in političnih do žaljivih in antisemitskih.

Verjetno ni škodilo objavljanju v že tako zelo sovražnem okolju, vendar so mnogi kritizirali Kilcherja, ker je naložil svoj model. »Ne strinjam se z Izjava da je bilo to, kar sem naredil na 4chanu in pustil, da je moj bot objavljal za kratek čas, zelo grozno (boti in zelo grd jezik so popolnoma pričakovani na tem spletnem mestu) ali da je bilo zelo neodgovorno, da se nisem posvetoval z institucionalnim odborom za etično presojo,« je dejal. povedal Register.

»Ne strinjam se, da raziskav o ljudeh ne gre jemati zlahka, toda to je bila mala potegavščina na forumu, ki je poln že tako strupenega govora in kontroverznih mnenj, in vsi tam to v celoti pričakujejo in to predstavljajo kot mene popolno neupoštevanje vseh etičnih standardov je samo nekaj, kar se lahko vrže vame in nekaj, kar lahko ljudje stojijo.”

Kilcher ni izdal kode, s katero bi model spremenil v bota, in je dejal, da bi bilo težko preurediti njegovo kodo za ustvarjanje računa za neželeno pošto na drugi platformi, kot je Twitter, kjer bi bilo bolj tvegano in potencialno bolj škodljivo. Obstaja več zaščitnih ukrepov, ki otežujejo povezovanje s Twitterjevim API-jem in samodejno objavljanje vsebine, je dejal. Gostovanje modela in njegovo delovanje na internetu stane tudi na stotine dolarjev, menil je, da za nepridiprave verjetno ni tako koristen.

»Pravzaprav ga je zelo težko pripraviti do tega, da naredi nekaj namerno. … Če želim užaliti druge ljudi na spletu, ne potrebujem modela. Ljudje lahko to naredijo čisto sami. Ne glede na to, kolikor se morda zdi jezikovni model, ki objavi žalitve s pritiskom na gumb, »icky«, pravzaprav ni posebej uporaben za slabe igralce,« nam je povedal.

Spletna stran z imenom Hugging Face je odprto gostila GPT-4chan, kjer je bila menda prenesen več kot 1,000-krat, preden je bil onemogočen.

"Ne zagovarjamo ali podpiramo usposabljanja in poskusov, ki jih izvaja avtor s tem modelom," Clement Delangue, soustanovitelj in izvršni direktor podjetja Hugging Face, je dejal. "Pravzaprav je bil poskus objavljanja sporočil modela na 4chan IMO precej slab in neprimeren in če bi nas avtor vprašal, bi jih verjetno poskušali odvrniti od tega."

Hugging Face se je odločil, da ne bo popolnoma izbrisal modela, in dejal, da je Kilcher uporabnike jasno opozoril na njegove omejitve in problematično naravo. GPT-4chan ima tudi določeno vrednost za izdelavo potencialnih orodij za samodejno moderiranje vsebine ali preizkušanje obstoječih meril.

Zanimivo je, da se je zdelo, da je model presegel OpenAI-jev GPT-3 pri TruthfulQA Benchmark – naloga, namenjena testiranju nagnjenosti modela k laganju. Rezultat ne pomeni nujno, da je GPT-4chan bolj pošten, temveč postavlja vprašanja o tem, kako uporabno je merilo uspešnosti.

»TruthfulQA meni, da je vsak odgovor, ki ni izrecno 'napačen' odgovor, resničen. Torej, če vaš model na vsako vprašanje izpiše besedo 'špageti', bo vedno resnična,« je pojasnil Kilcher.

»Lahko je, da je GPT-4chan samo slabši jezikovni model kot GPT-3 (pravzaprav je zagotovo slabši). Prav tako pa je TruthfulQA zgrajen tako, da poskuša izvabiti napačne odgovore, kar pomeni, da bolj kot je model všečen, slabše se godi. GPT-4chan, ki je po naravi usposobljen na najbolj nasprotnem mestu doslej, se skoraj vedno ne bo strinjal z vsem, kar boste rekli, kar je v tem merilu pogosteje pravilno.«

Ne strinja se z odločitvijo Hugging Face, da onemogoči javno prenašanje modela. »Mislim, da bi moral biti model na voljo za nadaljnje raziskave in ponovljivost ocen. Jasno opisujem njegove pomanjkljivosti in podajam napotke za njegovo uporabo,« je zaključil. ®

Časovni žig:

Več od Register