Lokalni svet v Braziliji sprejme pisni predlog ChatGPT

Lokalni svet v Braziliji sprejme pisni predlog ChatGPT

Local council in Brazil passes ChatGPT-written proposal PlatoBlockchain Data Intelligence. Vertical Search. Ai.

Svet Porto Alegreja, mesta v južni Braziliji, je potrdil zakonodajo, ki jo je pripravil ChatGPT. 

Odlok naj bi preprečil, da bi mesto davkoplačevalcem zaračunalo zamenjavo vodomerov, ki bi jih ukradli tatovi. 36 članov sveta je soglasno sprejelo predlog, ki je začel veljati konec novembra. 

Toda večina jih ni vedela, da je besedilo za predlog ustvaril klepetalni robot z umetno inteligenco, dokler svetnik Ramiro Rosário ni priznal, da je za pisanje uporabil ChatGPT.

"Če bi to razkril prej, predlog zagotovo ne bi šel niti na glasovanje," je dejal. Rekel Associated Press.

To je prva zakonodaja, ki jo je napisala umetna inteligenca in so jo sprejeli zakonodajalci, ki jih mi, jastrebi, poznamo; če poznate kakšne druge robotsko napisane zakone, pogodbe ali podobne zanimive stvari, to storite sporočite nam. Če želite biti jasni, ChatGPT ni bil pozvan, naj pripravi idejo, ampak je bil uporabljen kot orodje za pisanje drobnega tiska. Rosário je dejal, da je uporabil poziv s 49 besedami, da je ukazal nerednemu klepetalnemu robotu OpenAI, naj ustvari celoten osnutek predloga. 

Predsednik mestnega sveta Hamilton Sossmeier sprva ni odobraval metod svojega kolega in je menil, da je Rosário postavil "nevaren precedens". Kasneje pa si je premislil in dejal: "Začel sem bolj poglobljeno brati in videl, da bo na žalost ali na srečo to trend."

Sossmeier ima morda prav. V ZDA sta senator zvezne države Massachusetts Barry Finegold in predstavnik Josh Cutler v začetku tega leta prišla na naslovnice svojih račun z naslovom: "Zakon, pripravljen s pomočjo ChatGPT za urejanje generativnih modelov umetne inteligence, kot je ChatGPT."

Par verjame, da bi morali inženirji strojnega učenja vključiti digitalne vodne žige v katero koli besedilo, ki ga ustvarijo veliki jezikovni modeli, da bi odkrili plagiat (in domnevno omogočili ljudem, da vedo, kdaj so stvari izdelane računalniško); pridobiti izrecno soglasje ljudi pred zbiranjem ali uporabo njihovih podatkov za usposabljanje nevronskih mrež; in izvajajo redne ocene tveganja svoje tehnologije.

Uporaba velikih jezikovnih modelov, kot je ChatGPT, za pisanje pravnih dokumentov je trenutno kontroverzna in tvegana, zlasti ker sistemi ponavadi izdelujejo informacije in halucinirajo. Junija sta bila odvetnika Steven Schwartz in Peter LoDuca, ki zastopata Levidow, Levidow & Oberman, odvetniško pisarno s sedežem v New Yorku, tarča kritik, ker sta v tožbi navajala lažne pravne primere, ki jih je izmislil ChatGPT.

Tožili so kolumbijsko letalsko družbo Avianca v imenu potnika, ki se je poškodoval na letalu leta 2019, zaradi česar se je ChatGPT spomnil podobnih primerov, ki jih je navedel, kar je tudi storil, a si je nekatere tudi preprosto zamislil. Takrat sta Schwartz in LoDuca za svojo napako krivila nerazumevanje omejitev chatbota in trdila, da nista vedela, da lahko halucinira informacije.

Sodnik Kevin Castel z južnega okrožnega sodišča v New Yorku realizirano primeri so bili lažni, ko odvetniki nasprotne strani niso našli citiranih sodnih dokumentov, Schwartza in LoDuco pa so prosili, naj navedeta svoje vire. Castel je oba kaznoval s 5,000 $ denarne kazni in tožbo v celoti zavrnil. 

"Lekcija tukaj je, da stvari, za katere je odgovoren odvetnik, ne morete prenesti na stroj," Stephen Wu, delničar v Silicon Valley Law Group in predsednik Nacionalnega inštituta za umetno inteligenco in robotiko ameriške odvetniške zbornice, prej povedal Register.

Rosário pa meni, da je tehnologijo mogoče učinkovito uporabiti. »Prepričan sem, da … bo človeštvo doživelo novo tehnološko revolucijo. Vsa orodja, ki smo jih razvili kot civilizacija, lahko uporabimo za zlo in dobro. Zato moramo pokazati, kako ga je mogoče uporabiti za dobro,« je dejal. ®

PS: Amazon razglasitve njegov Q chat bot pri re:Invent ta teden, digitalni pomočnik za urejanje kode, uporabo virov AWS in več. Na voljo je v predogledu in ker gre za sistem LLM, smo si predstavljali, da bi si stvari izmislil in naredil stvari narobe. In imeli smo prav: interni dokumenti razpoka za Platformer opisujejo nevronsko mrežo, ki »doživlja hude halucinacije in uhaja zaupne podatke«.

Časovni žig:

Več od Register