Odpustili so me, pravi inženir, ki je trdil, da je Googlov klepetalni robot čuteča podatkovna inteligenca PlatoBlockchain. Navpično iskanje. Ai.

Odpustili so me, pravi inženir, ki je trdil, da je Googlov chatbot čuteč

Na kratko Google naj bi odpustil Blakea Lemoina, inženirja, ki je bil poslan na upravni dopust, potem ko je vztrajal, da je klepetalni robot spletnega velikana LaMDA čuteč.

Lemoine ni imel težav zaradi svojega kontroverznega mnenja o manekenki, ki je dvignilo obrvi. Namesto tega je bil kaznovan zaradi kršitve Googlove politike zaupnosti. On domnevno je povabil odvetnika, da oceni potencialne zakonske pravice za LaMDA, in se pogovarjal s predstavnikom predstavniškega doma, češ da je Google neetičen.

Googlov tiskovni predstavnik Rekel glasilo Big Technology se je odločilo prekiniti njegovo zaposlitev, saj je Lemoine še naprej kršil "politike zaposlovanja in varnosti podatkov", kar je ogrožalo poslovne skrivnosti.

»Če zaposleni izraža pomisleke glede našega dela, kot je storil Blake, jih obsežno pregledamo. Ugotovili smo, da so Blakeove trditve, da je LaMDA čuteč, popolnoma neutemeljene, in smo si več mesecev prizadevali, da bi to razjasnili z njim. Te razprave so bile del odprte kulture, ki nam pomaga pri odgovornem inoviranju,« je dejal tiskovni predstavnik.

»Torej je obžalovanja vredno, da se je Blake kljub dolgotrajnemu ukvarjanju s to temo še vedno odločil vztrajno kršiti jasne politike zaposlovanja in varnosti podatkov, ki vključujejo potrebo po varovanju informacij o izdelkih. Nadaljevali bomo s skrbnim razvojem jezikovnih modelov in Blaku želimo vse dobro.«

Številni strokovnjaki pri Googlu ter v akademskih krogih in industriji so dvomili o tem, ali je LaMDA ali kateri koli obstoječi klepetalni robot z umetno inteligenco čuten. Jezikovni modeli se naučijo matematičnih odnosov med besedami in so dobri pri posnemanju človeškega jezika, ne da bi ga razumeli. Nihče od njih ni zares inteligenten, kaj šele zavesten.

Zakaj razvijalci ne morejo izvajati odprtokodne kode AI

Kakšen smisel ima objavljanje kode za modele strojnega učenja, če razvijalci nimajo potrebnih virov za njeno izvajanje?

Znano je, da je programsko opremo z umetno inteligenco težko razviti in preizkusiti sami, tudi če je odprtokodna. Delčki vira so izpuščeni ali pa nabori podatkov, potrebni za usposabljanje modela, niso na voljo. Včasih so ti deli dostopni, vendar razvijalci nimajo računalniške moči za upravljanje tako velikih sistemov.

Vzemi Metino Odprite Pretrened Transformer, na primer. Največja različica jezikovnega modela vsebuje 175 milijard parametrov. Čeprav je oglaševalski gigant izdal svojo kodo, jih le malo bo imelo pri roki dovolj čipov za usposabljanje in uporabo modela iz nič, Matt Asay, ki vodi partnersko trženje pri MongoDB, opozoriti osebno.

»Ključno je zagotoviti dovolj dostopa za raziskovalce, da bodo lahko reproducirali uspehe in neuspehe delovanja določenega modela umetne inteligence ... Kot podjetja in posamezniki bi moral biti naš cilj odpreti dostop do programske opreme na načine, ki bodo koristili našim strankam in tretjim strankarski razvijalci spodbujajo dostop in razumevanje, namesto da poskušajo desetletja star koncept odprte kode prilagoditi oblaku,« je trdil.

Dall-E podjetja OpenAI vstopi v način beta

OpenAI-jev komercialni model za generiranje besedila v sliko DALL·E 2 je odprt za več milijonov ljudi, ki so se pridružili njegovi čakalni listi.

Dostop je bil prej omejen na tiste, ki so bili izbrani umetniki, raziskovalci in razvijalci, saj je OpenAI želel preizkusiti svoj sistem pred popolno komercialno izdajo. Ljudje uporabljajo orodje za ustvarjanje najrazličnejših slik za izdelavo internetnih memov, stripov ali digitalne umetnosti. 

Uporabniki bodo v prvem mesecu uporabe prejeli 50 brezplačnih kreditov, nato pa vsak mesec 15 brezplačnih kreditov. Vsak dobroimetje se lahko uporabi za ustvarjanje ene izvirne generacije poziva Dall-E in namesto prejšnjih šestih bodo kot izhod dobili štiri slike. Urejanje obstoječih besedilnih pozivov bo vrnilo tri slike. Če želijo ustvariti več, bodo morali plačati 15 dolarjev, da dobijo dodatnih 115 kreditov za dodatnih 460 slik. 

Prav tako bodo lahko komercializirali vse slike, ki jih ustvarijo z uporabo modela, kar pomeni, da imajo ustvarjalci pravico do prodaje in tiskanja svojih slik za blago in podobno. »Navdušeni smo, da vidimo, kaj ljudje ustvarjajo z DALL·E, in se veselimo povratnih informacij uporabnikov v tem beta obdobju,« raziskovalni laboratorij je dejal ta teden. 

Vohljanje za otroki s prepoznavanjem obraza

Kontroverzno komercialno spletno storitev za prepoznavanje obrazov PimEyes je mogoče uporabiti za iskanje "potencialno eksplicitnih" slik otrok.

PimEyes omogoča vsakomur, da naloži fotografijo, išče morebitna ujemanja ter vrne slike in njihove ustrezne URL-je. Storitev, ki se trži kot orodje za varovanje zasebnosti, kjer lahko uporabniki vidijo, kje na internetu so bile objavljene njihove slike, je dejala, da je pomagala pri boju proti težavam, kot je maščevalna pornografija.

A obstaja tudi temna stran. Vsakdo lahko uporablja spletno mesto za iskanje fotografij kogar koli, tudi otrok. An preiskava The Intercept je ugotovil, da je enostavno najti fotografije mladih in nekatere od teh slik so bile celo označene kot "potencialno eksplicitne". V poskusu so bile uporabljene ponarejene slike otrok, ustvarjene z AI, PimEyes pa je še vedno vrnil ujemanja, kar nakazuje, da njegova programska oprema verjetno ni zelo natančna.

"Dejstvo, da PimEyes nima vzpostavljenih zaščitnih ukrepov za otroke in očitno ni prepričan, kako zagotoviti zaščitne ukrepe za otroke, samo poudarja tveganja tovrstne storitve prepoznavanja obrazov," Jeramie Scott, direktor projekta nadzora nadzora pri Electronic Center za informacije o zasebnosti, so citirali. "Sodelovanje v javnosti, ne glede na to, ali je na spletu ali zunaj njega, ne bi smelo pomeniti podvrženosti storitvam, ki posegajo v zasebnost, kot je PimEyes."

Orodja za pisanje, ki jih poganja AI, pomagajo neodvisnim avtorjem objaviti več knjig

Ustvarjanje vsebin je pogosto težaven posel. Pogosto si morate pripraviti sveže gradivo, da obdržite in povečate občinstvo.

Ena neodvisna pisateljica leposlovja, ki svoje delo objavlja na Amazonovi platformi Kindle pod psevdonimom Leanne Leeds, je opisala moči in omejitve uporabe orodja za generiranje besedila, ki ga poganja GPT-3, kot partnerja pri pisanju.

Z vnašanjem stavkov v programsko opremo Sudowrite lahko pisci, kot je Leeds, samodejno ustvarijo povratne odlomke besedila; deluje kot bolj inteligentno samodokončanje. Leeds Rekel The Verge se je njena produktivnost povečala za več kot 20 odstotkov, ko je to uporabila za ustvarjanje svoje proze. Ureja rezultate programske opreme in vstavlja odstavke v svoje knjige. Sudowrite ji pomaga hitreje pisati knjige, da bo bralce bolj zanimala. 

Toda pisci so razdvojeni glede uporabe umetne inteligence. Nekateri verjamejo, da je v nasprotju z ustvarjalnostjo in čarobnostjo literature, medtem ko drugi vidijo njen potencial za pripovedovanje zgodb. Ali naj avtorji razkrijejo, da so njihove knjige napisane s pomočjo algoritmov? In kar je še pomembneje, ali je to samodejno ustvarjeno čečkanje dobro?

Trenutno stroji niso dovolj dobri in zahtevajo urejanje, da pripovedi in zapleti ne bi zašli s tira. Leeds verjame, da bodo orodja, kot je Sudowrite, nekega dne postala dovolj dobra za pisanje generične leposlovja. »Mislim, da je to prava nevarnost, da lahko to storiš in potem nič več ni izvirno. Vse je le kopija nečesa drugega,« je dejala. "Težava je v tem, da je to tisto, kar je bralcem všeč." ®

Časovni žig:

Več od Register