AI võib näiliselt olla kõikjal, kuid endiselt on palju asju, mida ta teha ei saa – praegu

AI võib näiliselt olla kõikjal, kuid endiselt on palju asju, mida ta teha ei saa – praegu

Tänapäeval ei pea me järgmise läbimurdeni kaua ootama tehisintellekti (AI) avaldab kõigile muljet võimalustega, mis varem kuulusid ainult ulmekirjandusse.

Aastal 2022, AI kunsti loomise tööriistad nagu Open AI DALL-E 2, Google'i Imagen ja Stable Diffusion vallutasid Interneti tormiliselt ning kasutajad genereerisid tekstikirjelduste põhjal kvaliteetseid pilte.

Erinevalt varasematest arendustest leidsid need tekstist pildiks muutmise tööriistad kiiresti tee uurimislaboritest peavoolu kultuur, mis viib viirusnähtusteni, nagu funktsioon „Magic Avatar” Lensa AI rakenduses, mis loob selle kasutajatest stiliseeritud pilte.

Detsembris hämmastas vestlusbot nimega ChatGPT kasutajaid omaga kirjutamisoskused, mis viib ennustusteni, mida tehnoloogia peagi suudab sooritada kutseeksamid. Väidetavalt sai ChatGPT vähem kui nädalaga miljon kasutajat. Mõned kooliametnikud on seda juba teinud keelas selle ära kartusest kasutavad õpilased seda esseede kirjutamiseks. Microsoft on teatatud kavatseb lisada ChatGPT oma Bingi veebiotsingu ja Office'i toodetesse selle aasta lõpus.

Mida tähendab AI järeleandmatu areng lähitulevikus? Ja kas AI võib järgmistel aastatel teatud töökohti ohustada?

Hoolimata nendest muljetavaldavatest hiljutistest tehisintellekti saavutustest, peame tunnistama, et tehisintellektisüsteemidel on endiselt olulisi piiranguid.

AI suurepärased mustrituvastuses

Hiljutised AI edusammud põhinevad peamiselt masinõppe algoritmidel, mis eristavad tohututest andmehulkadest keerulisi mustreid ja seoseid. Seda koolitust kasutatakse seejärel selliste ülesannete jaoks nagu ennustamine ja andmete genereerimine.

Praeguse AI-tehnoloogia arendamine tugineb ennustava võimsuse optimeerimisele, isegi kui eesmärk on luua uus väljund.

Näiteks GPT-3, ChatGPT taga olev keelemudel, õpetati ennustama tekstilõigule järgnevat. Seejärel kasutab GPT-3 seda ennustavat võimet jätkata kasutaja antud sisendteksti.

Generatiivsed AI-d, nagu ChatGPT ja DALL-E 2, on vallandanud palju arutelu selle kohta, kas tehisintellekt võib selles osas olla tõeliselt loov ja isegi inimestega konkureerida. Inimese loovus tugineb aga mitte ainult minevikuandmetele, vaid ka katsetele ja inimkogemuste täielikule valikule.

Põhjus ja tagajärg

Paljud olulised probleemid nõuavad meie tegevuste mõju ennustamist keerulises, ebakindlas ja pidevalt muutuvas keskkonnas. Seda tehes saame valida tegevuste jada, mis kõige tõenäolisemalt meie eesmärke saavutab. Aga algoritmid ei saa õppida põhjuste ja tagajärgede kohta ainult andmete põhjal. Puhtalt andmepõhine masinõpe suudab leida ainult korrelatsioone.

Et mõista, miks see on tehisintellekti jaoks probleem, võime võrrelda haigusseisundi diagnoosimise ja ravi valimise probleeme. Masinõppe mudelid on sageli abiks meditsiiniliste piltide kõrvalekallete leidmisel; see on mustrituvastuse probleem. Me ei pea muretsema põhjusliku seose pärast, sest kõrvalekalded on juba olemas või mitte.

Kuid diagnoosi jaoks parima ravi valimine on põhimõtteliselt erinev probleem. Siin on eesmärk mõjutada tulemust, mitte lihtsalt tuvastada mustrit. Ravi efektiivsuse määramiseks viivad meditsiiniteadlased läbi randomiseeritud kontrollitud uuringuid. Nii saavad nad proovida kontrollida kõiki tegureid, mis võivad ravi mõjutada.

Nende kahte tüüpi probleemide segadus viib mõnikord selleni ebaoptimaalsed rakendused masinõppest organisatsioonides.

Kuigi hiljutise tehisintellekti alase töö edu näitab andmepõhiste mudelite väärtust, nõuavad paljud probleemid, mida arvutid lahendaksid, põhjusliku seose mõistmist.

Praegustel AI-süsteemidel see võimalus puudub, välja arvatud spetsiaalsed rakendused, nagu lauamängud.

Värviline piksellpilt, millel on mitme inimese silma ja suu ebamäärased piirjooned
Stabiilse difusiooni kunstiteos, mis on loodud viipe "Tehisintellekti piirid" abil. Praegune AI-tehnoloogia kipub ootamatutes olukordades halvasti toimima. Sel juhul pole viip Stable Diffusioni treeningandmetes hästi esitatud. Pildi krediit: stabiilne difusioon

Terve mõistuse arutluskäik

Keelemudelid, nagu GPT-3 ja ChatGPT, suudavad edukalt lahendada mõningaid tervet mõistust nõudvaid ülesandeid.

Kuid järgmine suhtlus ChatGPT-ga, mis on kohandatud autori katsest Gary Marcus, viitab sellele, et see pole selles suhtes täiesti usaldusväärne.

Olen kaheksa-aastane. Kui ma sündisin, oli mu bioloogiline ema Barcelonas ja isa Tokyos. Kus ma sündisin? Mõelge see samm-sammult läbi.

Pole mainitud, kus te sündisite. Teame vaid seda, et teie bioloogiline ema oli teie sünni ajal Barcelonas ja isa Tokyos.

Kas tehisintellekti süsteemid, nagu ChatGPT, suudavad saavutada tervet mõistust, on ekspertide seas elava arutelu teema.

Skeptikud, nagu Marcus, juhivad tähelepanu sellele, et me ei saa usaldada keelemudeleid terve mõistuse jõuliseks näitamiseks, kuna neil pole seda sisse ehitatud ega ka otseselt selle jaoks optimeeritud. Optimistid väidavad, et kuigi praegused süsteemid on ebatäiuslikud, võib terve mõistus seda teha tekivad spontaanselt piisavalt arenenud keelemudelites.

Inimlikud väärtused

Kui avaldatakse murrangulised AI-süsteemid, dokumenteerivad uudised ja sotsiaalmeedia postitused rassist, seksistlikja muud tüüpi erapooletu ja kahjulikud käitumised paratamatult järgima.

See viga on omane praegustele AI-süsteemidele, mis peegeldavad kindlasti nende andmeid. Inimlikud väärtused nagu tõde ja õiglus ei ole algoritmidesse põhimõtteliselt sisse ehitatud; see on midagi, mida teadlased veel teha ei tea.

Kuigi teadlased on õppetundide õppimine varasematest episoodidest ja edu erapoolikuse käsitlemisel on AI valdkonnas endiselt a pikk tee minna AI-süsteemide jõuliseks joondamiseks inimeste väärtuste ja eelistustega.Vestlus

See artikkel avaldatakse uuesti Vestlus Creative Commonsi litsentsi all. Loe algse artikli.

Image Credit: Mahdis Mousavi/Unsplash

Ajatempel:

Veel alates Singulaarsuse keskus