Meta sulgeb Hiina-põhise propagandavõrgustiku

Meta sulgeb Hiina-põhise propagandavõrgustiku

Meta lülitab välja Hiina-põhise propagandavõrgu PlatoBlockchain andmeluure. Vertikaalne otsing. Ai.

Šveitsi Föderaalse Tehnoloogiainstituudi Lausanne'i teadlaste meeskond töötas välja uudse masinõppe algoritmi nimega Cebra (hääldatakse "sebra"), mis teisendab ajusignaalid videoks, mis tähendab põhimõtteliselt seda, et see võib muuta mõtted videoks.

Uus tehisintellekti Uuringu läbi viinud teadlaste sõnul testiti tööriista näriliste peal, et ennustada ja rekonstrueerida, mida nad näevad, kaardistades nende närvitegevuse konkreetsete kaadritega videotes. õppima, avaldati 3. mail teadusajakirjas Nature.

"Cebra on teiste algoritmidega võrreldes suurepärane sünteetiliste andmete rekonstrueerimisel, mis on algoritmide võrdlemisel kriitilise tähtsusega," ütles töö esimene autor Steffen Schneider. teatatud Neuroscience Newsi poolt.

"Selle tugevad küljed seisnevad ka võimes kombineerida andmeid erinevate viiside vahel, nagu filmifunktsioonid ja ajuandmed, ning see aitab piirata nüansse, nagu andmete muudatused, mis sõltuvad nende kogumise viisist," lisas ta.

Loe ka: AI avastab maaväliste olendite otsimisel 8 huvisignaali

Cebra 95% täpsus

Šveitsi ülikooli, mida tuntakse ka kui École Polytechnique Fédérale de Lausanne'i (EPFL) uuring tehti varsti pärast seda, kui Texase ülikooli teadlased kasutasid väidetavalt tehisintellekti lugeda inimeste mõtteid ja muutke see reaalajas tekstiks.

Oma uuringu jaoks olid EPFL-i teadlased Sebra Õppige hiire reaalajas ajutegevust pärast filmi vaatamist või primaatide käeliigutusi. Osa ajutegevusest mõõdeti otse aju visuaalsesse ajukoore piirkonda sisestatud elektroodsondidega.

Ülejäänu saadi geneetiliselt muundatud hiirte optiliste sondide abil, mis olid konstrueeritud nii, et iga kord, kui neuronid aktiveeritakse või andmeid saavad, helendavad need roheliselt. Cebra kasutas neid andmeid ajusignaalide õppimiseks, mis on seotud filmi teatud kaadritega.

"Seejärel võite võtta uue hiire, mille närviandmeid me pole kunagi näinud, ja käivitada see algoritm ja saate ennustada, millises kaadris hiir seda filmi tegelikult vaatab," selgitas uuringu juhtivteadur Mackenzie Mathis videos. postitanud YouTube'is.

Teadlased suutsid need andmed teisendada oma filmiks, lisas EPFLi abiprofessor. Ta ütles, et tema meeskond kasutas avatud lähtekoodiga andmeid, mis koguti hiirte ajudest, kasutades elektrofüsioloogilisi signaale.

[Varjatud sisu]

"Me ei ennusta iga pikslit, vaid pigem kaadrit. Võimaluse tase oleks 1/900, nii et üle 95% täpsus on meie arvates üsna põnev. Kuid see pikslipõhine dekodeerimine on midagi, mida kavatseme järgmisena teha, ”hiljem Mathis ütles MailOnline.

AI häirib tööstusi

Nagu ülaltoodud videost näha, oli hiir loodud selleks, et vaadata vana mustvalget filmiklippi – võib-olla 20. sajandi keskpaigast –, kuidas mees jooksis auto juurde, et pakiruumi avada. Teine, peaaegu identne ekraan näitab, mida hiir Cebra vaatenurgast vaatab.

Mathise sõnul suutis AI tööriist seda teha, kasutades vähem kui 1% hiire visuaalse ajukoore neuronitest, ligikaudu 0.5, XNUMX miljonit neuronit.

"Tahtsime näidata, kui vähe andmeid - nii filmiklippide kui ka närviandmete osas - saame kasutada," tsiteeris ta.

"Eelkõige võib algoritm töötada reaalajas, nii et mudelil kulub kogu videoklipi ennustamiseks vähem kui üks sekund."

Seega tuleb küsida, kas seda, mida keegi näeb, on võimalik ainuüksi ajusignaalide põhjal rekonstrueerida? Uuringu kohaselt pole vastust veel. Kuid EPFL-i teadlased "on astunud sammu selles suunas, võttes kasutusele uue algoritmi kunstliku närvivõrgu ehitamiseks, mis jäädvustab aju dünaamikat muljetavaldava täpsusega."

USAs Texase ülikooli teadlased kasutasid Austini teadlased tehisintellekti, et lugeda inimeste ajupilte ja luua terve lugu ainult nende ajulainete põhjal. avaldatud hiljuti.

Selle uuringu käigus istusid osalejad fMRI-na tuntud ajuskaneerimismasinas, kuulates, vaadates või kujutledes lugu. Tehisintellekti tööriist suutis nende ajulaineid lugeda ja loo täpselt uuesti luua.

Siiski on muret tekitanud täpsuse küsimus. Selle põhjuseks on asjaolu, et tehisintellekti saab kergesti petta, kui katsealune otsustab mõelda millelegi erinevale teosele võrreldes, mida ta võib kuulata.

Ajatempel:

Veel alates MetaNews