Meta stänger av Kina-baserat propagandanätverk

Meta stänger av Kina-baserat propagandanätverk

Meta stänger av Kina-baserat propagandanätverk PlatoBlockchain Data Intelligence. Vertikal sökning. Ai.

Ett team av forskare från det schweiziska federala tekniska institutet Lausanne utvecklade en ny maskininlärningsalgoritm som heter Cebra (uttalas "zebra"), som översätter hjärnsignaler till video - vilket i princip betyder att den kan förvandla tankar till video.

Den nya artificiell intelligens verktyget testades på gnagare för att förutsäga och rekonstruera vad de ser baserat på att kartlägga deras neurala aktivitet till specifika bildrutor i videor, enligt forskare som utförde studera, publicerad i vetenskapstidskriften Nature den 3 maj.

"Cebra utmärker sig jämfört med andra algoritmer när det gäller att rekonstruera syntetisk data, vilket är avgörande för att jämföra algoritmer", säger Steffen Schneider, medförfattare till tidningen. rapporterade av Neuroscience News.

"Dess styrkor ligger också i dess förmåga att kombinera data över olika modaliteter, såsom filmfunktioner och hjärndata, och det hjälper till att begränsa nyanser, såsom ändringar av data som beror på hur de samlades in," tillade han.

Läs också: AI upptäcker "8 signaler av intresse" i sökandet efter utomjordingar

Cebras 95% noggrannhet

Studien från det schweiziska universitetet, som också är känt som École Polytechnique Fédérale de Lausanne (EPFL), kommer kort efter att forskare vid University of Texas enligt uppgift använt AI för att läsa människors tankar och förvandla det till text i realtid.

För sin studie hade EPFL-forskarna Cebra lär dig en muss hjärnaktivitet i realtid efter att den sett en film eller armens rörelser hos primater. En del av hjärnans aktivitet mättes direkt med elektrodprober insatta i hjärnans visuella cortex-område.

Resten erhölls med hjälp av optiska sonder på genetiskt modifierade möss, konstruerade så att varje gång neuronerna aktiveras eller tar emot data lyser de grönt. Cebra använde dessa data för att lära sig hjärnsignalerna som är relaterade till särskilda bildrutor i en film.

"Du kan sedan ta en ny mus vars neurala data vi aldrig har sett och köra den här algoritmen och du kan förutsäga vilken bildruta musen faktiskt tittar på den här filmen", förklarade Mackenzie Mathis, studiens huvudutredare, i en video posted på Youtube.

Forskare kunde omvandla dessa data till en egen film, tillade EPFL-assistentprofessorn. Hon sa att hennes team använde öppen källkod som samlats in från hjärnan på möss med hjälp av elektrofysiologiska signaler.

[Inbäddat innehåll]

"Vi förutsäger inte varje pixel, utan snarare bildrutan. Chansnivån skulle vara 1/900, så över 95 % noggrannhet är, tycker vi, ganska spännande. Men den här pixelmässiga avkodningen är något vi planerar att göra härnäst”, Mathis senare berättade MailOnline.

AI stör industrier

Som man kan se i videon ovan gjordes musen för att titta på ett gammalt svartvitt filmklipp – möjligen från mitten av 20-talet – av en man som springer till en bil för att öppna bagageluckan. En annan skärm, nästan identisk, visar vad musen tittar på från Cebras perspektiv.

Enligt Mathis kunde AI-verktyget utföra detta med mindre än 1 % av neuronerna i en muss visuella cortex, ungefär 0.5 miljoner neuroner.

"Vi ville visa hur lite data - både när det gäller filmklipp och neurala data - vi kunde använda," sa hon.

"Särskilt kan algoritmen köras i realtid, så det tar mindre än en sekund för modellen att förutsäga hela videoklippet."

Så frågan att ställa är om det är möjligt att rekonstruera det någon ser baserat på enbart hjärnsignaler? Svaret är inte ännu, enligt studien. Men EPFL-forskarna "har tagit ett steg i den riktningen genom att introducera en ny algoritm för att bygga konstgjorda neurala nätverk som fångar hjärnans dynamik med en imponerande grad av noggrannhet."

I USA använde forskare vid University of Texas, Austin AI för att läsa människors hjärnskanningar och återskapa en hel historia endast från deras hjärnvågor, enligt en studie publicerade nyligen.

Med denna forskning satt deltagarna i en hjärnskanningsmaskin känd som fMRI och lyssnade, tittade på eller föreställde sig en berättelse. Verktyget för artificiell intelligens kunde läsa deras hjärnvågor och återskapa berättelsen korrekt.

Det har dock väckts oro över frågan om noggrannhet. Det beror på att AI lätt kan luras om motivet bestämmer sig för att tänka på något annat jämfört med stycket de kanske lyssnar på.

Tidsstämpel:

Mer från MetaNews