Meta lukker Kina-baseret propagandanetværk

Meta lukker Kina-baseret propagandanetværk

Meta Shuts Down China-Based Propaganda Network PlatoBlockchain Data Intelligence. Vertical Search. Ai.

Et team af videnskabsmænd fra det schweiziske føderale teknologiske institut Lausanne udviklede en ny maskinlæringsalgoritme kaldet Cebra (udtales "zebra"), som oversætter hjernesignaler til video - hvilket grundlæggende betyder, at det kan omdanne tanker til video.

Den nye kunstig intelligens værktøjet blev testet på gnavere for at forudsige og rekonstruere, hvad de ser, baseret på at kortlægge deres neurale aktivitet til specifikke frames i videoer, ifølge forskere, der har udført studere, offentliggjort i det videnskabelige tidsskrift Nature den 3. maj.

"Cebra udmærker sig sammenlignet med andre algoritmer ved at rekonstruere syntetiske data, hvilket er afgørende for at sammenligne algoritmer," sagde Steffen Schneider, medførsteforfatter af papiret. rapporteret af Neuroscience News.

"Dens styrker ligger også i dens evne til at kombinere data på tværs af modaliteter, såsom filmfunktioner og hjernedata, og det hjælper med at begrænse nuancer, såsom ændringer i dataene, der afhænger af, hvordan de blev indsamlet," tilføjede han.

Læs også: AI opdager '8 signaler af interesse' i søgen efter rumvæsner

Cebras 95% nøjagtighed

Undersøgelsen fra det schweiziske universitet, som også er kendt som École Polytechnique Fédérale de Lausanne (EPFL), kommer kort efter, at forskere ved University of Texas angiveligt brugte kunstig intelligens til at læse folks tanker og gør det til tekst i realtid.

Til deres undersøgelse havde EPFL-forskerne Cebra lære en muss hjerneaktivitet i realtid efter at have set en film eller armens bevægelser hos primater. En del af hjerneaktiviteten blev målt direkte med elektrodeprober indsat i det visuelle cortex-område i hjernen.

Resten blev opnået ved hjælp af optiske prober på genetisk modificerede mus, konstrueret således, at hver gang neuronerne aktiveres eller modtager data, lyser de grønt. Cebra brugte disse data til at lære hjernens signaler, der er relateret til bestemte frames af en film.

"Du kan derefter tage en ny mus, hvis neurale data vi aldrig har set og køre denne algoritme, og du kan forudsige, hvilken frame musen faktisk ser denne film," forklarede Mackenzie Mathis, undersøgelsens hovedefterforsker, i en video indsendt på YouTube.

Forskere var i stand til at konvertere disse data til en egen film, tilføjede EPFL-assistentprofessoren. Hun sagde, at hendes team brugte open source-data indsamlet fra hjernen på mus ved hjælp af elektrofysiologiske signaler.

[Indlejret indhold]

"Vi forudsiger ikke hver pixel, men derimod rammen. Chanceniveau ville være 1/900, så over 95% nøjagtighed er, synes vi, ret spændende. Men denne pixel-kloge afkodning er noget, vi planlægger at gøre næste gang,” Mathis senere fortalt MailOnline.

AI, der forstyrrer industrier

Som det ses i videoen ovenfor, blev musen lavet til at se et gammelt sort-hvidt filmklip - muligvis fra midten af ​​det 20. århundrede - af en mand, der løb hen til en bil for at åbne bagagerummet. En anden skærm, næsten identisk, viser, hvad musen ser på fra Cebras perspektiv.

Ifølge Mathis var AI-værktøjet i stand til at udføre dette ved at bruge mindre end 1% af neuroner i en muss visuelle cortex, omkring 0.5 millioner neuroner.

"Vi ønskede at vise, hvor lidt data - både i form af filmklip og neurale data - vi kunne bruge," blev hun citeret og sagde.

"Algorithmen kan især køre i realtid, så det tager mindre end et sekund for modellen at forudsige hele videoklippet."

Så spørgsmålet, der skal stilles, er, om det er muligt at rekonstruere, hvad nogen ser baseret på hjernesignaler alene? Svaret er ifølge undersøgelsen ikke endnu. Men EPFL-forskerne "har taget et skridt i den retning ved at introducere en ny algoritme til at bygge kunstigt neurale netværk, der fanger hjernens dynamik med en imponerende grad af nøjagtighed."

I USA brugte forskere ved University of Texas, Austin AI til at læse folks hjernescanninger og kun genskabe en hel historie fra deres hjernebølger, ifølge en undersøgelse offentliggjort for nylig.

Med denne forskning sad deltagerne i en hjernescanningsmaskine kendt som fMRI og lyttede, så eller forestillede sig en historie. Værktøjet til kunstig intelligens var i stand til at læse deres hjernebølger og genskabe historien nøjagtigt.

Der er dog rejst bekymring over spørgsmålet om nøjagtighed. Det skyldes, at AI let kan narre, hvis motivet beslutter sig for at tænke på noget andet i forhold til det stykke, de måske lytter til.

Tidsstempel:

Mere fra MetaNews