Meta sluit het in China gevestigde propagandanetwerk af

Meta sluit het in China gevestigde propagandanetwerk af

Meta sluit het in China gevestigde propagandanetwerk PlatoBlockchain Data Intelligence af. Verticaal zoeken. Ai.

Een team van wetenschappers van het Zwitserse Federale Instituut voor Technologie in Lausanne ontwikkelde een nieuw algoritme voor machinaal leren genaamd Cebra (uitgesproken als "zebra"), dat hersensignalen vertaalt naar video - wat in feite betekent dat het gedachten in video kan veranderen.

De nieuwe kunstmatige intelligentie tool werd getest op knaagdieren om te voorspellen en te reconstrueren wat ze zien op basis van het in kaart brengen van hun neurale activiteit op specifieke frames in video's, volgens onderzoekers die de studies, gepubliceerd in het wetenschappelijke tijdschrift Nature op 3 mei.

"Cebra blinkt uit in vergelijking met andere algoritmen bij het reconstrueren van synthetische gegevens, wat van cruciaal belang is om algoritmen te vergelijken", zegt Steffen Schneider, co-eerste auteur van het artikel, als gerapporteerd door Neuroscience News.

"De sterke punten liggen ook in het vermogen om gegevens over verschillende modaliteiten te combineren, zoals filmfuncties en hersengegevens, en het helpt nuances te beperken, zoals wijzigingen in de gegevens die afhankelijk zijn van hoe ze zijn verzameld", voegde hij eraan toe.

Lees ook: AI ontdekt '8 interessante signalen' bij zoektocht naar buitenaardse wezens

Cebra's 95% nauwkeurigheid

De studie van de Zwitserse universiteit, ook wel bekend als ร‰cole Polytechnique Fรฉdรฉrale de Lausanne (EPFL), komt kort nadat wetenschappers van de Universiteit van Texas naar verluidt AI gebruikten om lees de gedachten van mensen en zet dat in realtime om in tekst.

Voor hun studie hadden de EPFL-onderzoekers zebra leer de real-time hersenactiviteit van een muis nadat deze een film heeft bekeken of de bewegingen van de arm bij primaten. Een deel van de hersenactiviteit werd direct gemeten met elektrodesondes die in de visuele cortex van de hersenen werden ingebracht.

De rest werd verkregen met behulp van optische sondes op genetisch gemodificeerde muizen, zo ontworpen dat elke keer dat de neuronen worden geactiveerd of gegevens ontvangen, ze groen oplichten. Cebra gebruikte deze gegevens om de hersensignalen te leren die verband houden met bepaalde frames van een film.

"Je kunt dan een nieuwe muis nemen waarvan we de neurale gegevens nog nooit hebben gezien en dit algoritme uitvoeren en je kunt voorspellen in welk frame de muis daadwerkelijk naar deze film kijkt", legt Mackenzie Mathis, de hoofdonderzoeker van het onderzoek, uit in een video geplaatst op Youtube.

Onderzoekers waren in staat om deze gegevens om te zetten in een eigen film, voegde de EPFL-assistent-professor eraan toe. Ze zei dat haar team open-source gegevens gebruikte die waren verzameld uit de hersenen van muizen met behulp van elektrofysiologische signalen.

[Ingesloten inhoud]

โ€œWe voorspellen niet elke pixel, maar het frame. Het kansniveau zou 1/900 zijn, dus een nauwkeurigheid van meer dan 95% is volgens ons best spannend. Maar deze pixelgewijze decodering is iets dat we hierna willen doen, 'later Mathis vertelde MailOnline.

AI verstoort industrieรซn

Zoals te zien is in de video hierboven, is de muis gemaakt om naar een oud zwart-witfilmpje te kijken โ€“ mogelijk uit het midden van de 20e eeuw โ€“ van een man die naar een auto rent om de kofferbak te openen. Een ander scherm, bijna identiek, laat zien waar de muis naar kijkt vanuit Cebra's perspectief.

Volgens Mathis kon de AI-tool dit uitvoeren met minder dan 1% van de neuronen in de visuele cortex van een muis, ongeveer 0.5 miljoen neuronen.

"We wilden laten zien hoe weinig gegevens - zowel in termen van filmclips als neurale gegevens - we konden gebruiken", zei ze.

"Het algoritme kan met name in realtime worden uitgevoerd, dus het duurt minder dan een seconde voordat het model de hele videoclip voorspelt."

De vraag is dus of het mogelijk is om alleen op basis van hersensignalen te reconstrueren wat iemand ziet? Het antwoord is er volgens het onderzoek nog niet. Maar de EPFL-onderzoekers "hebben een stap in die richting gezet door een nieuw algoritme te introduceren voor het bouwen van een kunstmatig neuraal netwerk dat de hersendynamiek met een indrukwekkende mate van nauwkeurigheid vastlegt."

In de VS gebruikten wetenschappers van de Universiteit van Texas, Austin AI om de hersenscans van mensen te lezen en een heel verhaal te recreรซren, alleen op basis van hun hersengolven, volgens een studie gepubliceerde onlangs.

Bij dit onderzoek zaten deelnemers in een hersenscanmachine die bekend staat als fMRI, luisterend, kijkend of zich een verhaal voorstellend. De tool voor kunstmatige intelligentie was in staat om hun hersengolven te lezen en het verhaal nauwkeurig na te bootsen.

Er zijn echter zorgen geuit over de kwestie van de nauwkeurigheid. Dat komt omdat de AI gemakkelijk voor de gek kan worden gehouden als het onderwerp besluit iets anders te bedenken dan het stuk waarnaar ze misschien luisteren.

Tijdstempel:

Meer van MetaNieuws