Meta schließt in China ansässiges Propagandanetzwerk

Meta schließt in China ansässiges Propagandanetzwerk

Meta schließt das in China ansässige Propagandanetzwerk PlatoBlockchain Data Intelligence. Vertikale Suche. Ai.

Ein Team von Wissenschaftlern der Eidgenössischen Technischen Hochschule Lausanne hat einen neuartigen maschinellen Lernalgorithmus namens Cebra (ausgesprochen „Zebra“) entwickelt, der Gehirnsignale in Video übersetzt – was im Grunde bedeutet, dass er Gedanken in Video umwandeln kann.

The new künstliche Intelligenz Das Tool wurde an Nagetieren getestet, um vorherzusagen und zu rekonstruieren, was sie sehen, basierend auf der Zuordnung ihrer neuronalen Aktivität zu bestimmten Frames in Videos, so die Forscher, die das durchgeführt haben Studie, veröffentlicht im Wissenschaftsjournal Nature am 3. Mai.

„Cebra zeichnet sich im Vergleich zu anderen Algorithmen durch die Rekonstruktion synthetischer Daten aus, was für den Vergleich von Algorithmen entscheidend ist“, sagte Steffen Schneider, Co-Erstautor der Veröffentlichung, as berichtet von Neuroscience News.

„Seine Stärken liegen auch in seiner Fähigkeit, Daten über Modalitäten hinweg zu kombinieren, wie z. B. Filmfunktionen und Gehirndaten, und es hilft, Nuancen zu begrenzen, wie z. B. Änderungen an den Daten, die davon abhängen, wie sie erfasst wurden“, fügte er hinzu.

Lies auch: KI entdeckt „8 Signale von Interesse“ bei der Suche nach Außerirdischen

95 % Genauigkeit von Cebra

Die Studie der Schweizer Universität, die auch als École Polytechnique Fédérale de Lausanne (EPFL) bekannt ist, kommt kurz nachdem Wissenschaftler der University of Texas Berichten zufolge KI eingesetzt haben die Gedanken der Leute lesen und wandle das in Echtzeit in Text um.

Für ihre Studie hatten die EPFL-Forscher Cebra Lernen Sie die Echtzeit-Gehirnaktivität einer Maus, nachdem sie einen Film gesehen hat, oder die Bewegungen des Arms bei Primaten. Ein Teil der Gehirnaktivität wurde direkt mit Elektrodensonden gemessen, die in den visuellen Kortexbereich des Gehirns eingeführt wurden.

Der Rest wurde mit optischen Sonden an gentechnisch veränderten Mäusen gewonnen, die so konstruiert sind, dass sie jedes Mal, wenn die Neuronen aktiviert werden oder Daten empfangen, grün leuchten. Cebra nutzte diese Daten, um die Gehirnsignale zu lernen, die sich auf bestimmte Frames eines Films beziehen.

„Sie können dann eine neue Maus nehmen, deren neuronale Daten wir noch nie gesehen haben, und diesen Algorithmus ausführen, und Sie können vorhersagen, welches Bild die Maus tatsächlich diesen Film ansieht“, erklärte Mackenzie Mathis, die Hauptforscherin der Studie, in einem Video gepostet auf Youtube.

Die Forscher konnten diese Daten in einen eigenen Film umwandeln, fügte der EPFL-Assistenzprofessor hinzu. Sie sagte, ihr Team habe Open-Source-Daten verwendet, die mithilfe elektrophysiologischer Signale aus dem Gehirn von Mäusen gesammelt wurden.

[Eingebetteten Inhalt]

„Wir sagen nicht jeden Pixel voraus, sondern den Frame. Das Wahrscheinlichkeitsniveau wäre 1/900, also ist eine Genauigkeit von über 95 % unserer Meinung nach ziemlich aufregend. Aber diese pixelweise Dekodierung ist etwas, das wir als nächstes planen“, sagt Mathis später sagte MailOnline.

KI revolutioniert Branchen

Wie im obigen Video zu sehen, wurde die Maus dazu gebracht, einen alten Schwarz-Weiß-Filmclip – möglicherweise aus der Mitte des 20. Jahrhunderts – anzusehen, in dem ein Mann zu einem Auto rennt, um den Kofferraum zu öffnen. Ein weiterer Bildschirm, fast identisch, zeigt, was die Maus aus der Perspektive von Cebra betrachtet.

Laut Mathis war das KI-Tool in der Lage, dies mit weniger als 1 % der Neuronen im visuellen Kortex einer Maus durchzuführen, etwa 0.5 Millionen Neuronen.

„Wir wollten zeigen, wie wenig Daten – sowohl in Bezug auf Filmclips als auch neuronale Daten – wir verwenden können“, wurde sie zitiert.

„Bemerkenswerterweise kann der Algorithmus in Echtzeit ausgeführt werden, sodass das Modell weniger als eine Sekunde benötigt, um den gesamten Videoclip vorherzusagen.“

Die Frage ist also, ob es möglich ist, das, was jemand sieht, allein anhand von Gehirnsignalen zu rekonstruieren? Die Antwort ist laut der Studie noch nicht. Aber die EPFL-Forscher „haben einen Schritt in diese Richtung gemacht, indem sie einen neuen Algorithmus zum Aufbau künstlicher neuronaler Netze eingeführt haben, die die Gehirndynamik mit einem beeindruckenden Maß an Genauigkeit erfassen.“

In den USA verwendeten Wissenschaftler der University of Texas, Austin, laut einer Studie KI, um die Gehirnscans von Menschen zu lesen und eine ganze Geschichte nur aus ihren Gehirnwellen zu rekonstruieren veröffentlicht vor kurzem.

Bei dieser Forschung saßen die Teilnehmer in einer Gehirn-Scan-Maschine, die als fMRI bekannt ist, und hörten zu, sahen zu oder stellten sich eine Geschichte vor. Das Tool der künstlichen Intelligenz war in der Lage, ihre Gehirnwellen zu lesen und die Geschichte genau nachzubilden.

Es wurden jedoch Bedenken hinsichtlich der Genauigkeit geäußert. Das liegt daran, dass die KI leicht getäuscht werden kann, wenn das Subjekt beschließt, an etwas anderes zu denken als das Stück, das es möglicherweise hört.

Zeitstempel:

Mehr von MetaNews