Dieses von Ameisen inspirierte KI-Gehirn hilft Agrarrobotern, Pflanzen besser zu navigieren

Dieses von Ameisen inspirierte KI-Gehirn hilft Agrarrobotern, Pflanzen besser zu navigieren

Dieses von Ameisen inspirierte KI-Gehirn hilft Landwirtschaftsrobotern, Pflanzen besser zu navigieren. PlatoBlockchain Data Intelligence. Vertikale Suche. Ai.

Stellen Sie sich Folgendes vor: Die untergehende Sonne taucht ein Maisfeld in schillernde Bernstein- und Goldtöne. Tausende von Maisstängeln, schwer mit Maiskolben und raschelnden Blättern, überragen jeden – Kinder, die durch Maislabyrinthe rennen; Bauern begutachten ihre Ernte; und Roboter flitzen vorbei, während sie sanft reife, süße Ähren für die Herbsternte pflücken.

Moment, Roboter?

Idyllisches Ackerland und Roboter scheinen ein seltsames Paar zu sein. Aber dank immer ausgefeilterer Software, die es Robotern ermöglicht, ihre Umgebung zu „sehen“ – einer Technologie namens Computer Vision – integrieren sie sich schnell in unsere Hauptlinie der Lebensmittelproduktion. Roboter erledigen mittlerweile alltägliche Aufgaben, wie z Reife Früchte ernten oder das Vernichten von Unkraut, das die Ernte verdorrt.

Mit der ein anhaltender Mangel Bei Landarbeitern besteht die Hoffnung darin Maschinen könnte dazu beitragen, die Ernteerträge zu steigern, frisches Obst und Gemüse zuverlässig auf unseren Esstisch zu bringen und Abfall zu minimieren.

Um diese Vision zu verwirklichen, müssen Roboter-Landarbeiter in der Lage sein, komplexe und verwirrende landwirtschaftliche Flächen zu durchqueren. Leider sind diese Maschinen nicht die besten Navigatoren. Sie neigen dazu, sich zu verirren, insbesondere wenn sie sich in komplexem und herausforderndem Gelände befinden. Wie Kinder, die sich durch ein Maislabyrinth kämpfen, vergessen Roboter ihren Standort, sodass das Symptom oft einen Namen hat: Das Problem der entführten Roboter.

A  neue Studie in Wissenschaft Robotics zielt darauf ab, die Navigationsfähigkeiten von Robotern zu verbessern, indem ihnen Gedächtnis verliehen wird.

Unter der Leitung von Dr. Barbara Webb von der University of Edinburgh kam die Inspiration von einer überraschenden Quelle: Ameisen. Diese Tiere sind bemerkenswert gut darin, nach nur einer Fahrt die gewünschten Ziele anzusteuern. Wie erfahrene Wanderer erinnern sie sich auch an vertraute Orte, selbst wenn sie sich unterwegs durch dichte Vegetation bewegen.

Mithilfe von Bildern, die von einem umherstreifenden Roboter gesammelt wurden, entwickelte das Team einen Algorithmus, der auf Gehirnprozessen bei Ameisen während der Navigation basiert. Als es auf Hardware ausgeführt wurde, die auch die Berechnungen des Gehirns nachahmte, setzte sich die neue Methode bei Navigationsaufgaben gegen ein hochmodernes Computer-Vision-System durch.

„Insbesondere Insektengehirne bieten eine starke Kombination aus Effizienz und Effektivität“, sagte das Team.

Die Lösung des Problems gibt eigensinnigen Roboter-Landarbeitern nicht nur einen internen Kompass an die Hand, der ihnen hilft, nach Hause zu kommen. Die Nutzung der Rechenleistung des Gehirns – eine Methode namens Neuromorphic Computing – könnte die Art und Weise, wie Roboter, beispielsweise selbstfahrende Autos, mit unserer Welt interagieren, weiter verfeinern.

Das Leben einer Ameise

Wenn Sie schon einmal durch dichte Wälder oder Maislabyrinthe gewandert sind, haben Sie Ihre Freunde wahrscheinlich gefragt: Wo sind wir?

Im Gegensatz zum Gehen entlang eines Stadtblocks – mit Schaufenstern und anderen Gebäuden als Orientierungspunkte – ist das Navigieren auf einem Feld äußerst schwierig. Ein Hauptgrund dafür ist, dass es schwierig ist zu sagen, wo man sich befindet und in welche Richtung man blickt, weil die Umgebung so ähnlich aussieht.

Roboter stehen in freier Wildbahn vor der gleichen Herausforderung. Derzeit verwenden Bildverarbeitungssysteme mehrere Kameras, um Bilder aufzunehmen, während der Roboter das Gelände durchquert. Sie haben jedoch Schwierigkeiten, die gleiche Szene zu identifizieren, wenn sich die Licht- oder Wetterbedingungen ändern. Die Algorithmen passen sich nur langsam an, was die Führung autonomer Roboter in komplexen Umgebungen erschwert.

Hier kommen Ameisen ins Spiel.

Auch wenn die Gehirnressourcen der Ameisen im Vergleich zum Menschen relativ begrenzt sind, sind sie bemerkenswert brillant darin, in komplexen neuen Umgebungen zu lernen und sich darin zurechtzufinden. Sie können sich frühere Routen leicht merken, unabhängig von Wetter, Schlamm oder Licht.

Sie können einer Route mit „höherer Präzision folgen, als GPS es einem Roboter ermöglichen würde“, sagte das Team.

Eine Besonderheit der Navigationsfähigkeiten einer Ameise besteht darin, dass sie während der Navigation nicht genau wissen muss, wo sie sich befindet. Um sein Ziel zu finden, muss das Lebewesen lediglich erkennen, ob ihm ein Ort bekannt ist.

Es ist, als würde man von einem Hotel aus eine neue Stadt erkunden: Man muss nicht unbedingt wissen, wo man sich auf der Karte befindet. Sie müssen sich nur die Straße merken, die Sie zum Frühstück in ein Café führt, damit Sie bequem nach Hause gelangen können.

Das Team ließ sich von Ameisengehirnen inspirieren und baute in drei Schritten einen neuromorphen Roboter.

Das erste war Software. Obwohl Ameisen ein kleines Gehirn haben, sind sie besonders geschickt darin, ihre neuronalen Schaltkreise so anzupassen, dass sie eine vertraute Route erneut aufsuchen. Basierend auf ihren bisherigen Erkenntnissen konzentrierte sich das Team auf „Pilzkörper“, eine Art neuronaler Knotenpunkt im Gehirn von Ameisen. Diese Knotenpunkte sind entscheidend für das Erlernen visueller Informationen aus der Umgebung. Die Informationen breiten sich dann im Gehirn der Ameise aus und dienen als Grundlage für Navigationsentscheidungen. Kommt Ihnen diese Route zum Beispiel bekannt vor, oder sollte ich es auf einer anderen Spur versuchen?

Als nächstes kamen Eventkameras, die Bilder wie das Auge eines Tieres aufnehmen. Die resultierenden Bilder sind besonders nützlich für das Training des maschinellen Sehens, da sie nachahmen, wie das Auge Licht während eines Fotos verarbeitet.

Die letzte Komponente ist die Hardware: SpiNNaker, eine Computerchip gebaut, um Gehirnfunktionen nachzuahmen. Der Chip wurde erstmals an der Universität Manchester im Vereinigten Königreich entwickelt und simuliert die interne Funktionsweise biologischer neuronaler Netze zur Kodierung von Erinnerungen.

Durch die Verflechtung aller drei Komponenten baute das Team sein ameisenähnliches System auf. Als Machbarkeitsnachweis nutzten sie das System, um einen mobilen Roboter anzutreiben, der sich durch schwieriges Gelände bewegte. Der Roboter, etwa so groß wie ein extragroßer Hamburger – und treffend der Name „Turtlebot3-Burger“ genannt – nahm während seiner Wanderung Bilder mit der Ereigniskamera auf.

Während der Roboter durch Waldgebiete rollte, meldete sein neuromorphes „Gehirn“ mithilfe von Pixeln seiner Umgebung schnell „Ereignisse“. Der Algorithmus löste beispielsweise ein Warnereignis aus, wenn Äste oder Blätter die Sicht des Roboters beeinträchtigten.

Der kleine Bot durchquerte etwa 20 Fuß durch Vegetation unterschiedlicher Höhe und lernte aus seinen Wanderungen. Diese Reichweite sei typisch für eine Ameise, die ihre Route navigiert, sagte das Team. In mehreren Tests hat das KI-Modell die Daten der Reise aufgeschlüsselt, um eine effizientere Analyse zu ermöglichen. Als das Team die Route änderte, reagierte die KI entsprechend verwirrt – warte, war das schon einmal hier – und zeigte damit, dass sie die übliche Route gelernt hatte.

Im Gegensatz dazu hatte ein beliebter Algorithmus Schwierigkeiten, dieselbe Route zu erkennen. Die Software konnte einer Route nur folgen, wenn sie genau dieselbe Videoaufzeichnung sah. Mit anderen Worten: Verglichen mit dem von Ameisen inspirierten Algorithmus konnte er nicht verallgemeinert werden.

Ein effizienteres Robotergehirn

KI-Modelle sind bekanntermaßen energiehungrig. Neuromorphe Systeme könnten ihre Völlerei eindämmen.

SpiNNaker, die Hardware hinter dem System, setzt den Algorithmus auf Energiediät. Basierend auf den neuronalen Netzwerkstrukturen des Gehirns unterstützt der Chip massiv paralleles Rechnen, was bedeutet, dass mehrere Berechnungen gleichzeitig erfolgen können. Dieses Setup verringert nicht nur die Verzögerung bei der Datenverarbeitung, sondern steigert auch die Effizienz.

In diesem Aufbau enthält jeder Chip 18 Kerne, die etwa 250 Neuronen simulieren. Jeder Kern hat seine eigenen Anweisungen zur Datenverarbeitung und speichert den Speicher entsprechend. Diese Art des verteilten Rechnens ist besonders wichtig, wenn es um die Verarbeitung von Echtzeit-Feedback geht, beispielsweise beim Manövrieren von Robotern in schwierigem Gelände.

Als nächsten Schritt befasst sich das Team eingehender mit den Gehirnschaltkreisen von Ameisen. Die Erforschung neuronaler Verbindungen zwischen verschiedenen Gehirnregionen und -gruppen könnte die Effizienz eines Roboters weiter steigern. Am Ende hofft das Team, Roboter zu bauen, die so komplex wie eine Ameise mit der Welt interagieren.

Bild-Kredit: Faris MohammedUnsplash 

Zeitstempel:

Mehr von Singularity Hub