アリにヒントを得たこの AI の頭脳は、農場ロボットが作物をより適切にナビゲートするのに役立ちます

アリにヒントを得たこの AI の頭脳は、農場ロボットが作物をより適切にナビゲートするのに役立ちます

このアリからインスピレーションを得た AI 頭脳は、農場ロボットが作物をより適切にナビゲートするのに役立ちます PlatoBlockchain データ インテリジェンス。垂直検索。あい。

これを想像してみてください。夕日がトウモロコシ畑を琥珀と金のまばゆいばかりの色で染めます。 何千ものトウモロコシの茎が、穂軸とカサカサ音を立てた葉で重く、すべての人の上にそびえ立っています。トウモロコシの迷路を走り回る子供たち。 農作物を検査する農民。 秋の収穫に備えて熟した甘い穂をそっと摘み取りながらロボットがビュンビュンと通り過ぎる。

待って、ロボット?

のどかな農地とロボットは奇妙な組み合わせに見えるかもしれません。 しかし、ロボットが周囲を「見る」ことを可能にするますます洗練されたソフトウェア(コンピュータビジョンと呼ばれる技術)のおかげで、ロボットは急速に食品生産のメインラインに統合されつつあります。 ロボットは現在、次のような日常の雑務を実行しています。 熟した果実を収穫する または作物を枯らす雑草を破壊します。

継続的な不足 農場労働者にとっての希望は、 作物の収穫量を増やし、新鮮な果物や野菜を確実に食卓に届け、無駄を最小限に抑えることができます。

このビジョンを実現するには、ロボット農場労働者が複雑でわかりにくい農地を移動できる必要があります。 残念ながら、これらのマシンは最高のナビゲーターではありません。 特に複雑で困難な地形に直面した場合、道に迷う傾向があります。 トウモロコシの迷路で苦闘する子供たちと同じように、ロボットは自分の位置を忘れてしまうため、その症状には名前が付けられていることがよくあります。 誘拐ロボット問題.

A  新しい研究 in 科学ロボット工学 ロボットに記憶を与えることで、ロボットのナビゲーション スキルを向上させることを目的としています。

エディンバラ大学のバーバラ・ウェッブ博士率いるこのインスピレーションは、アリという驚くべき情報源から来ました。 これらの生き物は、たった XNUMX 回の旅行で目的の目的地に移動するのが非常に上手です。 経験豊富なハイカーと同じように、彼らは途中で茂った草木の中を移動するときでも、よく知っている場所を覚えています。

研究チームは、徘徊ロボットから収集した画像を使用して、ナビゲーション中のアリの脳プロセスに基づくアルゴリズムを開発した。 脳の計算を模倣するハードウェア上でこの新しい方法を実行すると、この新しい方法はナビゲーション タスクにおいて最先端のコンピュータ ビジョン システムに勝利しました。

「特に昆虫の脳は、効率と有効性の強力な組み合わせを提供します」と研究チームは述べています。

問題の解決は、わがままなロボット農場主に家に帰るための内部コンパスを与えるだけではありません。 ニューロモーフィック コンピューティングと呼ばれる脳の計算手法を利用すれば、自動運転車などのロボットが私たちの世界とどのように相互作用するかをさらに精緻化できる可能性があります。

アリの生活

うっそうとした森やトウモロコシの迷路を歩き回ったことがあるなら、おそらく友達に「ここはどこ?」と尋ねたことがあるでしょう。

店先やその他の建物を目印にして街区に沿って歩くのとは異なり、畑の中を歩き回るのは非常に困難です。 その主な理由は、周囲の環境が似ているため、自分がどこにいるのか、どの方向を向いているのかがわかりにくいことです。

ロボットも野生環境では同じ課題に直面します。 現在、ビジョンシステムは複数のカメラを使用してロボットが地形を横断する際の画像をキャプチャしていますが、照明や気象条件が変化した場合に同じシーンを識別するのは困難です。 アルゴリズムの適応が遅いため、複雑な環境で自律ロボットを誘導することが困難になります。

ここでアリが登場します。

人間に比べて脳のリソースが比較的限られているにもかかわらず、アリは複雑な新しい環境を学習し、ナビゲートすることに驚くほど優れています。 彼らは、天候、泥、照明に関係なく、以前のルートを簡単に覚えています。

研究チームによると、「GPSよりも高い精度でロボットが」ルートをたどることができるという。

アリのナビゲーション能力の特徴の XNUMX つは、ナビゲーション中に自分がどこにいるかを正確に知る必要がないことです。 むしろ、生き物はターゲットを見つけるために、その場所が馴染みのある場所であるかどうかを認識するだけで済みます。

それはホテルから新しい町を探索するようなものです。地図上のどこにいるのかを必ずしも知る必要はありません。 朝食を食べるカフェに行く道を覚えておくだけで、家までスムーズに帰ることができます。

アリの脳をインスピレーションとして使用し、チームは XNUMX つのステップでニューロモーフィック ロボットを構築しました。

一つ目はソフトウェアでした。 アリは小さな脳を持っているにもかかわらず、慣れ親しんだルートを再訪するために神経回路を微調整することに特に熟練しています。 研究チームは、これまでの発見に基づいて、アリの脳の神経ハブの一種である「キノコ体」に焦点を当てた。 これらのハブは、周囲から視覚情報を学習するために重要です。 その後、その情報はアリの脳全体に広がり、ナビゲーション上の決定を知らせます。 たとえば、このルートに見覚えがあるか、それとも別の車線を試したほうがよいでしょうか?

次に登場したのは、動物の目のように画像を捉えるイベント カメラです。 結果として得られる画像は、写真撮影中に目がどのように光を処理するかを模倣するため、コンピューター ビジョンのトレーニングに特に役立ちます。

最後のコンポーネントはハードウェアです。 SpiNNaker コンピュータチップ 脳の機能を模倣するように構築されています。 このチップは英国のマンチェスター大学で最初に開発されたもので、生物学的ニューラルネットワークの内部動作をシミュレートしてメモリをエンコードします。

3 つのコンポーネントすべてを組み合わせて、チームはアリのようなシステムを構築しました。 概念実証として、彼らはこのシステムを使用して、困難な地形を移動する移動ロボットに電力を供給しました。 特大ハンバーガーほどの大きさのこのロボットは、「TurtlebotXNUMX burger」という適切な名前が付けられており、ハイキング中にイベントカメラで画像を撮影しました。

ロボットが森林地帯を転がりながら、そのニューロモーフィックな「脳」が周囲のピクセルを使用して「イベント」を迅速に報告しました。 たとえば、枝や葉がロボットの視界を遮った場合、アルゴリズムは警告イベントをトリガーしました。

この小さなロボットは、さまざまな高さの植物の中を約 20 フィート移動し、そのトレッキングから学習しました。 研究チームによると、この範囲はアリがルートを移動するのに典型的な範囲だという。 複数のテストで、AI モデルはより効率的な分析を行うために旅行のデータを細分化しました。 チームがルートを変更すると、AI はそれに応じて混乱しながら反応し、「待て、ここは前にもここだったのか」と、通常のルートを学習したことを示しました。

対照的に、一般的なアルゴリズムは同じルートを認識するのに苦労しました。 ソフトウェアは、まったく同じビデオ録画を見た場合にのみルートをたどることができます。 言い換えれば、アリにヒントを得たアルゴリズムと比較すると、一般化できませんでした。

より効率的なロボットの頭脳

AI モデルはエネルギーを大量に消費することで知られています。 ニューロモーフィックシステムは彼らの暴食を減らす可能性があります。

システムの背後にあるハードウェアである SpinNNaker は、アルゴリズムにエネルギーを節約させます。 このチップは、脳のニューラル ネットワーク構造に基づいて、大規模な並列コンピューティングをサポートしています。つまり、複数の計算を同時に実行できます。 この設定により、データ処理の遅延が減少するだけでなく、効率も向上します。

このセットアップでは、各チップに 18 個のコアが含まれており、約 250 個のニューロンをシミュレートします。 各コアにはデータ処理に関する独自の命令があり、それに応じてメモリを保存します。 この種の分散コンピューティングは、困難な地形でのロボットの操作など、リアルタイムのフィードバックを処理する場合に特に重要です。

次のステップとして、研究チームはアリの脳回路をさらに深く調査している。 異なる脳領域やグループ間の神経接続を調査すれば、ロボットの効率をさらに高めることができる可能性がある。 最終的にチームは、アリと同じくらい複雑に世界と対話できるロボットを構築したいと考えています。

画像のクレジット: ファリス・モハメドUnsplash 

タイムスタンプ:

より多くの 特異点ハブ