この脳からヒントを得た AI は、子供のように推論を説明できる

この脳からヒントを得た AI は、子供のように推論を説明できる

子どものように、この脳からインスピレーションを得た AI は、PlatoBlockchain データ インテリジェンスの推論を説明できます。垂直検索。あい。

子どもたちは自然科学者です。彼らは世界を観察し、仮説を立て、それをテストします。最終的に、彼らは自分たちの(時には愛らしく陽気な)推論を説明できるようになります。

AI、それほどではありません。ディープラーニング (脳に大まかに基づいた機械学習の一種) がテクノロジーを劇的に変えていることは疑いの余地がありません。異常気象パターンの予測から新薬の設計、致死性癌の診断に至るまで、AI はますます統合されています。 科学のフロンティア.

しかし、深層学習には大きな欠点があります。それは、アルゴリズムがその答えを正当化できないことです。しばしば「ブラックボックス」問題と呼ばれるこの不透明さは、医療などの高リスクの状況での使用を妨げます。人生を変える病気と診断されたとき、患者は説明を求めます。今のところ、ディープラーニングベースのアルゴリズムは、たとえ診断精度が高くても、そのような情報を提供することはできません。

ブラックボックスを開くために、テキサス大学サウスウェスタン医療センターのチームはインスピレーションを得るために人間の心を盗みました。で 調査 in ネイチャー計算科学彼らは、脳ネットワークの研究から得られた原則と、説明可能な構成要素に依存するより伝統的な AI アプローチを組み合わせました。

結果として得られる AI は、少し子供のように振る舞います。さまざまな種類の情報が「ハブ」に凝縮されます。次に、各ハブは人間が読めるコーディング ガイドライン (データ内で見つかったパターンに関するアルゴリズムの結論を平易な英語で説明するプログラマー向けの CliffsNotes) に転写されます。また、完全に実行可能なプログラミング コードを生成して試してみることもできます。

「深蒸留」と呼ばれるこの AI は、難しい数学の問題や画像認識などのさまざまなタスクに挑戦すると、科学者のように機能します。 AI はデータを精査することで、人間が設計したものよりも優れたパフォーマンスを発揮できる段階的なアルゴリズムに抽出します。

「深蒸留により、人間の専門知識を補完する一般化可能な原理を発見できます。」 書いた チームは論文でこう述べています。

薄い紙

AIは現実世界でも失敗をすることがあります。ロボタクシーに乗りましょう。昨年、サンフランシスコ近郊で何度も立ち往生する人が何人かいたが、地元住民にとっては迷惑だったが、それでも笑われた。さらに深刻なのは、自動運転車が交通や救急車を妨害し、歩行者に重大な危害を与えたケースもあった。

医療や科学研究においても、危険が高まる可能性があります。

これらの高リスク領域に関しては、アルゴリズムは「エラーに対する低い許容度を要求する」と、この研究には関与していないベイルート・アメリカン大学のジョセフ・バカルジ博士は述べた。 書いた この作品についての関連記事で。

ほとんどの深層学習アルゴリズムの障壁は、その説明の難しさです。これらは多層ネットワークとして構造化されています。大量の生の情報を取り込み、無数のフィードバックを受信することで、ネットワークは接続を調整して、最終的に正確な答えを生成します。

このプロセスはディープラーニングの中心です。しかし、十分なデータがない場合、またはタスクが複雑すぎる場合には、問題が発生します。

2021 年にチームは AIを開発した それは別のアプローチをとりました。 「記号的」推論と呼ばれるニューラル ネットワークは、データを観察することによって明示的なルールと経験をエンコードします。

深層学習と比較して、シンボリック モデルは人間にとって解釈が容易です。 AI を、それぞれがオブジェクトまたは概念を表す一連のレゴ ブロックと考えてください。創造的な方法で組み合わせることができますが、その接続は明確なルールに従っています。

AI 自体は強力ですが、脆弱です。構成要素を見つけるには、以前の知識に大きく依存します。経験のない新しい状況に直面すると、既成概念にとらわれずに考えることができず、壊れてしまいます。

ここで神経科学が登場します。チームは、異なる脳領域がどのように連携するかを示すモデルであるコネクトームからインスピレーションを得ました。この接続性を記号的推論と組み合わせることで、彼らは、強固で説明可能な基盤を持ちながら、新しい問題に直面したときに柔軟に適応できる AI を作成しました。

いくつかのテストでは、推論を必要とするタスクにおいて「神経認知」モデルが他のディープ ニューラル ネットワークを上回りました。

しかし、データを理解し、それを説明するアルゴリズムを設計できるでしょうか?

人間味のある雰囲気

科学的発見で最も難しい部分の 1 つは、ノイズの多いデータを観察して結論を​​導き出すことです。このプロセスは、新しい材料や医薬品、生物学のより深い理解、そして私たちの物理的世界についての洞察につながります。多くの場合、それは何年もかかる繰り返しのプロセスです。

AI は物事をスピードアップし、人間の思考から逃れてきたパターンを発見できる可能性があります。たとえば、ディープラーニングはタンパク質の構造の予測に特に役立ちますが、その構造を予測する根拠を理解するのは困難です。

「人間が通常行うように、観察結果を単純で包括的なルールに抽出する学習アルゴリズムを設計できるでしょうか?」バカルジは書いた。

新しい研究では、チームの既存の神経認知モデルを採用し、コードを書く能力という追加の才能を与えました。

深層蒸留と呼ばれるこの AI は、類似した概念をグループ化し、各人工ニューロンが特定の概念と他の概念との関係をエンコードします。たとえば、あるニューロンは猫の概念を学習し、それが犬とは異なることを認識する可能性があります。別のタイプは、新しい写真 (たとえばトラ) を使用して、それが猫に似ているか犬に似ているかを判断する際の変動を処理します。

これらの人工ニューロンは階層に積み重ねられます。各層ごとに、システムは概念を徐々に区別し、最終的には解決策を見つけます。

AI にできるだけ多くのデータを処理させる代わりに、トレーニングは段階的に行われ、幼児に教えるのとほぼ同じです。これにより、新しい問題を徐々に解決していく AI の推論を評価することが可能になります。

標準的なニューラル ネットワーク トレーニングと比較して、自明の側面が AI に組み込まれているとバカルジ氏は説明しました。

テストでは、チームは古典的なビデオ ゲーム、コンウェイのライフ ゲームで AI に挑戦しました。 1970 年代に初めて開発されたこのゲームは、特定のルールを与えられてデジタル セルをさまざまなパターンに成長させるというものです (実際に試してみてください) こちら)。シミュレートされたゲームプレイ データでトレーニングされた AI は、潜在的な結果を予測し、その推論を人間が読めるガイドラインやコンピューター プログラミング コードに変換することができました。

この AI は、画像内の線の検出や難しい数学の問題の解決など、他のさまざまなタスクでもうまく機能しました。場合によっては、確立された手法を上回る創造的なコンピューター コードを生成し、その理由を説明することができました。

深層蒸留は、単純な部品から非常に複雑なシステムを生み出す物理科学や生物科学を後押しする可能性があります。この方法の潜在的な用途の 1 つは、DNA 機能を解読する研究者の共同研究者としての用途です。私たちの DNA の多くは「暗黒物質」であり、それがどのような役割を果たしているのか、もしあれば、それが何なのかはわかっていません。説明可能な AI は、遺伝子配列を解読し、遺伝学者が壊滅的な遺伝性疾患を引き起こす稀な変異を特定するのに役立つ可能性があります。

研究以外でも、チームは AI と人間のコラボレーションが強化される可能性に興奮しています。

神経象徴的なアプローチ より人間らしい機械学習機能が可能になる可能性がある」とチームは書いている。

バカルジ氏も同意する。新しい研究は「技術の進歩を超えて、私たちが今日直面している倫理的および社会的課題にも触れています」。説明可能性はガードレールとして機能し、AI システムがトレーニング中に人間の価値観と同期するのに役立ちます。医療などの高リスクのアプリケーションでは、信頼を構築できる可能性があります。

現時点では、このアルゴリズムは、概念に分解できる問題を解決する場合に最適に機能します。ビデオストリームなどの連続データを扱うことはできません。

それが深蒸留の次のステップだ、とバカルジ氏は書いた。それは「科学計算と理論研究に新たな可能性を開くだろう」。

画像のクレジット: 7AV 7AV / Unsplash 

タイムスタンプ:

より多くの 特異点ハブ