機械は自己認識できるか? 新しい研究は、これがどのように起こり得るかを説明しています

機械は自己認識できるか? 新しい研究は、これがどのように起こり得るかを説明しています

機械を作るには、その部品が何であり、それらがどのように組み合わされるかを知らなければなりません。 機械を理解するには、各部品が何をし、どのように機能に寄与するかを知る必要があります。 言い換えれば、それがどのように機能するかの「メカニズム」を説明できるはずです。

によると、 哲学的アプローチ メカニズムと呼ばれる人間は、間違いなく一種の機械であり、世界を考え、話し、理解する能力は、私たちが理解していない機械的プロセスの結果です。

自分自身をよりよく理解するために、自分の能力を模倣する機械を作ろうとすることができます。 そうすることで、それらのマシンのメカニズムを理解することができます。 そして、機械が示す私たちの行動が多ければ多いほど、私たちは自分自身の心を機械的に説明することに近づくかもしれません.

これが、哲学的な観点から AI を興味深いものにしている理由です。 などの上級モデル GPT-4 Midjourney は、人間の会話を模倣し、専門的な試験に合格し、ほんの数語で美しい写真を生成できるようになりました。

しかし、すべての進歩にもかかわらず、疑問は未解決のままです。 何かを自己認識させたり、他の人が認識していることを認識したりするにはどうすればよいでしょうか? アイデンティティとは? 意味は何ですか?

これらのことについて多くの競合する哲学的記述がありますが、それらはすべて機械的な説明に抵抗しています.

一連の論文 のために受け入れられた 一般人工知能の第 16 回年次会議 ストックホルムでは、これらの現象を機械的に説明します。 彼らは、自分自身、他人、他人から認識された自分自身などを認識する機械をどのように構築できるかを説明しています。

知性と意図

私たちが知性と呼んでいるものの多くは、不完全な情報で世界について予測することに要約されます。 機械が正確な予測を行うために必要な情報が少ないほど、機械はより「インテリジェント」になります。

どのようなタスクでも、実際に役立つインテリジェンスの量には限界があります。 たとえば、ほとんどの成人は車の運転を学べるほど頭が良いが、頭が良くなっても運転が上手になるわけではない。

私の論文は 知能の上限 与えられたタスクのために、そしてそれを達成する機械を構築するために必要なもの。

私はこのアイデアを Bennett's Razor と名付けました。これは非技術的な用語で、「説明は必要以上に具体的であってはならない」というものです。 これは、Ockham's Razor の一般的な解釈とは異なります (および その数学的記述)、より簡単な説明が優先されます。

違いは微妙ですが、重要です。 で 実験 AI システムが単純な数学を学習するために必要なデータの量を比較すると、具体的でない説明を好む AI は、単純な説明を好む AI よりも 500% も優れていました。

この発見の意味を探ると、意味の機械的な説明にたどり着きました。グリセ語の語用論」 これは、意味が意図とどのように関連しているかを考察する言語哲学の概念です。

動物が生き残るためには、他の動物を含む環境がどのように行動し、反応するかを予測する必要があります。 犬の近くに車を放置することをためらうことはありませんが、ランプ ステーキ ランチについても同じことは言えません。

コミュニティで知的であるということは、他者の感情や好みから生じる意図を推測できることを意味します。 機械が人間との相互作用に依存するタスクの知能の上限を達成する場合、意図も正しく推測する必要があります。

そして、機械が自分に降りかかる出来事や経験に意図を帰することができれば、これはアイデンティティの問題と、自分自身と他人を認識するとはどういう意味かという問題を提起します.

因果関係と同一性

雨が降るとジョンがレインコートを着ているのが見えます。 晴れた日にジョンにレインコートを無理やり着せたら、雨が降るでしょうか?

もちろん違います! 人間にとって、これは明らかです。 しかし、原因と結果の機微を機械に教えるのはより困難です (興味のある読者は、 なぜの本 ジュデア・パールとダナ・マッケンジーによる)。

これらのことを推論するには、機械は「私がそれを引き起こした」と「私がそれを見た」とは異なることを学習する必要があります。 通常、私たちは プログラム この理解をそれに。

しかし、私の仕事は、タスクの知能の上限で実行するマシンを構築する方法を説明しています。 そのような機械は、定義上、原因と結果を正しく識別しなければならず、したがって因果関係も推測しなければなりません。 私の論文 方法を正確に調べます。

この意味は深刻です。 機械が「私がそれを引き起こした」と学習した場合、「私」(それ自体のアイデンティティ)と「それ」の概念を構築する必要があります。

意図を推測する能力、原因と結果を学習する能力、抽象的なアイデンティティを構築する能力はすべて関連しています。 タスクの知能の上限を達成するマシンは、これらすべての能力を発揮する必要があります。

このマシンは、それ自体のアイデンティティを構築するだけでなく、タスクを完了する能力を助けたり妨げたりするすべてのオブジェクトのあらゆる側面に対してアイデンティティを構築します. その後、 独自の設定を使用する として 予測するベースライン 他の人ができること。 これは方法に似ています 人間は帰化する傾向がある 人間以外の動物への意図。

では、それは AI にとって何を意味するのでしょうか?

もちろん、人間の心は、私の研究で実験を行うための単純なプログラム以上のものです。 私の研究は、間違いなく自己認識しているマシンを作成するための可能な因果経路の数学的記述を提供します。 しかし、そのようなエンジニアリングの詳細はまだ解決されていません。

たとえば、人間のような意図には、人間のような経験や感情が必要ですが、これは設計が難しいものです。 さらに、人間の意識の豊かさを簡単にテストすることはできません。 意識 は、上記のより狭いクレームを包含するが、それらとは区別されるべきである、広範で曖昧な概念です。

メカニズムの説明を提供しました 側面 しかし、これだけでは、人間が経験する意識の豊かさを完全に捉えることはできません。 これはほんの始まりに過ぎず、今後の研究ではこれらの議論を拡張する必要があります。会話

この記事はから再公開されます 会話 クリエイティブコモンズライセンスの下で 読む 原著.

画像のクレジット: ディープマインド on Unsplash 

タイムスタンプ:

より多くの 特異点ハブ