この読心キャップは AI のおかげで思考をテキストに変換できます

この読心キャップは AI のおかげで思考をテキストに変換できます

この読心キャップは、AI PlatoBlockchain データ インテリジェンスのおかげで思考をテキストに変換できます。垂直検索。あい。

ワイヤーが逆立った電極がちりばめられた帽子をかぶった若い男性が、頭の中で静かに文章を読んでいる。 しばらくして、Siriのような声が聞こえてきました。 彼の考えを文章に翻訳しようとしている, 「はい、鶏がらスープを一杯お願いします。」 これは、コンピュータが人の考えを言葉や文章に翻訳する最新の例です。

研究者らはこれまで、脳の活動をテキストに翻訳するために、外科的に脳に埋め込んだインプラントや大型で高価な機械を使用してきた。 の 新しいアプローチ今週のNeurIPSカンファレンスでシドニー工科大学の研究者らによって発表されたこの研究は、非侵襲的なEEGキャップの使用と、XNUMX人かXNUMX人を超えて一般化できる可能性が印象的です。

チームは、脳の活動と言語についてトレーニングされた DeWave と呼ばれる AI モデルを構築し、それを大規模な言語モデル (ChatGPT の背後にあるテクノロジー) にリンクして、脳の活動を単語に変換するのを支援しました。 で arXiv にプレプリントが投稿されました、このモデルは、約 40% の精度で、EEG 思考からテキストへの翻訳において、これまでの最高点を上回りました。 この論文の責任著者であるチン・テン・リン氏は、 MSNに語った 最近ではその精度が 60% まで向上しました。 結果はまだ査読中です。

信頼性という点では長い道のりがありますが、思考を読み取って言語に翻訳する非侵襲的な方法の進歩を示しています。 研究チームは、彼らの作品が怪我や病気で意思疎通ができなくなった人々に声を与えたり、歩行ロボットやロボットアームなどの機械に思考だけで指示を与えたりできる可能性があると考えている。

私が何を考えているか推測してください

思考を高速でテキストに変換する「読心」マシンに関する見出しを覚えているかもしれません。 なぜなら、このような取り組みは決して新しいものではないからだ。

今年初め、スタンフォード大学の研究者らは、 説明された作品 ALSにより話す能力を失った患者、パット・ベネットと。 脳の XNUMX つの部分に XNUMX つのセンサーを埋め込み、広範なトレーニングを行った結果、ベネットさんは自分の考えを伝えることでコミュニケーションをとることができるようになりました。 62分あたりXNUMXワードの速度でテキストに変換される—同じチームの 2021 年の記録である 18 分あたり XNUMX ワードを上回りました。

これは驚くべき結果ですが、脳移植には危険が伴う可能性があります。 科学者たちは、手術なしでも同様の結果が得られることを望んでいます。

In 今年の別の研究、テキサス大学オースティン校の研究者らは、fMRIと呼ばれる脳スキャン技術に注目しました。 この研究では、患者は話を聞く間、脳内の血流を記録する機械の中でじっと横たわっていなければなりませんでした。 このデータを使用して、ChatGPT の祖先である GPT-1 に一部基づいたアルゴリズムをトレーニングした後、チームはシステムを使用して、参加者の脳活動に基づいて参加者が聞いている内容を推測しました。

システムの精度は完璧ではなく、参加者ごとに大幅なカスタマイズが必要で、fMRI 装置はかさばって高価でした。 それでも、この研究は、思考を非侵襲的に解読でき、最新の AI がそれを実現するのに役立つという概念の実証として機能しました。

組分け帽子

In ハリーポッター, 生徒たちは心を読む魔法の帽子によって校舎に振り分けられます。 私たちマグルは、ワイヤーや電極で穴を開けた、おかしな見た目の水泳帽に頼っています。 脳波計 (EEG) キャップとして知られるこれらのデバイスは、脳内の電気活動を読み取り、記録します。 脳インプラントとは対照的に、手術は必要ありませんが、精度はかなり低くなります。 したがって、課題は、有用な結果を得るために信号をノイズから分離することです。

新しい研究では、研究チームは、それぞれ12名と18名がテキストを読んでいるときの視線追跡と脳波記録を含むXNUMXつのデータセットを使用した。 視線追跡データは、システムが単語ごとに脳の活動を細分化するのに役立ちました。 つまり、人の目がある単語から次の単語に飛び移るということは、その単語に関連付けられた脳の活動と、次の単語に関連付けられるはずの脳の活動の間に休憩があるはずであることを意味します。

その後、このデータに基づいて DeWave をトレーニングし、時間が経つにつれて、アルゴリズムは特定の脳波パターンと単語を関連付けることを学習しました。 最後に、モデル固有の出力を理解するために微調整された、BART と呼ばれる事前トレーニング済みの大規模言語モデルの助けを借りて、アルゴリズムの脳波と単語の関連付けが文章に翻訳されました。

テストでは、DeWave は、生の脳波と単語ごとにスライスされた脳波の両方の翻訳において、このカテゴリのトップ アルゴリズムを上回りました。 後者はより正確ではありますが、英語やフランス語などの言語間の翻訳や音声認識よりはまだ大幅に遅れています。 彼らはまた、アルゴリズムが参加者全体で同様に実行されたことも発見しました。 これまでの実験では、XNUMX 人分の結果が報告されるか、極端なカスタマイズが必要になる傾向がありました。

研究チームは、この研究は大規模な言語モデルが頭脳からテキストへのシステムの進歩に役立つことをより証明していると述べている。 公式研究では比較的古いアルゴリズムが使用されていましたが、補足資料には、Meta のオリジナルの Llama アルゴリズムを含む、より大規模なモデルからの結果が含まれていました。 興味深いことに、アルゴリズムを大きくしても結果はあまり改善されませんでした。

「これは問題の複雑さと、脳活動をLLMと橋渡しするという課題を浮き彫りにしている」と著者らは書いており、将来的にはより微妙な研究が必要としている。 それでも、チームは独自のシステムをさらに推し進め、おそらく最大 90% の精度まで高めることができると期待しています。

この作業は、この分野での進歩を示しています。

「人々は長い間脳波をテキストに変換したいと考えていましたが、チームのモデルは驚くべき正確さを示しています」とシドニー大学のクレイグ・ジン氏は語った。 MSN。 「数年前、脳波からテキストへの変換は完全であり、まったくナンセンスでした。」

画像のクレジット: シドニー工科大学

タイムスタンプ:

より多くの 特異点ハブ