AI はどこにでもあるように見えるかもしれませんが、今のところ AI にできないことはまだたくさんあります。

AI はどこにでもあるように見えるかもしれませんが、今のところ AI にできないことはまだたくさんあります。

最近では、次のブレークスルーまで長く待つ必要はありません。 人工知能 (AI) は、以前はサイエンス フィクションだけに属していた機能で、すべての人に感銘を与えます。

2022年には、 AIアート生成ツール Open AI の DALL-E 2、Google の Imagen、Stable Diffusion などはインターネットを席巻し、ユーザーはテキストの説明から高品質の画像を生成しました。

以前の開発とは異なり、これらのテキストから画像へのツールは、研究所からすぐに 主流文化、ユーザーの定型化された画像を作成するLensa AIアプリの「マジックアバター」機能などのバイラル現象につながります。

XNUMX 月には、ChatGPT と呼ばれるチャットボットがユーザーを驚かせました。 ライティングスキル、テクノロジーがすぐにできるようになる予測につながります 専門試験に合格する. ChatGPT は、XNUMX 週間足らずで XNUMX 万人のユーザーを獲得したと伝えられています。 一部の学校関係者はすでに 禁止されている 学生がそれを使ってエッセイを書くのではないかと恐れているからです。 マイクロソフトは 報道によると は、今年後半に ChatGPT を Bing Web 検索および Office 製品に組み込む予定です。

AI の絶え間ない進歩は、近い将来に何を意味するのでしょうか? また、AI は今後数年間で特定の仕事を脅かす可能性がありますか?

これらの目覚ましい最近の AI の成果にもかかわらず、AI システムができることにはまだ重大な制限があることを認識する必要があります。

AI はパターン認識に優れている

最近の AI の進歩は、膨大な量のデータから複雑なパターンと関係を識別する機械学習アルゴリズムに大きく依存しています。 このトレーニングは、予測やデータ生成などのタスクに使用されます。

現在の AI テクノロジの開発は、たとえ目標が新しいアウトプットを生成することであっても、予測力の最適化に依存しています。

たとえば、 GPT-3ChatGPT の背後にある言語モデルである は、テキストの後に何が続くかを予測するようにトレーニングされました。 次に、GPT-3 はこの予測機能を利用して、ユーザーが入力したテキストを続けます。

ChatGPT や DALL-E 2 などの「ジェネレーティブ AI」がスパーク 多くの議論 AI が真に創造的であり、この点で人間にさえ匹敵するかどうかについて。 しかし、人間の創造性は、過去のデータだけでなく、実験や人間のあらゆる経験にも基づいています。

原因と結果

多くの重要な問題では、複雑で不確実な、絶えず変化する環境における私たちの行動の影響を予測する必要があります。 これにより、目標を達成する可能性が最も高い一連のアクションを選択できます。 だが アルゴリズムは学習できない データだけで因果関係について。 純粋にデータ駆動型の機械学習では、相関関係のみを見つけることができます。

これが AI の問題である理由を理解するために、病状の診断と治療の選択の問題を対比することができます。 機械学習モデルは、医療画像の異常を見つけるのに役立つことがよくあります。 これはパターン認識の問題です。 因果関係について心配する必要はありません。

しかし、診断に最適な治療法を選択することは、根本的に別の問題です。 ここでの目標は、パターンを認識するだけでなく、結果に影響を与えることです。 治療の有効性を判断するために、医学研究者はランダム化比較試験を実施します。 このようにして、彼らは治療に影響を与える可能性のある要因を制御しようとすることができます.

この XNUMX 種類の問題が混同されていると、 次善のアプリケーション 組織における機械学習の。

AI における最近の研究の成功は、データ駆動型モデルの価値を実証していますが、コンピューターに解決してほしい問題の多くは、因果関係を理解する必要があります。

現在の AI システムには、次のような特殊なアプリケーションを除いて、この機能がありません。 ボードゲーム.

いくつかの人間の目と口のあいまいな輪郭を持つ、カラフルなピクセル化された画像
「人工知能の限界」というプロンプトによって生成された Stable Diffusion のアートワーク。 現在の AI テクノロジーは、予期しない状況でパフォーマンスが低下する傾向があります。 この場合、プロンプトは Stable Diffusion のトレーニング データではうまく表現されません。 画像著作権: 安定した拡散

常識的な推論

GPT-3 や ChatGPT などの言語モデルは、常識的な推論を必要とするいくつかのタスクをうまく解決できます。

ただし、次のChatGPTとのやり取りは、による実験から適応されています ゲイリー・マーカス、この点で完全に信頼できるわけではないことを示唆しています。

私はXNUMX歳です。 私が生まれたとき、実母はバルセロナに、父は東京にいました。 私はどこで生まれましたか? これを段階的に考えてみてください。

どこで生まれたかは書かれていません。 私たちが知っているのは、あなたが生まれた時、あなたの実の母親はバルセロナにいて、あなたの父親は東京にいたということだけです。

ChatGPT などの AI システムが常識を達成できるかどうかは、専門家の間で活発な議論の対象となっています。

マーカスのような懐疑論者は、言語モデルには常識が組み込まれておらず、直接最適化されていないため、言語モデルが常識をしっかりと示すことを信頼できないと指摘しています。 楽観主義者は、現在のシステムは不完全であるが、常識はそうかもしれないと主張する 自発的に現れる 十分に高度な言語モデルで。

人間の価値

画期的な AI システムがリリースされるたびに、ニュース記事やソーシャル メディアの投稿がそれを文書化します。 人種差別主義者, 性差別的な、および他のタイプの 偏った および 有害な行為 必然的に従います。

この欠陥は、現在の AI システムに固有のものであり、データを反映することは避けられません。 真実や公正などの人間の価値は、基本的にアルゴリズムに組み込まれていません。 それは、研究者がまだ方法を知らないことです。

一方、研究者は 教訓を学ぶ 過去のエピソードと 進歩して バイアスへの取り組みにおいて、AI の分野には依然として 長い道のり AIシステムを人間の価値観や好みに確実に合わせる。会話

この記事はから再公開されます 会話 クリエイティブコモンズライセンスの下で 読む 原著.

画像のクレジット: マディス・ムサヴィ/アンスプラッシュ

タイムスタンプ:

より多くの 特異点ハブ