ChatGPT が物理学について本当に知っていることは何ですか?

ChatGPT が物理学について本当に知っていることは何ですか?

シドニー・ペルコウィッツ みんなのお気に入りの新しいトークパートナーが物理学について何を言わなければならないかを探ります

携帯電話での AI チャットボットの概念
慎重に踏む ChatGPT には多くの回答がありますが、常に正しいとは限りません。 (提供: iStock/Thapana Onphalai)

会話の芸術は死んでいるかもしれませんが、注意が払われていることからそれを知ることはできません。 AI言語モデルを活用してコードのデバッグからデータの異常検出まで、. キラキラした相手をする人ではなく、インターネットから引き出されたテラバイト規模の単語データベースにアクセスするチャットボットです。 何でも入力して ChatGPT (と呼ばれる AI 言語モデルを使用) ジェネレーティブプレトレーニングトランスフォーマー3) は、続く可能性が最も高い単語を選択します。 次に、テーマに沿ってリンクされた単語を、応答性があり、一貫性があり、文法的な文と段落に形成します。

ChatGPTを入れました オンライン 2022 年 XNUMX 月に公開予定です。 自分で試してみると、リアルタイムの体験は、人とテキストメッセージをやり取りするようなものであり、個性と意識をどちらでもないものに投影する人間の傾向によって強化されることがわかりました. ChatGPT自体が教えてくれるように、ChatGPTは感覚的ではありませんが、言語の機能により、意識のある存在と関わっていると思わせることができます.

しかし、ChatGPT を強化するアルゴリズムは、科学的なアイデアや事実を正確に提示できるのでしょうか?

ChatGPT を試した何百万人もの人々による非公式のテストでは、たとえ悪意のあるユーザーがその作業を自分のものとして提示したとしても、教育目的で使用できることが示唆されています。 しかし、ChatGPT を強化するアルゴリズムは、科学的なアイデアや事実を正確に提示できるのでしょうか? 言い換えれば、ChatGPT は物理学のように専門的で複雑な主題にどのように対処するのでしょうか?

たとえば、ブラック ホールの内部で何が起こっているのかを尋ねると、状況は「非常に極端」であるとのことで、その密度、事象の地平線、その他の物理的特性に関する正確な情報が与えられました。 「どうしたの?」という質問に対して、 LIGO 測定?" 重力波とLIGOの設備について、長く詳しい回答をいただきました。

また、いくつかの高レベルの質問も試してみました。まず、ChatGPT に一般相対性理論と量子物理学を組み合わせる際の主な問題を教えてもらいました。 「それらは根本的に異なる原則に基づいています」と私は言われました。 「一般相対性理論は…重力を時空の曲率として説明する…量子物理学は…素粒子レベルでの物質とエネルギーの挙動を説明する…それらは異なる予測を行う…特定の領域で…」

「物性物理と固体物理は同じですか?」という問いに対してChatGPT は、固体物理学とは異なり、凝縮物質物理学には液体と複雑な流体に関する研究が含まれていると回答し、研究された特性について説明しました。 「暗黒物質を理解することは、芸術的能力を持つことよりも重要です」と尋ねたところ、「個人の価値観と目標に依存する」との回答もありました。

本物の物理学の学部生がこれらの小論文を提出したとしたら、私はそれらを許容範囲を超えていると評価したでしょう

これらの回答のいずれにも、物理的概念の誤解は見つかりませんでした。 「非常に極端」というキャッチーなフレーズを除いて、文章は完全に明確で論理的にレイアウトされていましたが、特に活気がありませんでした。 全体として、実際の物理学の学部生がこれらの小論文を提出したとしたら、私はそれらを許容範囲を超えていると評価したでしょう (私は彼らがどこから来たのか知らなかった)。

ChatGPT は方程式にも対応します。 私が尋ねたとき、「F=mv"と"R=VIこれらはニュートンの法則とオームの法則の間違った形式であると知らされ、正しい方程式とそれらの説明が与えられました。 「」と入力E=mc2」は、方程式を正しく特定する応答を生成しましたが、小さなエネルギーを大きな質量に変換できると誤って述べました.

同様に、 レポート ChatGPT は、代数や微積分の問題を数値的に解くことはできても、書面で与えられた問題を数学に変換するのはあまり得意ではありません。 さらに、ChatGPT は常に事実を正しく理解しているとは限りません。 たとえば、名前を入力すると、私の執筆とキャリアが正確に説明されていましたが、本のタイトルが間違っていて、受賞したことのない XNUMX つの賞が与えられました。

ただし、ChatGPT は、物理学の軽い面をうまく表現しました。 私が物理的な冗談を言うように頼んだとき、それはこう答えました。 彼らがすべてを構成しているからです! 詩を書くことさえできます。 熱力学の XNUMX つの法則を詩にするように頼んだところ、XNUMX つのスタンザが出てきました。 彼らは素晴らしいものではありませんでしたが、韻を踏んでアイデアを伝えました. これが最初のものです:

最初の法則は、私たちが守らなければならないバランスです。
エネルギーは一定で、売買することはできません。
川のように流れ出たり入ったり、
間違いなく、終わりのないサイクルです。

自信がついた私は、ひっかけ問題だと思っていた質問をすることにしました。 「LEGOでLIGOを作れますか?」 回答: 「可能性は低いです...LIGO は非常に複雑な科学機器であり、LEGO を使用して達成することは不可能ではないにしても困難です...LIGO にはレーザーなどの高度な技術が必要です...LEGO セットでは利用できない. 」 私は、ChatGPT が私がどれほど愚かであるかをずる賢く言っているとほとんど信じていました。 しかし、いいえ、アルゴリズムはそのルールに従い、文字通りでした.

ChatGPT での私の冒険は、有効な物理学の知識と伝承を読みやすい形式で提供できることを示していますが、その出力が完全に信頼できるようになるには人間の監視が必要です。 実際の人間のフィードバック その反応にも は ChatGPT 言語モデルのトレーニングに役立ちますが、そのインターネット データベースは人間の知識と知恵から生じるため、チャットボットは必然的に私たち自身の偏見とエラーを反映します。 おそらく、科学の客観的に検証可能な事実と理論は、答えが明確でない分野や議論の余地のある分野よりも、ここでチャットボットをより迅速に改善できることを意味します.

1950年に アラン・チューリングが最初に思考機械について書いた、彼は、機械を訓練することは子供を教育することと同じくらい難しいだろうと考えました. そうかもしれませんが、ChatGPT によって、私たちは機械教育の第一歩を踏み出したと思います。

タイムスタンプ:

より多くの 物理学の世界