AI を時の試練に耐えさせる

AI を時の試練に耐えさせる

AI を時の試練に耐えさせる PlatoBlockchain Data Intelligence。垂直検索。あい。

意見 AI に関するすべての懸念と恐れは 1 つに集約されます。それがどの程度うまく機能しているかをどうやって知ることができるでしょうか?

IT 部門が通常懸念する種類のベンチマークは、重要性がないわけではありません。特定のデータセットの学習速度、プロンプトの処理速度、必要なリソース、およびそれらすべてのスケールはどのくらいですか?ビジネスの一環として AI システムを作成している場合は、これらのことを正しく理解するか、少なくともその限界を理解する必要があります。

それ以外の場合はあまり重要ではありませんが、マーケティングや専門家が同意しないことは確かです。それが重要ではないという事実は良いことです。ベンチマークは機能を歪めるターゲットになることが多すぎるため、犬小屋にしっかりと保管する必要があります。

AI の最も重要なベンチマークは、AI がどれほど真実であるか、より便利には、AI を販売または使用する人によって AI がどれほど誤って伝えられているかということです。ポンテオ・ピラトが2,000年前に言ったと言われているように、真理とは何でしょうか?ベンチマークはありません。この問題は何千年もの間、無限に解決されたと主張されてきたにもかかわらず、まだ解決されていません。最もひどい嘘つきでも、理性の黄金時代であるはずの真っ只中に国家の支持を得ることができる。誰も彼らを止める準備ができていないか、止めることができないのであれば、私たちが AI を天使の側に置き続けるチャンスはあるでしょうか?

可能性のあるメカニズムの 1 つは、理論的には政治の外側にありながら民主的管理の内側に存在する、規制機関と司法制度の奇妙な統合です。規制当局は基準を設定し、裁判所はそれらの権限に対するバックストップとして機能し、紛争の裁定者として機能します。

どこにあるか見てみると、 議論は司法制度におけるAIに関するものです, ニュアンスがたくさん出てきます。他の職業と同様に、法律家も仕事を続けたいと願う人間で構成されています。彼らはまた、それらの仕事をより良くしたいと考えています。これは、正義を必要とする人々とそれにアクセスできる人々との間の格差を減らすことを意味しており、彼らもそれを痛感している。ここでの AI の見通しは、透明性があり、アクセスしやすく、信頼でき、魅力的であれば、潜在的に非常に有益であると考えられています。

もちろん、これは他の分野の AI にも当てはまります。法曹界は人事の真実を追求することに他の誰よりも多くの時間を費やしてきたため、法曹界の専門家が何を考えているかを注意深く監視する義務は私たち全員にあります。結局のところ、彼らは持っていました COBOL よりずっと前のコード.

それが規制当局の話になります。規制される分野が技術的で測定可能であればあるほど、規制当局の仕事は容易になるはずです。無線スペクトルや鉄道を管理している場合、何か問題が発生するとすぐに数字に現れます。資本経済の瘴気と企業の誤った方向性の中で機能する金融規制当局は、力強い成長の名の下に弱体化するというサイクルを経て、最終的にすべてが崩壊し、その後に大規模なリセットが行われる。ひるみながら繰り返します。しかし、非常に技術的な規制当局は、次のように間違ってしまう可能性があります。 FAAとボーイングの737 MAX。業界や政治家による規制の奪取は、常に脅威となっています。 GDPR は 5 年前から適用されているため、判断できない場合もあります。機能していますか?

残念ながら、2 つの異なる方法で規制された市場を作成し、その結果を比較することは不可能です。 EU には何年にもわたって GDPR が適用されており、同時期に適用されていない EU はありません。経験主義の基盤の 1 つであるコントロール グループは、規制当局では簡単には見つかりませんが、法制度ではなおさらです。陪審制度は、複数の独立した精神の存在を通じて事件を審理する一方、最高裁判所の最終バックストップでは、最も困難な事件も同様に合議体に提出される。並行する異なるシステムは存在しません。どうしてそんなことがあり得るでしょうか?

ここで、AI の性質が、責任を持って機械を人類の事柄と統合するための規制の足がかりを示唆している可能性があります。 AI は 1 つだけではなく、多数のモデル、ハードウェア プラットフォーム、アプローチ、実験があります。これらは機械なので、必要なだけ作ることができます。究極の真実は最終的には知ることはできませんが、実行可能なコンセンサス、あるいは実行可能な多数決は達成可能です。

AI が関与する重要なタスクがあり、失敗をすぐに見つける方法がない場合は、並行して別のタスクを実行します。そしてもう一つ。答えを比較してください。特定の問題に対して十分な独立した AI が見つからない場合は、できるまで AI を使用しないでください。

冗長性はエラーに対する強力な武器になります。アポロが月に到達したのは、システムが完璧だったからではなく、障害を想定して冗長性が確保されていたからです。ソ連の有人月探査計画は、便宜的に見えることを優先してそれを避けたが、不名誉な結果に終わった。

AI を信頼する必要はありませんが、それは同様に良いことです。真実とは何でしょうか?それは私たちと同じように何も知りません。しかし、私たちは信頼と検証を行うシステムを中心に実行可能な社会を構築しており、これが裁判官やジェット機でも機能していることがわかります。ますます思慮深い仲間たちの哲学、可能性、そして落とし穴は、時間が経てば解決するでしょう。私たちは、できるうちに自分たちに有利なように確率を設定しておけばよいのです。私たちが何をしても、それから手を洗うことはできません。 ®

タイムスタンプ:

より多くの 登録