EU AI 法の規制草案は、オープンソース ソフトウェア PlatoBlockchain Data Intelligence に萎縮効果をもたらす可能性があります。垂直検索。あい。

EU AI 法の規制草案は、オープンソース ソフトウェアに萎縮効果をもたらす可能性があります

インブリーフ 米国のシンクタンク、ブルッキングスによると、AI を規制することを目的として EU が起草した新しい規則により、開発者はオープンソース モデルをリリースできなくなる可能性があります。

  提案された まだ署名されていない EU AI Act では、オープンソース開発者は、AI ソフトウェアが正確で安全であり、明確な技術文書でリスクとデータの使用について透明性があることを確認する必要があると述べています。 

ブルッキングズ と主張 民間企業が公開モデルを展開したり、製品で使用したりした場合、モデルからの予期せぬまたは制御不能な影響により何らかの問題が発生した場合、その企業はおそらくオープンソース開発者を非難し、彼らを訴えようとするでしょう. . 

オープンソース コミュニティは、コードのリリースについて二度考えざるを得なくなる可能性があり、残念ながら、AI の開発は民間企業によって推進されることになるでしょう。 独自のコードは分析や構築が難しく、イノベーションが妨げられます。

Allen Institute of AI の元 CEO である Oren Etzioni は、オープン ソース開発者は、民間企業のソフトウェア エンジニアと同じような厳しい規則に従うべきではないと考えています。

「オープンソースの開発者は、商用ソフトウェアの開発者と同じ負担を負うべきではありません。 自由ソフトウェアは「現状のまま」提供できるというのは常にあるべきです — AI 能力を開発している一人の学生の場合を考えてみてください。 彼らは EU の規制を順守する余裕がなく、ソフトウェアを配布しないことを余儀なくされる可能性があり、それによって学問の進歩と科学的結果の再現性に悪影響を及ぼす可能性があります」と彼は述べています。 言われ TechCrunch。

推論の新しい MLPerf 結果が出ました

さまざまな構成で多数のタスクにわたってさまざまなベンダーの AI チップのパフォーマンスをベンチマークする年次 MLPerf 推論テストの結果は、 公表 今週。

今年は、データセンターとエッジ デバイスでの推論について、なんと 5,300 件近くのパフォーマンス結果と 2,400 件の電力測定値が報告されました。 このテストでは、ハードウェア システムが特定の機械学習モデルをどれだけ速く実行できるかを調べます。 データ処理の速度はスプレッドシートで報告されます。

Nvidia が今年もランキングのトップに立っているのは当然のことです。 「MLPerf 業界標準の AI ベンチマークでデビューした Nvidia H100 Tensor コア GPU は、すべてのワークロードの推論で世界記録を樹立し、前世代の GPU よりも最大 4.5 倍のパフォーマンスを提供します」と Nvidia はブログ投稿で熱く語っています。 「この結果は、高度な AI モデルで最大限のパフォーマンスを求めるユーザーにとって、Hopper が最高の選択肢であることを示しています。」

ますます多くのベンダーが MLPerf チャレンジに参加していますが、競争についてよく理解するのは難しい場合があります。 たとえば、今年はデータセンター トラックでの Google の TPU チップの結果は報告されていません。 しかし、Google は エース 今年初めの MLPerf のトレーニング コンテスト。 

AI アーティストが画像の背後に潜む恐ろしい顔を発見

デジタル アーティストによって投稿されたバイラル Twitter スレッドは、テキストから画像へのモデルがいかに奇妙であるかを明らかにしています。

多くのネチズンは、テキストプロンプトを入力して画像を生成するこれらのシステムを実験することに喜びと絶望を感じています. モデルの出力を調整するためのハックがあります。 そのうちの XNUMX つは「ネガティブ プロンプト」と呼ばれ、ユーザーはプロンプトで説明されている画像とは反対の画像を見つけることができます。 

Twitter で Supercomposite の名前で活動しているアーティストが、偽のロゴの無邪気な写真を説明する否定的なプロンプトを見つけたとき、彼らは本当に恐ろしいものを見つけました: 幽霊の女性のようなものの顔. Supercomposite は、この AI によって生成された女性を「ローブ」と名付けました。彼女の画像を他の画像と掛け合わせると、常にホラー映画のワンシーンのように見えてしまいます。

スーパーコンポジットは語った 彼はReg AI によって生成された人物のランダムな画像は、多くの場合、否定的なプロンプトに表示されます。 奇妙な行動はまだです もう一つの例 これらのモデルが持つことができるいくつかの奇妙な特性のうち、人々は調査を始めたばかりです。 

CEOのサンダー・ピチャイ氏によると、ここGoogleには感覚的なチャットボットはありません

Sundar Pichai は、元エンジニアの Blake Lemoine による、今週の Code カンファレンスでの彼の講演で、Google が知覚チャットボットを構築したという主張に反論しました。

Lemoine が XNUMX 月に見出しを飾ったとき、 発表の 彼は、Google の LaMDA チャットボットには意識があり、魂を持っているのではないかと考えました。 彼は後で 解雇 弁護士を雇って LaMDA とチャットし、その法的権利を評価した後、マシンがそうするように彼に指示したと主張した後、会社のプライバシーポリシーに違反したと伝えられています.

Google の CEO を含むほとんどの人は、Lemoine に同意しません。 「まだまだ先は長いと思います。 感覚とは何か、意識とは何かについて、しばしば哲学的または形而上学的な議論をしているような気がします」とピチャイは言いました。 従った フォーチュンへ。 「私たちはそこから遠く離れており、決してそこにたどり着けないかもしれません」と彼は付け加えました。

彼の主張をさらに強調するために、彼は、Google の AI 音声アシスタントが要求を理解して適切に応答できないことがあると認めました。 「良いニュースは、Google アシスタントに話しかける人は誰でも、会話型 AI の最高のアシスタントだと思いますが、特定のケースでそれがどれほど壊れているかをまだ見ていることです」と彼は言いました。 ®

タイムスタンプ:

より多くの 登録