Google、多様性描写の反発を受けてGemini AIを一時停止

Google、多様性描写の反発を受けてGemini AIを一時停止

Google、多様性描写の反発を受けてGemini AIを一時停止 PlatoBlockchain Data Intelligence。垂直検索。あい。

Googleはサービスを一時停止した ジェミニAI 歪んだ人種表現をめぐる騒動を受けて「人物」のイメージを生成することから。 

たとえ歴史的に不正確な文脈であっても、AIが主に有色人種を描写する傾向があることをユーザーが指摘したことを受け、このテクノロジー企業は行動を起こした。この動きは、Gemini の機能を改良して、より正確で多様な描写を保証することを目的としています。

また、お読みください。 それは冗談だ!ユーザーはGoogleのGeminiを見逃していると嘲笑する

反発の起源

論争の核心は、AIが画像出力に人種の多様性を正確に反映できていないことにある。ソーシャルメディアは戦場となり、歴史的、文化的正確さから逸脱した双子座が生成した画像をユーザーが共有しました。注目すべき例には、ナチスの軍服を着た非白人スウェーデン人女性や有色人種の描写が含まれます。 

このような不正確さは、ソーシャル メディア上で議論を引き起こしただけでなく、Google 内での従業員の厳しい内省にもつながりました。 表現する AIの欠点に対する当惑。批評家は、これらの不正確さは単なる技術的な欠陥ではなく、AI プログラミングにおけるより深刻なバイアスを反映していると主張しています。

Google ARVR の研究エンジニア、St. Ratej 氏は、X への投稿で「会社で働くことがこれほど恥ずかしいことはありませんでした」と語った。

ただし、反発は Google だけにとどまらず、一部のユーザーは、次のような他の AI プラットフォームでも同様のバイアスがあることに気づきました。 OpenAI の ChatGPT。その結果、AI テクノロジー全体にわたる精査の一貫性について疑問が生じ、公平な AI 表現を確保するという広範な業界全体の課題が浮き彫りになりました。

リップル効果

この事件は同社のイメージを傷つけただけでなく、AIの倫理と表現に関する広範な議論を引き起こした。イーロン・マスクはグーグルの方法論を「人種差別的」で「反文明的」だと批判した。ムスクさんの 注釈 さらに、AI テクノロジーの倫理的境界に対する懸念の高まりと、AI によって生成されたコンテンツのより多様で正確な描写の必要性も反映されています。

「グーグルがAI画像生成で大げさに手を尽くしてくれたことをうれしく思う。なぜなら、グーグルの狂気の人種差別的で反文明的なプログラムが誰の目にも明らかだからだ。」

この論争に応えて、マスク氏は自身の AI モデル Grok について、さらなるバージョンをリリースする予定であると表明しました。このテクノロジーは AI 開発における競争力を実証しており、Gemini などの既存モデルの限界を克服するのに役立つ可能性があります。さらに、AI 市場が急速なイノベーションと激しい競争を特徴とする中、Grok と Groq LPU チップの偶然の名前の類似性が注目を集めました。

改善への道

Google はこの問題を認識し、Gemini の描画機能を改良するつもりでした。同社は、AIが生成した画像の多様性の重要性を強調したが、すべての人口統計を正確に表現するには現在のモデルの欠点を認めた。 

同様に、Googleの広報担当者Krawczyk氏もモデルの欠陥を認め、歴史的な正確さを損なうことなく世界の多様性を反映する、よりバランスの取れた描写の必要性を強調した。こうした懸念に対処するため、GoogleはGeminiの人体画像生成機能を一時停止し、ユーザーベースの世界的な多様性をより適切に反映する強化版を発表した。

「私たちはすでに、Gemini の画像生成機能に関する最近の問題に対処するために取り組んでいます。これを行っている間、人物の画像生成を一時停止し、改善されたバージョンをすぐに再リリースする予定です。」

タイムスタンプ:

より多くの メタニュース