Googleの逆差別AIに謝罪?保守派は多様性への反対で激怒
Table of Contents
- 経緯と問題の背景
- Googleの新しいGemini AIについて
- Gemini AIの問題点
- Gemini AIの影響と懸念
- Googleの対応と声明
- Gemini AIの画像生成プロセスの問題点
- ユーザーの意図と結果の乖離
- Gemini AIの一時使用停止と改善策
- AI生成画像のパロディとプライバシー
- 法律の見直しとテクノロジーの制限
Googleの新しいGemini AIによる問題の背景
【1】経緯と問題の背景
オンライン上の多くの議論からわかるように、Googleの新しいGemini AIは、HAL 9000、Skynet、そしてウォーリーの邪悪な車輪と共に、人工知能のパンテオンに正式に加わりました。しかし、保守派のコメントだけでなく、保守派コメントもGoogleを強く非難しています。彼らは新しいAI生成エンジンGeminiが意図的な反白人バイアスを持っていると主張しました。具体的には、ユーザーのいくつかのイメージが、伝統的に白人の人々や背景(フランス人、スウェーデン人、イギリス人など)のイメージを生成するようエンジンに依頼しても、黒人、茶色人、アジア人などの人々のイメージが生成されるというものです。一方で、少数派の文化のイメージを依頼しても、AIは白人を追加して多様化することはありませんでした。さらに、特に白人のイメージを依頼すると、AIからは「分断的な retoric」を押し付けないようにという警告が表示されましたが、そのような警告は逆方向には表示されませんでした。Googleは、これが問題であると認識し、いくつかの場所に対して声明を発表し、これらの懸念に対処するために取り組んでいると述べました(出典1)。
【2】Googleの新しいGemini AIについて
Googleの新しいGemini AIは、人々が世界中で使用する画像生成エンジンであり、多様な人々のイメージを生成するという点で一般的に良いことです。しかし、問題は、このAIが特定のコンテキストでの多様化を欠いているという点です。ユーザーが「フランスの王」というイメージを依頼すると、女性の肖像画や世界中の人々の肖像画が表示されるなど、異なる文化や多様な人々のイメージを生成することはありますが、一方で「エジプトのファラオ」などのイメージを依頼すると、正確な歴史的なイメージが表示され、多様化されることはありません。古代エジプトにはさまざまな人種が存在していたため、エジプトのファラオの正確な人種はアフリカ人ですが、Gemini AIはそれを的確に再現しているようです。このような問題が発生しているにも関わらず、GoogleはGemini AIエンジンの使用を一時停止してプログラムを改修すると発表しています(出典1)。
【続く】