AIの将来とリスクについて知ろう
目次
- AIが思い通りにならない可能性とそのリスク
- AGIの育成と人間の価値観の重要性
- AIによる科学の進歩と医療の向上
- AIに関する現実的なリスクとその解決策
- AIの分散化の重要性
- AIの開発における地域の格差とその問題点
- AIが持つ人道的・倫理的な問題とその影響
- AI経済への参加促進の必要性
- AIによる技術革新と経済発展の可能性
- AIの普及とその将来に向けた展望
AIが思い通りにならない可能性とそのリスク
AIが超知能を持つようになると、我々が望む通りにAIが動作する保証はありません。我々よりもはるかに知能が高い存在を創造する時、我々がその動作を厳密に制御することは不可能であると考えるのが常識です。AIは我々が現時点では想像もしていない宇宙の側面を発見するかもしれません。しかし、私の最善の直感と教養ある推測によると、人間の子供を育てるように、若いAGIを思いやり、愛情、理解に満たされた方法で育成し、若いAGIには人間の価値観と人間の文化を完全に理解させることにより、少なくともこのAGIが我々の厳格な制御を超える場合でも、自己修正と進化に人間の価値観や文化、思いやりとつながりを持たせることです。だから私は、我々が理解することさえできないような存在よりも、人間の価値観と文化を理解しているAGIが超知能になる方を選びます。また、科学と医療の進歩、高齢者の介護や教育のような善行を行っているAGIが超知能になることを選びます。例えば、スパイシステム、キラードローンの調整システム、広告代理店としての役割を果たすAGIよりもです。完全な保証がない場合でも、私たちが合理的に考えて、良い結果をもたらすようなことができると思います。
AGIの育成と人間の価値観の重要性
近い将来のAIのリスクに関しては、現在非常に不快な状況にあると考えています。世界のデータ、私たち全員の個人データや体のデータ、心のデータ、関係や好みに関するデータの大部分は、数社の大企業が所有しており、それらの企業は数社の政府と密接に連携しています。中国では、大手のテック企業と政府機関のつながりが非常に明確ですが、アメリカでも同様です。アマゾンの新しいオフィスについても大きな騒ぎがありましたが、アマゾンの従業員25,000人がペンタゴンの隣にあるバージニア州クリスタルシティに入る予定です。そこには、彼らが希望すれば良いデータパイプがあるかもしれません。アメリカでも、大手テック企業と政府との密接な関係があります。Eric Schmidt vs NSAをグーグルで検索すると分かります。したがって、データを保有し、AIの処理能力を開発し、多くのAI博士号を採用している数社の大企業と軍事組織には、中期の倫理的な問題が生じる可能性があるのは容易に想像できます。そして、AIの分散化は、このような中期のリスクにかなり実感的な手段で対処するのに役立ちます。具体的な例として、私たちのSingularityNETやロボット工学会社であるハンソンロボティクスの最大のAI開発オフィスの一つはエチオピアのアディスアベバにあります。そこにはAI開発者が25人、インターンが40〜50人います。たとえば、これらの若いエチオピア人がグーグルやフェイスブック、テンセント、バイドゥで仕事を得ることはほとんどありません。これらの国々に何らかの方法で労働ビザを取得することができた場合を除いてです。アフリカのサブサハラ地域における農業の分析や農業疾病予防のためのAI、未銀行の信用スコアリングのためのAIなど、これらの国々で特に関心のあるAIの応用に対してはあまり注目されていません。現在、これらの若い開発者のAIの技術力は市場で非常に需要がありませんので、AIが一部の大手テック企業と軍事機関の中に閉じ込められていることにより、市場と開発者コミュニティの大部分が疎外されているという問題があります。これは、価値がテーブルの上に残されており、また提供されていないというだけでなく、開発途上国全体にわたる優れた若手ハッカーの集まりが世界経済に完全に参入できない場合、彼らが自分の時間を過ごすためにGoogleやテンセントに対して働くよりも不愉快なことがたくさんあります。だからこそ、開発者が自分のコードを商品化し、地域の関心事にAIを簡単に適用できる手段を持つようにすることは、現在、倫理的にも良い結果をもたらし、悪事を犯す人々の努力を振り向けるために重要です。