アルゴリズム差別の暴露!ジャーナリストの調査結果をチェック

Find AI Tools in second

Find AI Tools
No difficulty
No complicated process
Find ai tools

アルゴリズム差別の暴露!ジャーナリストの調査結果をチェック

目次

  1. はじめに
  2. アルゴリズムによる判断
  3. アルゴリズムへの責任
  4. 適正な評価指標の欠如
  5. 18,000件のデータ収集
  6. データの分析結果
  7. 人種に基づく偏り
  8. 偽陽性と偽陰性
  9. 成功率と失敗率の分析
  10. アルゴリズムの評価方法
  11. 結論

1. はじめに

こんにちは、今回は私たちジャーナリストの立場でアルゴリズムに accountability を求める作業がいかに困難か、そして成功と害、アルゴリズムの異なる影響を測るための共有された理解がまだないことを示すために行った調査についてお話しします。

2. アルゴリズムによる判断

現在の世の中では、機械が私たちの判断をサポートしてくれる一方で、私たちジャーナリストのような人々は、アルゴリズムに責任を持つ立場にあります。私の最近の調査を通じて、アルゴリズムを調査しました。その話をすることで、アルゴリズムに対する accountability の困難さ、そして成功と害、アルゴリズムの異なる影響を測るための共有された理解がまだないことを示すためです。

3. アルゴリズムへの責任

アメリカ全土で使用されているアルゴリズムは、逮捕時に犯罪を尋常に犯す可能性を判断するために使用されています。あるケースにおいて、このアルゴリズムは完全に間違っていたようです。その人物は過去に4件の未成年犯罪を犯し、未来の犯罪を犯すことはありませんでした。逆に、別の人物は既に5年間の刑期を終え、大規模な窃盗事件を犯し、現在は9年間の懲役刑を受けています。この具体的なケースでは、アルゴリズムの誤りが明白ですが、ジャーナリストとしてはもはや一つの個人の体験に基づいて記事を書くことはできません。

4. 適正な評価指標の欠如

私は現地の警察署にアクセスし、2013年から2014年に逮捕された犯罪者に割り当てられたリスクスコアのデータを取得するために法的な戦いをしました。5か月かかりましたが、18,000人の犯罪記録を手に入れることができました。最初にプロットしたデータを見ると、白人被告人が不釣り合いに低リスクスコアを割り当てられており、黒人被告人は比較的均等なスコアの割り当てを受けていることがわかります。しかし、これだけではわからないことがあります。

5. 18,000件のデータ収集

データを分析するためには、18,000件の被告人とそれぞれの前科および将来の犯罪行為に関する情報を照合する必要がありました。880,000件のレコードをダウンロードし、違法行為になる可能性のある行動であると私たちは思っていますが、これにはコンピュータ不正行為防止法が違反している可能性があります。

6. データの分析結果

行った統計データの分析によると、年齢、性別、前科、再犯の有無などの要素を補正した場合、黒人被告人は白人被告人よりも高いスコアを割り当てられる確率が45%高いことがわかりました。

7. 人種に基づく偏り

つまり、アルゴリズムが黒人被告人に対して不当な評価を行っていると言えます。この分析結果は、人種に基づく明白な偏りを示しています。

8. 偽陽性と偽陰性

また、黒人被告人の偽陽性率は白人被告人の2倍であり、白人被告人の偽陰性率は黒人被告人の2倍であることがわかりました。つまり、黒人被告人が誤った評価を受ける可能性が高くなっています。

9. 成功率と失敗率の分析

興味深いことに、このアルゴリズムの総合的な成功率は黒人被告人と白人被告人の両方で60%です。つまり、実際には両者に対して同じくらいの誤判定が行われていると言えます。

10. アルゴリズムの評価方法

しかしながら、アメリカ全土で使用されているほとんどすべての犯罪リスク評価ツールは、成功率のみを評価指標として考慮しており、黒人被告人と白人被告人の両方に同じ程度の成功率があると主張しています。しかし、私たちはこの失敗率も考慮すべきだと主張しています。

11. 結論

アルゴリズムの評価方法については、現在議論が行われています。私はジャーナリストとしての立場から評価を行っていますが、私たち全員がアルゴリズムをどのように評価するかについて共有された理解を持つべきだと考えています。私たちの調査結果をご覧いただき、データや白書も公開していますので、ぜひご覧ください。

ハイライト

  • アルゴリズムによる判断は人間の責任との調和が重要
  • 犯罪リスク評価ツールは人種に偏りがある可能性がある
  • 成功率だけでなく、失敗率も評価すべき
  • 共有された理解を持ってアルゴリズムを評価する必要がある

FAQ

Q: アルゴリズムの評価指標に成功率と失敗率が必要なのですか? A: はい、成功率だけではアルゴリズムの公平性を測ることはできません。失敗率も評価指標として考慮することで、より客観的な評価が可能となります。

Q: 黒人被告人と白人被告人にはどのような差があるのですか? A: 黒人被告人は白人被告人よりも高いリスクスコアを割り当てられる確率が45%高く、また黒人被告人の誤った評価が白人被告人よりも2倍多いことが分かっています。

Q: 調査結果のデータを確認できる場所はありますか? A: はい、当社のウェブサイトで調査結果のデータや白書を公開していますので、ぜひご覧ください。

Most people like

Are you spending too much time looking for ai tools?
App rating
4.9
AI Tools
100k+
Trusted Users
5000+
WHY YOU SHOULD CHOOSE TOOLIFY

TOOLIFY is the best ai tool source.