TEDx

TEDx要約:コミュニティの周辺化を防ぐ人工知能の停止方法は?

marugotoyoten

コンピュータサイエンティストであるティムニット・ゲブルが「コミュニティの周辺化を防ぐ人工知能の停止方法は?」について語りました。この動画の要点と要約をまとめました

スピーカー

ティムニット・ゲブル


専門分野:アルゴリズムの偏りとデータマイニング
経歴:多様性を重視するテクノロジーの提唱者。BlackinAIの共同創設者。DistributedArtificialIntelligenceResearchInstitute(DAIR)の創設者。

3つの要点

  • 要点1
    見えないアルゴリズムが私たちの生活に大きな影響を与える
  • 要点2
    政府のAI使用には意図しない結果がある可能性がある
  • 要点3
    AIツールにはバイアスがあり、差別を引き起こす可能性がある

要約

タイトル1:私たちの生活における見えないアルゴリズムの普及
人工知能(AI)はロボットに関連するものだけではありません。実際、私たちの生活に大きな影響を与える見えないアルゴリズムが存在します。これらのアルゴリズムは電力システム、パワーシステム、運転システム、さらには取引にも使用されています。彼らはどこにでも存在し、意図しない結果をもたらすことがあります。彼らの影響についてもっと知りたい場合は、「WeaponsofMathDestruction」や「AutomatingInequality」といった本を読むことをおすすめします。

タイトル2:政府におけるAIとその意図しない結果
AIは映画だけでなく、政府でも使用されています。たとえば、2016年には、犯罪を犯す可能性を予測するソフトウェアについての記事がありました。判事はこの予測を用いて刑の長さを決定しています。さらに、ICEは、ソーシャルネットワークの活動を分析して移民や潜在的なテロリストの適性を評価するイニシアチブを提案しました。しかし、現在のAIツールは、このような重要な決定には十分に信頼性がありません。これにより危険な誤りが生じる可能性があります。

タイトル3:AIツールにおけるバイアスと伝播
AIツールにはバイアスが存在することをご存知でしょうか?たとえば、ソーシャルネットワークの社会的分析に使用されるツールである単語の埋め込みは、社会的なバイアスをエンコードすることがあります。それはコンピュータプログラミングを男性と関連付け、家事を女性と関連付けます。これらのバイアスは、履歴書の自動解析に自動化ツールを使用する際に伝播することがあり、特定のグループに対する差別を引き起こす可能性があります。政府や法執行機関で広く使用されている顔認識もバイアスを抱えています。商用の性別分類アシスタントは、肌の色が濃い女性に対して高いエラー率を示し、これらのツールは十分に堅牢ではないことを示しています。

タイトル4:他の産業からの解決策と教訓
これらの問題に対処するため、研究者たちは公平性の数学的概念などの技術的な解決策に取り組んでいます。しかし、社会的および構造的な問題も考慮する必要があります。強く監視され、バイアスや監視の実践の影響を受けるグループは、この技術の作成と配布に関与していません。そのため、AIツールの使用を規制するために基準、法律、文書化が必要です。ハードウェア、自動車、医療などの他の産業から学び、AIにおけるバイアスの伝播を防ぐためのガードレールを導入することができます。

▼今回の動画

編集後記

▼ライターの学び

AIの影響は目に見えないアルゴリズムによってもたらされることを学びました!

AIの使用には慎重さが必要だと思いました!

▼今日からやってみよう

今日からAIのバイアスを意識して行動しよう!

AIのツールやアルゴリズムはバイアスを持つことがあります。例えば、性別や人種による差別的な結果が出ることがあります。自分自身がAIを使う際には、バイアスの影響を最小限にするように意識して行動しましょう。

ABOUT ME この記事を書いた人
たまがわ
たまがわ
AI×Pythonで自動で動画の要約と記事の編集を行っています。 Twitterにて記事の紹介も行っていますので、ぜひフォローよろしくお願いします!
バナー広告の中央配置
記事URLをコピーしました