コース: すぐにわかるテクノロジー:AIにおける倫理

今すぐコースを受講しましょう

今すぐ登録して、24,900件以上登録されている、業界エキスパート指導のコースを受講しましょう。

誰のためのAI開発か

誰のためのAI開発か

機械学習は、多数決原理や少数派に 対する数の暴力と言われることもあります。 メンタルモデルにとらわれず、障害、人種、 年齢などの要素を理解しましょう。 多数派は簡単にモデルを左右し、 好ましい結果を獲得します。 インターネット動画データベースの IMDb のデータでトレーニングした 顔認識モデルは、 圧倒的に白人男性に有利で、 黒人女性には不利に働きます。 統計上、ハリウッドでも IMDbでも俳優の大部分は白人男性です。 トレーニングデータによる この格差は理解できますが、 大規模な導入の前に調整が必要です。 現在、AI の開発対象と 導入対象は大きく異なる集団であり、 それはトレーニングデータから明らかです。 データには常にバイアスがあると 理解したうえで、問題に対処し、伝え、 ユーザーがデータアクセスを取り消したり、 AI システムによる意思決定を 理解したりできるようにする責任があります。 AI は空港保安検査の待ち時間短縮など、 生活を楽にするツールとして 売り込まれています。 無害な場合が多い一方、 不適切な使用の動機は無視できません。 例えば、科学的根拠のない 研究を行う契約や、アルゴリズムの 機能に関する過大な約束などがあり、 公平性に配慮した機能も 対象になるかもしれません。 特定のターゲット市場向けにツールを 開発する場合、その市場より規制や 保護の少ないユーザーやセグメントを 対象にテストするのが一般的です。 これはソフトウェア開発で 一般的手法ですが、 実は植民地制度に端を発します。 調査や申立ての機会が得にくい集団を 対象にテストを実施すべきではありません。 AI の開発では アクセシビリティの考慮も必要です。 障害のある人や LGBT 、疎外されている 人々のデータが外れ値となっていませんか。 性的マイノリティは見落としがちですが、 重要です。 調査やサンプルサイズの問題で記録のない人、 障害のある人、土着コミュニティの人も 見落とされます。 排除は表現の害であるだけでなく、 一部の集団が重視されないために、 データが収集されず 対象に含まれないことで 人間のバイアスが補強されます。 現在分かる範囲では、 誰が重視されていますか。 アルゴリズムの害を最も受けやすい人を 考える際、これまで社会システムや アルゴリズムで好ましい経験を…

目次