AIは差別を助長する!? 人工知能に刷り込まれた認知バイアス

2019年5月5日 18:47

印刷

 人工知能は膨大なデータをもとに、学習機能を活用してその内容を分析する。深層学習を使えば複雑で重層的な数学的モデルを構築し、そこから得られる知見をもとに与えられた情況を「正しく」判断できる。

【こちらも】面接用AIが人種差別をする可能性も 学習データなどが影響か

 ここでいう「正しい」判断とは、論理的に整合性があるということだ。これはAIが学習する際に与えられたデータの内容と一致するということであって、それが必ずしも現実の出来事を理解するのに適当なサンプルとなっているとは限らない。

 先日、中国で当局がAIによるフェイスリコグニションを使い、特定の民族に属する人々を監視していることが分かった。AIにデータを与える人間が意図的に差別的なデータを与えれば、AIは差別を「正しい」ものとして実行する。

 今回はAIによるデータ分析が内在的に抱えている認知バイアスの問題と、それにより生じるおそれのある差別と格差の問題について、アメリカの報道から紹介したい。

●AIが行う差別的判断

 AIが分析したデータをもとに判断するとき、そのデータ自体に含まれているバイアスがAIの判断に意図しない形で現れてしまうことがある。AIが学習のモデルに使うデータそのものに、すでに差別的な内容が含まれてしまっているためにその「差別」がAIによるプロセスに写し取られてしまうのである。

 AIに「美しさ」を判定させるために、顔の構成部分の形やバランス、位置関係を数値化して学習させるようなアルゴリズムを作る。このAIに複数の人物の写真をフェイスリコグニションで読ませて、誰が「美しい」かを判定させると、ほとんどの場合白人の女性を選びだすことが分かっている。

 これは白人女性の多くがこの数値化された「美しさ」の基準に合うためではない。学習データに使われたモデルの写真の大半が白人女性のためだ。私たちの社会は歴史的に西欧的な価値観をベースにしている。とくにコンピューターの世界ではその傾向が著しい。このため「ランダム」に抽出したモデルであってもそこには歴史的なバイアスがかかっていしまう。

 これとは逆にAIは女性や黒人、イスラム教徒などのマイノリティを相手にするときに判断を誤りやすいことが知られている。ニューヨーク大学の調査チームはAIによる「多様性の危機」について報告している。これによると人工知能を作り、研究する側の人間のほとんどが男性であるため、AIが学習、操作するデータには大きなバイアスがかかっているという。

 人工知能について研究する大学教授の80%は男性であり、Facebookで女性のAI研究員は15%、Googleでは10%に過ぎない。GoogleでAIを研究する女性研究員の1人は、8500人の学会員のうち自分と同じ黒人女性は6人しかいない、という。

 マイクロソフトは、カリフォルニア州で運用開始を予定していた州警察へのフェイスリコグニションの装備を中止した。同社のAIが学習データとしたモデルのほとんどが白人男性のため、女性やマイノリティに対して不当に厳しい態度をとる可能性があることが分かったという。

●AIが助長する差別と格差

 ブルッキングス研究所の報告によれば、AIを銀行の審査部門に配置し、住宅ローンの借入について判断させる場合、AIは借入希望者の「住宅ローンの返済能力」を過去のデータをもとに数値化する。この返済能力は当人の所得や職歴、過去の借入返済履歴などをもとに算出される。そしてこのような個人の経済データは本人の出身地や人種、性別による差が非常に大きい。

 AIに企業の人事データを分析させ、今年の新入社員の給料をいくらにするべきか判定させるならば、AIの判定は男女間の給与格差を所定の差として計算するだろう。このバイアスを補正するにはデータを管理する人間がそのバイアスを取り除く必要がある。

 しかし、AIが自己学習を繰り返し、データ間の関連付けをはるかに複雑にしていった場合、その判断に内包されている差別的傾向を見つけ出すことは難しいだろう。

 AIが住宅ローンの審査をする地域が2カ所あったとしよう。一方は中産階級の住む住宅地でもう一方は低所得者の住む地域だ。この場合、所得の高い地域はローンの額も高く、返済率も高くなるだろう。この地域では住宅価格が上昇し、それによってさらに住民の返済能力が上昇する。

 安定した利益を確保することを目的とするならば、中産階級の住宅地には優先して融資し、低所得の地域では審査基準を厳しくして借入を制限するだろう。低所得者向けにはサブプライムローンを強要するかもしれない。

 このようなAIの判断は両地域の返済能力の統計を偏向させ、そこに住む住人の財務能力とクレジット履歴に影響を与え、結果的に所得格差を拡大させる。人間の融資審査によるプロセスに比べてAIのこのプロセスはきわめて早いスピードですすむ。どこの時点で違法なレベルに達したかを人間が判断できたときには、すでにAIは全ての作業を終えているだろう。

 やっかいなのは、AIに与えるデータを管理する人間自身はそのデータに含まれているバイアスに気がついていない可能性が高いことだ。きれいな女性という判断が人種差別につながることを予期できないのであれば、宗教や経済力による差別がインプリントされていることなど思いもよらないだろう。

 ローン返済能力という基準が、個人の将来におけるキャリア形成や地域社会の成長力を奪い取ってしまうことを、どうしたら防ぐことができるだろうか。

 AIは与えられたデータ以外にはなにも知らない、社会性というものは持っていない不完全なものだ。一方で人もまた、「公平で差別のない社会」を実現してはいない。そもそも「公平な社会」とはどんな社会なのか、という問いかけそのものが古くからある社会科学上の未解決問題といってよい。

 AIの研究者たちは、人工知能がアルゴリズムに内包されているバイアスを検知できるようなアルゴリズムの開発をすすめている。このアルゴリズムは期待されるような機能を果たすだろうか。この「公平な」AIからのアウトプットは、私たち自身が気がついていない「差別」を目の前に突きつけてくるかもしれない。(記事:詠一郎・記事一覧を見る

関連キーワード

関連記事