面接用AIが人種差別をする可能性も 学習データなどが影響か

2018年4月26日 23:57

印刷

記事提供元:スラド

あるAnonymous Coward曰く、 Unileverやゴールドマン・サックスなどのグローバル企業では、求職者を選別するために人工知能(AI)を使用しているという。HirevueはそうしたAIを提供している企業の1つで、ミラーの裏に隠されたカメラの前で面接状況を記録し、姿勢や顔の表情、声の調子、言葉の選択などをAIが分析するという。プログラムは成績優秀な従業員から学習したデータを元に、求職者のデータをスコア化できるそうだ。しかし、これによって雇用者が意図しない「差別」が発生する可能性もあるという(DAILY BEASTThe GuardianSlashdot)。

 ほとんどのプログラマーは白人男性であるため、これらのAIの多くは白人男性の顔や男性の声のデータを使って学習している。この結果、黒人の顔や女性の声による面接の場合、AIが性差別的または人種差別的な傾向を引き起こす可能性があるという。

 求職者の選別ツールを提供する企業はほかにもあり、たとえばAIチャットボットやインタビューで求職者を振り分けるシステムを提供している企業もある。人気のAIの1つはMyaと呼ばれており、採用までの時間が70%短縮できることを売りにしている。こういったチャットボットが、人種や性別、そのほか差別に繋がるような情報を得るためのプロキシとして使われている可能性もあるようだ。

 スラドのコメントを読む | 人工知能

 関連ストーリー:
Microsoftの画像の説明文を自動生成するAI「CaptionBot」、色々な意味で話題に 2016年04月21日
AIが「人類を滅亡させる」との言葉を発する 2016年03月30日
脆弱性を攻撃されて不適切な発言をするようになったMicrosoftのAIチャットボット「Tay」、修正のためオフラインに 2016年03月26日
米出会い系サイトで活躍していた女性のふりをする会話ロボット 2015年10月08日
「出会いを求める女性」のふりをして個人情報を聞き出すボットが登場 2007年12月12日

※この記事はスラドから提供を受けて配信しています。

関連キーワード

関連記事