AI犯罪予測システムの脅威(1) 米フロリダ、英警察、京都府警や神奈川県警も興味を示す

2018年12月15日 10:01

 2010年4月、アメリカ・フロリダ州で「犯罪予測システム」導入を決めたとの報道があり、アメリカの悩める姿が印象に残った。2018年12月、今度はイギリス警察がテスト運用をしているという。AIを使ったこれらのシステムにより「犯罪の可能性が高い」とされた人物は、「特別教育」を受けたり、監視されたりするのだろうか?いや、それしかシステムの運用効果を上げる手立てはあるまい。

【こちらも】イギリス警察、AIで犯罪犯す可能性のある人に「危険スコア」 テスト運用

 確かに、AIによる犯罪の可能性を予知する方法論はあり得ることだ。個人情報のデータを、犯罪者だけでなく一般市民のものも読み込み、犯罪に至る傾向を予測することは可能であろう。そのことにより未然に犯罪を防止できれば、多くの被害者を出さずに済む。加害者にとっても、罪を犯してしまうことで人生を無駄にすることもなく、平穏な人生を送るチャンスを広げることにもつながる。しかし問題は、「監視社会」と「冤罪」だ。ファーウェイの問題ともつながる危険な社会が感じられる。

■システムエンジニアの範囲で取り扱ってはいけない問題

 システム構築を行う技術者ならば、AIの性能をもってすれば、現在では「AI犯罪予測システム」が有効に機能するであろうことが考えられるだろう。しかし、それが技術者の判断できる範疇を超えていることを自覚するべきだ。現在の「ゲノム編集技術」、古くは「原子力技術」などの使用に関する、「人類のモラル」に関わる判断を含んでいることを考慮しなければなるまい。元々、AIは「民主主義の後退」も懸念される技術開発の側面を持つのだ。

 社会学、神学、法学、歴史学、考古学、人類学、心理学、経済学、医学、脳科学、建築学などあげきれないが、全ての人間の営みに関する学問的考察が必要だ。

■AIによる監視社会の常態化

 AIにはデータが必要だ。その有効なデータを揃えるためには、一般人全ての詳細なデータが必要となる。犯罪の可能性を判断するとしても、犯罪者だけのデータでは危険度を図ることはできまい。全体の中での可能性の基準を見つけなければならないからだ。すると、「個人情報」を集めねば有効にならない。しかしそれには、精度を上げるため個人のあらゆる側面のデータが必要で、使い方を誤ると「監視社会」に陥ってしまう。犯罪者をあぶり出す前に、システムを使う側のモラルが問われることとなる。こうした「人を支配するに有効なデータが、悪用されなかったためしはない」と言い切れるのかもしれない。これは、ファーウェイの問題にも通ずる「国家規模のモラル」の問題だ。

 アメリカ自身も同じだが、ここにファーウェイを信じられない理由がある。得られるデータを、中国が公明正大に使用できるか大変疑問なのだ。中国のような言論統制をしく独裁国家に、自重を求めることは不可能だ。既に、中国、ロシア、アメリカ、北朝鮮などの問題で、情報戦を必要とする先進国ではAIを使った情報収集が進み、どうすれば「現・権力」が権力を維持できるのか?を中心テーマとして探っているかもしれない。

■違った角度からのアプローチを模索せよ

 ニューヨーク市警、北海道警、新宿歌舞伎町での警視庁の施策などで実績を上げている「割れ窓の理論」など、違った角度からの社会統制に有効な実績のある理論も存在する。また、「犯罪の場所と時間」を予測するAIシステムも試験運用されている。こうした「ビッグデータ」の範疇のデータで有効にできるシステムの考え方もある。個人を監視するようなアプローチでは、「民主的な運用に制限する監視」を行うのは難しいことなので、個人とは結び付かない角度からのデータの活用が望まれる。

 次は、冤罪の可能性について、現在の司法制度との比較をしてみよう。(記事:kenzoogata・記事一覧を見る

関連記事

最新記事