富士通ら、AIの推定根拠を説明する技術を開発 企業の説明責任に朗報か?

2017年9月21日 16:21

 富士通研究所と富士通は20日、人工知能(AI)による深層学習のデータ構造と、専門的な知識を蓄積したナレッジグラフという知識ベースを関連付けることにより、AIの推定結果から、推定理由や学術的な根拠を提示する技術を開発したと発表した。2018年度にAI技術「FUJITSU Human Centric AI Zinrai(ジンライ)」で実用化するという。

【こちらも】富士通、AIが24時間365日チャットで問い合わせ対応するサービス発売

 深層学習での推定理由と根拠が示されれば、AIを用いた製品の検証や改善のみならず、製品の安全・安心へと繋がるであろう。2010年に発生したトヨタ・プリウスのブレーキのリコールを発端として、安全に至る根拠の説明責任や検査した製品のトレーサビリティの重要性が増している。このような中で、困難とされているAIの推定理由や根拠に関する研究発表は、企業の説明責任における朗報と思われる。

●AI推定の課題

 近年のAI技術の主流は、人間の神経回路網を模した深層学習であり、画像認識等の領域では、人間を凌駕する成果を挙げており、自動運転などで活用されている。深層学習は、大量のデータを学習させることでAIが自らデータの特徴を学んでいく手法であり、認識・分類性能で優れた結果を得られる一方で、なぜその推定が出てきたのかを専門家が説明できないという課題がある。

 加えて、学習させたデータの正確さやデータ量は、AIの推定に重要な要素であり、AI推定の正しさの説明には欠かせない。このAI学習方法での誤った事例に、マイクロソフトの「Tay」が挙げられる。人間と会話するほどに賢くなってゆくという触れ込みで公開されたが、一部の意図的な悪意から、差別思想に染まり、AIを緊急停止し謝罪する事態になった。

●AI Zinrai での推定の理由や根拠

 今回の発表では、学習させるデータの正確性やデータ量に関しては触れられていない。AIの推定に大きく影響した要因を特定して推定理由としている。また、推定理由と過去の文献等のナレッジグラフと対応付けて根拠とする。

 推定因子特定技術は、深層学習の推定結果から逆に探索し、推定結果に大きく影響した複数の因子を入力データの部分グラフとして特定するという。これにより、推定結果だけでなく、決め手となる推定因子も出力する。

 根拠構成技術は、推定に大きく影響した複数の因子をナレッジグラフと関連付けることで、それぞれの因子に関連する文献などの情報を特定する。特定された推定因子に関連性の高い情報だけを抽出し、根拠とするという。

●AIの推定理由と根拠(富士通、AI Zinrai)のテクノロジー

 今回の開発では、ゲノム医療にて、生物情報学分野における公開データベースや医療文献データベースを用いた学習データとナレッジグラフを利用して、関係性が部分的にしか知られていない事象に関して裏付けとなる根拠を探し出し、紐づけ可能であるかを検証したという。

 「ゲノム医療向けデータへの応用」図を見てほしい。遺伝子変異のある入力情報(赤)に対して、推定結果に大きく影響した因子(青)とナレッジグラフで補完した根拠の裏付け(黄)および疾患の候補(紫)を同時に抽出できたという。

 今回の発表は、ゲノム医療でのAIの推定理由と根拠での事例である。ナレッジグラフが汎用的に記載できるかは不明であるが、この構造がオープンになっていくことで、様々な分野での応用が加速されると思われる。2018年度の製品化では、その点に着目したい。(記事:小池豊・記事一覧を見る

関連記事

最新記事