関連記事
AIの開発と活用 マイクロソフトが6つの倫理的要件を発表
マイクロソフトがAIの開発と活用に関するコンセプト「Future Computed」を公表し、6つの倫理的要件を発表した。信頼できるAI構築には、透明性、安全性、多様性、プライバシー保護の維持等が必須と提言。[写真拡大]
マイクロソフトがAIの開発と活用に関するコンセプトを述べたブラッド・スミス(プレジデント兼最高法務責任者)とハリー シャム(エグゼクティブ・バイスプレジデント)の共著「Future Computed:AIとその社会における役割」を公表し、その中で6つの倫理的要件を発表した。
【こちらも】マイクロソフトの女子高生AI「りんな」、感情乗せた自然な歌声を実現
AIがこれまで困難とされてきた多くの課題を克服する可能性があることは明らかだ。AIがこれまでのテクノロジーとまったく次元が異なる点は、それが人間社会の意志決定プロセスに深く関わってくるという点だ。それ故にAIの発展普及はユニバーサルアクセス、プライバシー、透明性などに関する倫理上の議論を引き起こす。
AIの可能性をフルに発揮するためには、信頼という堅固な基盤が必要である、とマイクロソフトは主張する。セキュリティ、プライバシー、安全性を提供し、ユーザーの信頼を得ることがAI普及の前提となる、と強調する。
マイクロソフトが提唱する倫理要件とは、1. プライバシーとセキュリティ、2. 透明性、4. 信頼性、5. 多様性、6. 説明責任の6つだ。
まず、個人情報がプライバシーの基準に合致して使用され、悪用や盗難から保護されるよう完全な「プライバシーとセキュリティ」の保証がなければユーザーの信頼は得られない。
次に、どのようにしてAIが判断したかを人々が理解できるよう背景情報を提供し、潜在的な偏見、エラー、予期せぬ結果を容易に特定できるよう「透明性」を確保する必要がある。
また、同様の事象・対象に対して同様の判断がなされるべきで、バイアスがAIシステムに与える影響を理解し「公平性を保証」する必要がある。
AIシステムは明確な条件の下で動作し、予期せぬ状況においても安全に応答し、想定外に進化しないような「信頼性」が担保されなければならない。
広範な人間のニーズと体験に対応できる「多様性」も重要だ。
最後に、ヘルスケアにおけるプライバシーなどの他の分野と同様、AIシステムを設計し、展開する人々はシステムの動作について「説明責任」を負う必要があり、そのための基準が明確化されなければならない。
既にマイクロソフトでは、これら6つの倫理基準をAI製品とサービス設計の規範としており、製品がこれらの基準に準拠するかを確認するための社内委員会を設置している。さらに詳しくこの内容を知りたい場合は、マイクロソフト社のホームページから無料でダウンロードが可能だ。(編集担当:久保田雄城)
■関連記事
・急速に拡大する「AI投資」
・模索が続く地方銀行の新たな事業モデル
・新世代ウェアラブル「ヒアラブル」機器の普及に強力な追い風
・人工知能・ロボット技術の進歩、「期待」約半数、「不安」過半数
・過熱するIoT市場。2018年も新製品・新サービスが続々登場
※この記事はエコノミックニュースから提供を受けて配信しています。
スポンサードリンク