AIの開発と活用。マイクロソフトが6つの倫理的要件を発表

2018年05月09日 06:17

画・AIの開発と活用。マイクロソフトが6つの倫理的要件を発表。

マイクロソフトがAIの開発と活用に関するコンセプト「Future Computed」を公表し、6つの倫理的要件を発表した。信頼できるAI構築には、透明性、安全性、多様性、プライバシー保護の維持等が必須と提言。

 マイクロソフトがAIの開発と活用に関するコンセプトを述べたブラッド・スミス(プレジデント兼最高法務責任者)とハリー シャム(エグゼクティブ・バイスプレジデント)の共著「Future Computed:AIとその社会における役割」を公表し、その中で6つの倫理的要件を発表した。

 AIがこれまで困難とされてきた多くの課題を克服する可能性があることは明らかだ。AIがこれまでのテクノロジーとまったく次元が異なる点は、それが人間社会の意志決定プロセスに深く関わってくるという点だ。それ故にAIの発展普及はユニバーサルアクセス、プライバシー、透明性などに関する倫理上の議論を引き起こす。

 AIの可能性をフルに発揮するためには、信頼という堅固な基盤が必要である、とマイクロソフトは主張する。セキュリティ、プライバシー、安全性を提供し、ユーザーの信頼を得ることがAI普及の前提となる、と強調する。

 マイクロソフトが提唱する倫理要件とは、1. プライバシーとセキュリティ、2. 透明性、4. 信頼性、5. 多様性、6. 説明責任の6つだ。

 まず、個人情報がプライバシーの基準に合致して使用され、悪用や盗難から保護されるよう完全な「プライバシーとセキュリティ」の保証がなければユーザーの信頼は得られない。

 次に、どのようにしてAIが判断したかを人々が理解できるよう背景情報を提供し、潜在的な偏見、エラー、予期せぬ結果を容易に特定できるよう「透明性」を確保する必要がある。

 また、同様の事象・対象に対して同様の判断がなされるべきで、バイアスがAIシステムに与える影響を理解し「公平性を保証」する必要がある。

 AIシステムは明確な条件の下で動作し、予期せぬ状況においても安全に応答し、想定外に進化しないような「信頼性」が担保されなければならない。

 広範な人間のニーズと体験に対応できる「多様性」も重要だ。

 最後に、ヘルスケアにおけるプライバシーなどの他の分野と同様、AIシステムを設計し、展開する人々はシステムの動作について「説明責任」を負う必要があり、そのための基準が明確化されなければならない。

 既にマイクロソフトでは、これら6つの倫理基準をAI製品とサービス設計の規範としており、製品がこれらの基準に準拠するかを確認するための社内委員会を設置している。さらに詳しくこの内容を知りたい場合は、マイクロソフト社のホームページから無料でダウンロードが可能だ。(編集担当:久保田雄城)