このエントリーをはてなブックマークに追加
SEOTOOLSロゴ画像

SEOTOOLSニュース 

SEOに関連するニュースリリースを公開しております。
最新のサービス情報を、御社のプロモーション・マーケティング戦略の新たな選択肢としてご活用下さい。

富士通研究所と北海道大学、望む結果までの手順を導くことができる「説明可能なAI」を世界で初めて開発

TOKYO, Feb 4, 2021 - (JCN Newswire) - 株式会社富士通研究所(注1)(以下、富士通研究所)と国立大学法人北海道大学(注2)(以下、北海道大学)は、AIが自動判断した結果を基に、望む結果を得るために必要な手順を自動で提示できる技術を世界で初めて開発しました。

AI分野では、データから自動的に判断するだけでなく、個々の判断理由を与えてくれる「説明可能なAI」や、望ましくない判断結果に対して、改善するための項目を提示するAI技術が注目されています。しかし、これらの技術は、個々の項目に関して、これをしておけば良い結果が得られたという仮定の改善項目は示してくれますが、判断結果を改善していくための手順などは提示してくれませんでした。

例えば、健康状態を判断するAIが不健康と判断した場合、身長や体重、血圧などの健康診断項目のデータから不健康の判断理由を説明するだけでなく、健康になるための最善策を提示してほしいというニーズに対して、本技術を適用することで、過去データから複雑に絡み合った多数の診断項目間の相互作用を特定し、実現の可能性や実施の難易度を考慮した上で具体的な改善手順を示すことができます。

これにより、AIが出した判断理由を知るだけでなく、個々の利用者が望む結果を得るために取るべき改善の手順を示すことが可能となり、AIによる判断の信頼性と透明性が向上するとともに、今後、人と共に働くAIの活用の幅を拡げることが期待できます。

本技術の詳細については、2月2日(火曜日)から開催されているAI分野の難関国際会議「AAAI-21 (The Thirty-Fifth AAAI Conference on Artificial Intelligence)」にて発表します。

開発の背景

現在、顔認証や自動運転など高度なタスクが求められるAIシステムに広く用いられている深層学習技術は、大量のデータに基づいた様々な判断を予測モデルと呼ばれる一種のブラックボックス的な規則を用いて自動的に行っています。しかしながら、今後、社会の重要な判断や提案をAIが担うためには、AIシステムの透明性と信頼性の担保が課題となってきています。このような社会と技術の動向から、データに基づいて自動的に判断するだけでなく、個々の判断理由を提示する「説明可能なAI」と呼ばれる新しいAI技術の研究が盛んになっています。

例えば、健康診断などにおいて、体重や筋肉量などのデータを基に病気になるリスクの高低を、AIによって判断することが可能になっていますが(図1(A))、リスクの高低に関する判断結果に加えて判断の根拠となった属性(図1(B))を提示する「説明可能なAI」が注目されています。

AIは、入力データの属性を基に健康リスクが高いと判定しているため、健康リスクが低いという望む判断結果を得るためには、これらの属性の値を変えればよいと言えます。

課題

AIによる自動判断において、望む結果を得るためには、変更が必要な属性を提示するだけでなく、その変更が現実的かつできるだけ小さい労力で変更できる属性を提示することが必要になります。

健康診断の例においては、AIによる判断結果をリスク高の現状からリスク低に変えたい場合、筋肉量を増やせば少ない労力で変更ができそうですが(図2 変更1)、体重を変えずに筋肉量だけを増やすことは非現実的であるため、実際には体重と筋肉量を増やすことが現実的な解(図2 変更2)であると言えます。また、体重や筋肉量などの属性の間には、筋肉を増やすと体重も重くなるというような因果関係などの相互作用も多く、変更にかかる総労力は、各属性の変更順序に依存するため、属性の適切な変更順序を提示する必要があります。図2では、現状から変更2に到達するために、体重と筋肉量のどちらを先に変えればよいかは自明ではないため、膨大な変更点の候補の中から実現の可能性や順序を考慮した上で、適切な変更の方法を見つけることが課題となっています。

開発した技術

これまで富士通研究所と、北海道大学大学院情報科学研究院の有村研究室は、機械学習とデータマイニングに関する共同研究により、AIの判断理由を人間に説明できる新しいAI技術を開発し、人間にとって役立つ知識の発見に繋げてきました。

人の意思決定を支援するためのAI技術としてこれまでに開発されてきたLIME(注3)やSHAP(注4)といったAI技術は、AIがなぜこのように判断したかを説明することで、その判断結果に納得性を与える技術でした。今回、両者による共同研究において開発した新技術は、反実仮想説明(注5)という考えに基づき、属性変更におけるアクションとその実施順序を手順として提示します。過去の事例の分析を通して非現実的な変更を避けつつ、属性値の変更がほかの属性値に与える因果関係などの影響をAIが推定し、それに基づいて実際に利用者が変更しなければならない量を計算することで、適切な順序、かつ一番少ない労力で最適な結果が得られるアクションの提示を可能としました。

例えば、健康診断で望む結果にするために変更する入力属性とその順序(図1(C))において、リスクを低くするためには、筋肉量をプラス1kg、体重をプラス7kg変更しなければならない場合に、筋肉量と体重の間の相互作用を事前に分析することにより、筋肉量を1kgプラスすれば体重は6kgプラスされるというような関係が因果関係の分析により推定できます(図3)。その場合、体重の変化量として必要なプラス7kgのうち、筋肉量の変更の後に必要となる変化量はプラス1kgとなります。つまり、実際に変化させなければならない変更量は、筋肉量プラス1kgと体重プラス1kgであると言えるため、先に体重を変化させるよりも少ない労力で望む結果を得ることができます。

効果

今回、共同開発した反実仮想説明AI技術を用いて、この分野で主に用いられる糖尿病、ローンの与信審査、ワインの評価の3種類のデータセットにて検証(注6)を行いました。機械学習の主要なアルゴリズムであるロジスティック回帰(注7)、ランダムフォレスト(注8)、多層パーセプトロン(注9)の3つのアルゴリズムと開発技術を組み合わせ、AIの判断結果が望ましくない場合に、望む結果を得るためのアクションの提示を目的とした検証を行った結果、今回の開発技術が、すべてのデータセットおよび機械学習アルゴリズムの組み合わせにおいて、少ない労力で推定結果を望む結果に変更するための適切なアクションと実施順序を取得できたことを確認し、特にローンの与信審査のケースでは、半分以下の労力を実現しました。

本技術を活用することで、AIによる自動判断において望ましくない結果が予想された場合に、その結果を望む結果に変えるために必要なアクションを提示することが可能となります。これにより、AIの用途を判断だけでなく人の意思行動の支援に拡げることができ、AIの適用先のさらなる拡大が期待できます。

今後

今後、富士通研究所は、個別の因果関係を発見する技術(注10)と組み合わせることで、より適切なアクションを提示できるよう継続して取り組みます。そして独自開発した「FUJITSU AI Technology Wide Learning」によるアクション抽出技術(注11)を本技術により拡張し、富士通株式会社(注12)のAI技術「FUJITSU Human Centric AI Zinrai」を支える新たな機械学習技術として2021年度の実用化を目指します。

北海道大学は、アクションの提示に限らず、多様な現場のデータから人間の意思決定に役立つ知識や情報を抽出するためのAI技術の確立を目指します。

本リリースの詳細は下記をご参照ください。
https://pr.fujitsu.com/jp/news/2021/02/4.html

概要: 富士通株式会社

詳細は http://jp.fujitsu.com/ をご覧ください。


Copyright 2021 JCN Newswire. All rights reserved. www.jcnnewswire.com
JCN Newswireへ
SEOTOOLS News Letter

SEOに役立つ情報やニュース、SEOTOOLSの更新情報などを配信致します。


 powered by blaynmail
SEOTOOLSリファレンス
SEO対策
SEOの基礎知識
SEOを意識したサイト作り
サイトマップの作成
サイトの登録
カテゴリ(ディレクトリ)登録
カテゴリ登録(モバイル
検索エンジン登録
テキスト広告
検索連動型(リスティング)広告
プレスリリースを利用したSEO


TOPへ戻る