富士通とマサチューセッツ工科大学 Center for Brains, Minds and Machines、人の脳に着想を得て、未知のデータを高精度に認識できるAI技術を開発
[21/12/09]
TOKYO, Dec 9, 2021 - (JCN Newswire) - 富士通株式会社(注1、以下 富士通)とマサチューセッツ工科大学 Center for Brains, Minds and Machines(注2、以下 CBMM)は、このたび、学習時と傾向の大きく異なる未知(out-of-distribution、以下 OOD)のデータに対しても、AIが高い認識精度を示す技術を共同で開発しました。
近年、AIはディープニューラルネットワーク(以下、DNN)の登場により、製造業における不良品検知や医療における画像診断など幅広いシーンで応用され始め、人と同等以上の性能を発揮する一方で、学習時には想定していなかった照明や視点などの環境や条件の変化により見え方に大きな違いが生じると、認識精度が大幅に低下するという課題があります。
今回、両者は、人の認知特性と脳の構造に着想を得て、DNNを形や色などの属性ごとのモジュールに分割して学習させることで、AIがOODデータを高精度に認識する技術を開発しました。本技術を適用したAIを、画像認識精度を測る標準ベンチマーク「CLEVR-CoGenT」(注3)で評価した結果、世界一の精度を達成しました。
今後、本技術の活用により、様々な観測条件の変化に対応できる交通監視AIや、多種多様な病変を正しく認識できる画像診断AIなどの実現が期待されます。
なお、今回の成果の一部は、2021年12月6日よりオンライン開催されるAI分野で最も権威のある国際会議「NeurIPS 2021 (Conference on Neural Information Processing Systems)」において、12月8日(日本時間12月9日)に発表(注4)します。
背景と課題
近年、DNNを利用した機械学習技術の発展により、人に匹敵する高い認識精度を持つAIの構築が可能となっています。しかし、少ない情報で物事を幅広く把握できる人とは異なり、OODデータのように未知のデータに対しては、AIの認識精度が大幅に低下するという課題がありました。また、同じ物でも色合いや角度など条件の異なる様々なデータを網羅的に学習させることは難しく、認識精度の向上には限界がありました。
共同開発した技術
今回、富士通とCBMMは、人の持つ認知特性と脳の構造に着想を得て、AIがOODデータを高精度に認識できる技術を開発しました。本技術は、人が物を認知する際に形や色などの見え方に違いがあっても、それらの視覚情報を脳内で正確に捉えて分類できることに着目し、複数の画像データをDNNに入力した際に生じるニューロンにおける対象物の見え方と分類の反応から独自の指標を算出し、本指標の数値が高くなるようにDNNの学習を促進させることで、AIの認識精度を向上させるものです。具体的には、従来、DNNを分割せず一つのモジュールで学習させることが認識精度の高いAIを実現する最良の手法だと考えられていましたが、今回算出した指標に基づき、DNNを物の形や色などの属性ごとのモジュールに分割して学習させることで、より認識精度が高いAIを実現しました。
今後の展望
富士通とCBMMは、今回共同開発した技術をさらに高度化し、より人に近い柔軟な判断を可能とするAIを開発し、モノづくりや医療などをはじめとする幅広い分野への展開を目指します。
富士通株式会社 フェロー 岡本 青史のコメント
2019年から開始したマサチューセッツ工科大学 CBMMとの共同研究を通じて、人の脳がどのように知的な振る舞いを生み出すのか理解を深め、その知性をどのようにすればAIとして実現できるかを追求し、実際に社会や産業における課題解決に貢献する革新的なAI技術の開発を進めてきました。今回の成果は、学習時と傾向の異なる未知のデータに対しても、人のように柔軟に対応し高精度に認識できる画期的なAI技術を実現したもので、今後社会の様々なシーンへ適用されていくことを期待しています。
マサチューセッツ工科大学 Center for Brains, Minds and Machines ディレクター トマソ・ポッジオのコメント
一般的に、AIは学習したデータと傾向が異なる想定外のデータが生じた際、アプリケーションの安全性と公平性を大きく損なう可能性があります。我々は、これまで神経科学を応用したAIの研究に力を入れており、現在のDNNを使った機械学習の弱点を克服する新しいアプローチを探ってきました。今回の富士通との共同研究を通じて得られた成果は、そのアプローチに向けた最初のマイルストーンになります。
本リリースの詳細は下記をご参照ください。
https://pr.fujitsu.com/jp/news/2021/12/9.html
概要: 富士通株式会社
詳細は http://jp.fujitsu.com/ をご覧ください。
Copyright 2021 JCN Newswire. All rights reserved. www.jcnnewswire.com
近年、AIはディープニューラルネットワーク(以下、DNN)の登場により、製造業における不良品検知や医療における画像診断など幅広いシーンで応用され始め、人と同等以上の性能を発揮する一方で、学習時には想定していなかった照明や視点などの環境や条件の変化により見え方に大きな違いが生じると、認識精度が大幅に低下するという課題があります。
今回、両者は、人の認知特性と脳の構造に着想を得て、DNNを形や色などの属性ごとのモジュールに分割して学習させることで、AIがOODデータを高精度に認識する技術を開発しました。本技術を適用したAIを、画像認識精度を測る標準ベンチマーク「CLEVR-CoGenT」(注3)で評価した結果、世界一の精度を達成しました。
今後、本技術の活用により、様々な観測条件の変化に対応できる交通監視AIや、多種多様な病変を正しく認識できる画像診断AIなどの実現が期待されます。
なお、今回の成果の一部は、2021年12月6日よりオンライン開催されるAI分野で最も権威のある国際会議「NeurIPS 2021 (Conference on Neural Information Processing Systems)」において、12月8日(日本時間12月9日)に発表(注4)します。
背景と課題
近年、DNNを利用した機械学習技術の発展により、人に匹敵する高い認識精度を持つAIの構築が可能となっています。しかし、少ない情報で物事を幅広く把握できる人とは異なり、OODデータのように未知のデータに対しては、AIの認識精度が大幅に低下するという課題がありました。また、同じ物でも色合いや角度など条件の異なる様々なデータを網羅的に学習させることは難しく、認識精度の向上には限界がありました。
共同開発した技術
今回、富士通とCBMMは、人の持つ認知特性と脳の構造に着想を得て、AIがOODデータを高精度に認識できる技術を開発しました。本技術は、人が物を認知する際に形や色などの見え方に違いがあっても、それらの視覚情報を脳内で正確に捉えて分類できることに着目し、複数の画像データをDNNに入力した際に生じるニューロンにおける対象物の見え方と分類の反応から独自の指標を算出し、本指標の数値が高くなるようにDNNの学習を促進させることで、AIの認識精度を向上させるものです。具体的には、従来、DNNを分割せず一つのモジュールで学習させることが認識精度の高いAIを実現する最良の手法だと考えられていましたが、今回算出した指標に基づき、DNNを物の形や色などの属性ごとのモジュールに分割して学習させることで、より認識精度が高いAIを実現しました。
今後の展望
富士通とCBMMは、今回共同開発した技術をさらに高度化し、より人に近い柔軟な判断を可能とするAIを開発し、モノづくりや医療などをはじめとする幅広い分野への展開を目指します。
富士通株式会社 フェロー 岡本 青史のコメント
2019年から開始したマサチューセッツ工科大学 CBMMとの共同研究を通じて、人の脳がどのように知的な振る舞いを生み出すのか理解を深め、その知性をどのようにすればAIとして実現できるかを追求し、実際に社会や産業における課題解決に貢献する革新的なAI技術の開発を進めてきました。今回の成果は、学習時と傾向の異なる未知のデータに対しても、人のように柔軟に対応し高精度に認識できる画期的なAI技術を実現したもので、今後社会の様々なシーンへ適用されていくことを期待しています。
マサチューセッツ工科大学 Center for Brains, Minds and Machines ディレクター トマソ・ポッジオのコメント
一般的に、AIは学習したデータと傾向が異なる想定外のデータが生じた際、アプリケーションの安全性と公平性を大きく損なう可能性があります。我々は、これまで神経科学を応用したAIの研究に力を入れており、現在のDNNを使った機械学習の弱点を克服する新しいアプローチを探ってきました。今回の富士通との共同研究を通じて得られた成果は、そのアプローチに向けた最初のマイルストーンになります。
本リリースの詳細は下記をご参照ください。
https://pr.fujitsu.com/jp/news/2021/12/9.html
概要: 富士通株式会社
詳細は http://jp.fujitsu.com/ をご覧ください。
Copyright 2021 JCN Newswire. All rights reserved. www.jcnnewswire.com