富士通、AI倫理ガイドラインに基づきAIシステムの倫理上の影響を評価する方式を開発、手順書や適用例とともに無償公開
[22/02/21]
TOKYO, Feb 21, 2022 - (JCN Newswire) - 当社は、AI倫理ガイドライン(注1)に基づきAIシステムの倫理上の影響を評価する方式を開発し、このたび、信頼できるAIを社会に普及させるために、本方式および、これに基づくAI倫理影響評価手順書ならびに適用例のドラフト版をAIシステムの開発者や運用者向けに、2022年2月21日より無償公開します。
今回開発した方式は、自然言語で書かれたAI倫理ガイドラインの記述内容を構造化して倫理要件を明確化する手順と、倫理要件を実際に利用するAIシステムに対応づける手順で構成されます。本方式を、ガイドラインの記述に対する解釈の違いに起因する誤解の回避や、起こりうる倫理課題への事前の対処の手段として活用することができます。
当社は今後、本方式の改善やさらなる普及に向けて官公庁や民間企業、アカデミアからパートナーを募集し、2022年度中にパートナーの皆様と正式版のリリースを目指します。
背景と課題
昨今、ヘルスケア、金融、ものづくり分野をはじめAI適用の裾野が広がる一方で、現実のデータから特徴を見出すAIの特性上、データに含まれるバイアスに起因して不公平な判断をAIが下すケースなどが問題視されています。2021年4月に発表された欧州のAI規制案では、AIシステムの開発者や利用者などの関係者に対して倫理に対する包括的な対応を求めており、もしこの案がこのまま成立した場合、違反すれば多額の罰金を含む罰則が課せられる可能性があります。
これらのリスクを回避し、AIを開発・利用する事業者やAIシステムが社会からの信頼を得るには、AI倫理ガイドラインの策定に加え、その実効性を確保するための組織的なAI倫理ガバナンス推進(注2)や、AI倫理の着実な実践が求められます。様々な規制案やガイドラインに対して組織的に対応するとともに、AIシステムの設計段階からAI倫理を考慮する必要があります。AIシステムの構築に際し、現在は、政府や企業等が定めたAI倫理ガイドラインに基づき、倫理上の影響を考慮してAIシステムの設計・開発を進める方式が主流ですが、ガイドラインが自然言語で記述されているため、設計・開発者の間で解釈の違いや誤解を生じる場合があり、対策が適切になされない可能性があります。さらに、ガイドラインの内容を網羅的にチェックしたかどうかを判定しにくいという問題もありました。
この課題を解決するため、当社は、AI倫理ガイドラインに準拠する上で、AIシステムの設計・開発で考慮すべき項目を網羅的に洗い出す方式を開発しました。
開発したAI倫理の影響を評価する方式
国際的AIコンソーシアムであるPartnership on AI(注3)が公開しているAIインシデントデータベースに、AIの利用に際して世の中で発生した問題事例が紹介されています。当社は、このデータベースに収められた事例を調べ、倫理上の課題が、AIシステム内部のコンポーネントの間や、AIシステムとその関係者の間における情報のやりとりを指す「インタラクション」に対応づけられることを導き出しました。この点に着目し、AI倫理ガイドラインの解釈を明確にして「インタラクション」との対応づけを可能とする「AI倫理モデル」を作成し、AIシステムにおいて考慮すべきガイドラインの項目を系統的に洗い出す独自の評価方式を開発しました。
「AI倫理モデル」は、AI倫理ガイドラインと多種多様なAIユースケース(注4)から考慮すべき倫理要件、すなわち「チェック項目」を導くツリー構造と、「チェック項目」と「インタラクション」の関連性を示す対応リストで構成されます。
まず、ソフトウェア開発で用いられる要件定義手法を応用し、AI倫理ガイドラインに記された要件をツリー構造で段階的に構造化していきます。構造化されたガイドライン上の要件を、様々なAIユースケースで発生している倫理上の課題と照らし合わせることで、ツリー構造の枝葉部分に、より具体的な要件、すなわち「チェック項目」を導きます。さらに、導いた「チェック項目」が、ユースケースに登場するどの「インタラクション」において発生しているのかを対応づけてリスト化します。以上の「AI倫理モデル」の作成は人手で行いますが、特定のガイドラインに対して作成した「AI倫理モデル」は、様々なAIシステムの評価に汎用的に使用できます。
個別のAIシステムを評価する際には、ソフトウェア開発で用いられるモデリング手法に基づいて、AIシステム内外のモジュールを図解した「AIシステム図」をAIシステム開発者や運用者が作成します。そこに現れる「インタラクション」の種類に応じて、事前に作成した「AI倫理モデル」に記載された「チェック項目」を機械的に抽出し、業界や業務の知識を有する評価者が影響評価の文章を作成することにより、ガイドラインに基づき系統的かつ網羅的な評価を実施することができます。
以下図1のAIシステムの場合では、人材採用やローン審査などの業務で行われるような、AIシステムを用いて「判定対象者」に対して「ビジネス利用者」が何らかの判断を行う状況を想定します。「AI倫理モデル」中の対応表で、「判定対象者」と「ビジネス利用者」の「インタラクション」を参照すると、ガイドラインとユースケースを基に導いたツリー構造の枝葉に、「チェック項目」として「人/組織の評価実施の妥当性」、すなわち「AIの出力結果を参考にして責任を持って評価を実施しているか」を機械的に導き、「AIのいいなりになる」「AIの出力結果を恣意的に解釈して評価する、あるいは無視する」などのリスクが抽出されます。AIシステムの開発者は、このAIシステムが使われる状況から、「ビジネス利用者」の評価実施の妥当性に倫理上の問題が発生し得ると考え、「ビジネス利用者が、バイアスが含まれる可能性のあるAIの出力結果に過度に依存して不公平な判断をする」というリスクを事前に洗い出すことができます。
なお、前述のAIインシデントデータベースに登録されたグローバルな164事例(2022年2月21日時点)の中から、金融、人事分野を含む代表的な15事例を抽出して本方式を適用したところ、実際に発生した倫理的な問題をすべて事前にリスクとして把握できることを確認し、開発した方式の有効性を確認しました。
評価手順書と適用例の無償公開(注5)
AIの活用によって社会に信頼をもたらし、サステナブルな社会の実現に貢献するために、当社は今回開発した方式を幅広く公開し、利活用を推進していきます。当社の研究内容を紹介する下記ウェブサイトで、2月21日からダウンロード可能です。
ダウンロードサイト
1. ホワイトペーパー:方式の全体像を概説した文書
2. AI倫理影響評価手順説明書:AIシステム図・AI倫理モデルの作成手順ならびに影響評価方式の説明書
3. AI倫理モデル:欧州委員会が公開しているAI倫理ガイドラインに準拠したAI倫理モデル(当社にて作成)
4. AI倫理影響評価適用例:Partnership on AIによるAIインシデントデータベースから抽出したAIシステムの代表的な15事例にAI倫理影響評価を適用した結果(2月21日時点では6事例、順次追加)
今後
今回、公開する評価手順書、適用例はドラフト版となります。2月21日より、本方式の改善やさらなる普及に向けて官公庁や民間企業、アカデミアからパートナーを募集し、2022年度中にパートナーの皆様と正式版のリリースを目指します。当社は、AI倫理研究とAI倫理ガバナンスの両輪で社会に信頼をもたらすとともに、より持続可能な社会の実現に貢献していきます。
ミュンヘン工科大学Christoph Lütge教授からのコメント
これまでAI4People等を通じて、欧州におけるAI倫理の問題、AIの規制案策定に関わってきました。2021年4月に欧州AI Act案が発表されて以来、AI規制に関する議論が活発化しており、その中の重要課題の一つが、原則と実践、あるいはWhatとHowのギャップを埋める方法論です。今回の研究成果は、原則に基づいた実践を実現できる、非常に意義深いものであると考えます。さらに研究成果をオープンにしてワールドワイドでの議論を活性化するという決断に深く感謝いたします。
本リリースの詳細は下記をご参照ください。
https://pr.fujitsu.com/jp/news/2022/02/21.html
概要: 富士通株式会社
詳細は http://jp.fujitsu.com/ をご覧ください。
Copyright 2022 JCN Newswire. All rights reserved. www.jcnnewswire.com
今回開発した方式は、自然言語で書かれたAI倫理ガイドラインの記述内容を構造化して倫理要件を明確化する手順と、倫理要件を実際に利用するAIシステムに対応づける手順で構成されます。本方式を、ガイドラインの記述に対する解釈の違いに起因する誤解の回避や、起こりうる倫理課題への事前の対処の手段として活用することができます。
当社は今後、本方式の改善やさらなる普及に向けて官公庁や民間企業、アカデミアからパートナーを募集し、2022年度中にパートナーの皆様と正式版のリリースを目指します。
背景と課題
昨今、ヘルスケア、金融、ものづくり分野をはじめAI適用の裾野が広がる一方で、現実のデータから特徴を見出すAIの特性上、データに含まれるバイアスに起因して不公平な判断をAIが下すケースなどが問題視されています。2021年4月に発表された欧州のAI規制案では、AIシステムの開発者や利用者などの関係者に対して倫理に対する包括的な対応を求めており、もしこの案がこのまま成立した場合、違反すれば多額の罰金を含む罰則が課せられる可能性があります。
これらのリスクを回避し、AIを開発・利用する事業者やAIシステムが社会からの信頼を得るには、AI倫理ガイドラインの策定に加え、その実効性を確保するための組織的なAI倫理ガバナンス推進(注2)や、AI倫理の着実な実践が求められます。様々な規制案やガイドラインに対して組織的に対応するとともに、AIシステムの設計段階からAI倫理を考慮する必要があります。AIシステムの構築に際し、現在は、政府や企業等が定めたAI倫理ガイドラインに基づき、倫理上の影響を考慮してAIシステムの設計・開発を進める方式が主流ですが、ガイドラインが自然言語で記述されているため、設計・開発者の間で解釈の違いや誤解を生じる場合があり、対策が適切になされない可能性があります。さらに、ガイドラインの内容を網羅的にチェックしたかどうかを判定しにくいという問題もありました。
この課題を解決するため、当社は、AI倫理ガイドラインに準拠する上で、AIシステムの設計・開発で考慮すべき項目を網羅的に洗い出す方式を開発しました。
開発したAI倫理の影響を評価する方式
国際的AIコンソーシアムであるPartnership on AI(注3)が公開しているAIインシデントデータベースに、AIの利用に際して世の中で発生した問題事例が紹介されています。当社は、このデータベースに収められた事例を調べ、倫理上の課題が、AIシステム内部のコンポーネントの間や、AIシステムとその関係者の間における情報のやりとりを指す「インタラクション」に対応づけられることを導き出しました。この点に着目し、AI倫理ガイドラインの解釈を明確にして「インタラクション」との対応づけを可能とする「AI倫理モデル」を作成し、AIシステムにおいて考慮すべきガイドラインの項目を系統的に洗い出す独自の評価方式を開発しました。
「AI倫理モデル」は、AI倫理ガイドラインと多種多様なAIユースケース(注4)から考慮すべき倫理要件、すなわち「チェック項目」を導くツリー構造と、「チェック項目」と「インタラクション」の関連性を示す対応リストで構成されます。
まず、ソフトウェア開発で用いられる要件定義手法を応用し、AI倫理ガイドラインに記された要件をツリー構造で段階的に構造化していきます。構造化されたガイドライン上の要件を、様々なAIユースケースで発生している倫理上の課題と照らし合わせることで、ツリー構造の枝葉部分に、より具体的な要件、すなわち「チェック項目」を導きます。さらに、導いた「チェック項目」が、ユースケースに登場するどの「インタラクション」において発生しているのかを対応づけてリスト化します。以上の「AI倫理モデル」の作成は人手で行いますが、特定のガイドラインに対して作成した「AI倫理モデル」は、様々なAIシステムの評価に汎用的に使用できます。
個別のAIシステムを評価する際には、ソフトウェア開発で用いられるモデリング手法に基づいて、AIシステム内外のモジュールを図解した「AIシステム図」をAIシステム開発者や運用者が作成します。そこに現れる「インタラクション」の種類に応じて、事前に作成した「AI倫理モデル」に記載された「チェック項目」を機械的に抽出し、業界や業務の知識を有する評価者が影響評価の文章を作成することにより、ガイドラインに基づき系統的かつ網羅的な評価を実施することができます。
以下図1のAIシステムの場合では、人材採用やローン審査などの業務で行われるような、AIシステムを用いて「判定対象者」に対して「ビジネス利用者」が何らかの判断を行う状況を想定します。「AI倫理モデル」中の対応表で、「判定対象者」と「ビジネス利用者」の「インタラクション」を参照すると、ガイドラインとユースケースを基に導いたツリー構造の枝葉に、「チェック項目」として「人/組織の評価実施の妥当性」、すなわち「AIの出力結果を参考にして責任を持って評価を実施しているか」を機械的に導き、「AIのいいなりになる」「AIの出力結果を恣意的に解釈して評価する、あるいは無視する」などのリスクが抽出されます。AIシステムの開発者は、このAIシステムが使われる状況から、「ビジネス利用者」の評価実施の妥当性に倫理上の問題が発生し得ると考え、「ビジネス利用者が、バイアスが含まれる可能性のあるAIの出力結果に過度に依存して不公平な判断をする」というリスクを事前に洗い出すことができます。
なお、前述のAIインシデントデータベースに登録されたグローバルな164事例(2022年2月21日時点)の中から、金融、人事分野を含む代表的な15事例を抽出して本方式を適用したところ、実際に発生した倫理的な問題をすべて事前にリスクとして把握できることを確認し、開発した方式の有効性を確認しました。
評価手順書と適用例の無償公開(注5)
AIの活用によって社会に信頼をもたらし、サステナブルな社会の実現に貢献するために、当社は今回開発した方式を幅広く公開し、利活用を推進していきます。当社の研究内容を紹介する下記ウェブサイトで、2月21日からダウンロード可能です。
ダウンロードサイト
1. ホワイトペーパー:方式の全体像を概説した文書
2. AI倫理影響評価手順説明書:AIシステム図・AI倫理モデルの作成手順ならびに影響評価方式の説明書
3. AI倫理モデル:欧州委員会が公開しているAI倫理ガイドラインに準拠したAI倫理モデル(当社にて作成)
4. AI倫理影響評価適用例:Partnership on AIによるAIインシデントデータベースから抽出したAIシステムの代表的な15事例にAI倫理影響評価を適用した結果(2月21日時点では6事例、順次追加)
今後
今回、公開する評価手順書、適用例はドラフト版となります。2月21日より、本方式の改善やさらなる普及に向けて官公庁や民間企業、アカデミアからパートナーを募集し、2022年度中にパートナーの皆様と正式版のリリースを目指します。当社は、AI倫理研究とAI倫理ガバナンスの両輪で社会に信頼をもたらすとともに、より持続可能な社会の実現に貢献していきます。
ミュンヘン工科大学Christoph Lütge教授からのコメント
これまでAI4People等を通じて、欧州におけるAI倫理の問題、AIの規制案策定に関わってきました。2021年4月に欧州AI Act案が発表されて以来、AI規制に関する議論が活発化しており、その中の重要課題の一つが、原則と実践、あるいはWhatとHowのギャップを埋める方法論です。今回の研究成果は、原則に基づいた実践を実現できる、非常に意義深いものであると考えます。さらに研究成果をオープンにしてワールドワイドでの議論を活性化するという決断に深く感謝いたします。
本リリースの詳細は下記をご参照ください。
https://pr.fujitsu.com/jp/news/2022/02/21.html
概要: 富士通株式会社
詳細は http://jp.fujitsu.com/ をご覧ください。
Copyright 2022 JCN Newswire. All rights reserved. www.jcnnewswire.com