AIシステム保証の戦略プロポーザル

Começar. É Gratuito
ou inscrever-se com seu endereço de e-mail
AIシステム保証の戦略プロポーザル por Mind Map: AIシステム保証の戦略プロポーザル

1. 概要

1.1. DLはじめ人工知能技術が人気

1.2. 開発パラダイムが違いすぎる

1.3. 人材育成や開発手法の整備が急務

1.4. 「AI ソフトウェア工学」の確立を目指す

1.4.1. AIソフトウェア工学はSoftware 2.0、機械学習工学などと類似の言葉

1.4.2. AI ソフトウェア工学の目標

1.4.2.1. AI ソフトウェア工学の体系化

1.4.2.2. 基礎研究として重要な技術チャレンジ

1.4.2.2.1. ①機械学習自体の品質保証

1.4.2.2.2. ②全体システムとしての安全性確保

1.4.2.2.3. ④問題を効率よく解く工学的な枠組み

1.4.2.2.4. 機械学習自体の技術課題とシステム全体にかかわる課題の2点がある

2. ①機械学習自体の品質保証

2.1. 機械学習における公平性の問題

2.1.1. 機械学習における公平性・説明責任・透明性(FAT)

2.1.2. 公平性配慮型データマイニング

2.2. 技術シーズ

2.2.1. ニューロンカバレッジ

2.2.1.1. ニューラルネットワーク内の活性化範囲を調べ、それを拡げるようなテストパターンを生成

2.2.2. サーチベースドテスティング

2.2.2.1. メタヒューリスティックを用いて 欲しいテストケースを表すスコアを 最大化するようテストケースを生成する手法

2.2.3. メタモルフィックテスティング

2.2.3.1. 入力を変えると出力はこう変わるはずという関係を検証し 既存テストケースから多数のテストケースを生成する手法

2.2.4. データセット多様性

3. ④問題を効率よく解く工学的な枠組み

3.1. 記号推論などとの組み合わせなど、新しいアーキテクチャを作り出す

3.2. この技術は、機械学習の安全保障やブラックボックスの問題と重なる

3.3. ただし、安全保障、解釈性の問題にとどまらない効果がある

4. ③ブラックボックス問題への対策

4.1. AIにおける「ブラックボックス」は 中身が見えない・分からないではなく、 どうしてその中身になったかが分からないという意味

4.2. 技術シーズ

4.2.1. 「説明可能なAI」(eXplainable Artificial Intelligence:XAI)

4.2.1.1. DARPAプロジェクト

4.2.1.2. Deep Explanation

4.2.1.2.1. 深層学習の状態解析によるアテンションヒートマップや自然言語説明生成等

4.2.1.2.2. 特に深層学習を用いた画像認識システムにおいて、盛んに取り組まれている

4.2.1.2.3. 例:認識結果を出した根拠として、画像中のどの部分に着目したのかを示す アテンションヒートマップを示すといった方法

4.2.1.3. Interpretable Models

4.2.1.3.1. もともと解釈性の高いモデルを用いた機械学習(ホワイトボックス型の機械学習の精度を向上させる)

4.2.1.3.2. 異種混合学習

4.2.1.3.3. 深層学習DeepTensorにナレッジグラフを組み合わせた ModelInductionのアプローチによる取り組み

4.2.1.4. Model Induction

4.2.1.4.1. ブラックボックス型の機械学習の振る舞いを近似する解釈性の高いモデルを外付けで作る

5. ②全体システムとしての安全性確保

5.1. 有効な考え方

5.1.1. 機械学習型の入力・出力をモニタリングして、例外処理やリカバリー処理・多重化等を組み込む

5.1.2. 機械学習型コンポーネントが100%保証はできないことを想定した全体システム設計

5.2. 技術シーズ

5.2.1. Safe Learning

5.2.1.1. 機械学習による判断に、従来法による安全性保証を組み合わせる考え方

5.2.1.1.1. JST ERATO MMSD(メタ数理研究、蓮尾さんの研究)

5.2.2. 機械学習も1つのコンポーネントとして扱い、 コンポーネント間の相互作用から安全性分析・ハザード解析手法

5.2.2.1. FRAM(Functional Resonance Analysis Method)

5.2.2.2. FRAM(Functional Resonance Analysis Method)

5.2.3. Assured Autonomy

5.2.3.1. DARPAにて投資されている (https://www.darpa.mil/news-events/2017-08-16)

5.2.3.2. 自動運転車やドローン等の自律システムの安全性保証をターゲットとして、 実行時の入出力をモニタリングし、想定された振る舞いから外れたときに、 それを検知して動作を止める等の対策アクション(事前に設計しておいたもの)を起動するような枠組み

5.2.3.2.1. 形式手法的なもので入力に対するアウトプットを定義 アウトプットが想定外だったら動作を止めるというようなもの?

5.2.4. 希少事象発見技術

5.2.4.1. NEC-産総研人工知能連携研究室から発表

5.2.4.2. まれにしか発生しない不具合・高リスクの条件を、 シミュレーションと機械学習を組み合わせることで、 短時間で見つけることができ、効率の良い不具合の発見・修正を可能にする

6. AIプロダクトの品質保証を考える際の軸

6.1. ミスの深刻性

6.2. AI 寄与度

6.3. 環境統制困難性

6.4. 上記3つが大きいほど品質保証が大切

6.5. 具体的には、医療や自動運転、インフラ、金融など

7. 機械学習の品質保証などの工学手法は、2017年頃にようやく立ち上がり始めた

7.1. MLSEが2018年発足

7.2. QA4AIも2018年4月

7.3. 海外ではSoftware 2.0、Machine testingと呼ばれている

8. AIソフトウェア工学の経済的効果

8.1. 安全性・信頼性の確保

8.2. 事故・社会問題を回避

8.3. AI品質を日本の強みにして、AI適用産業の国際競争力を強化