AI安全保証

AIの学習データは本当にこれで十分なのか...悩まれた経験はありませんか?規格策定が進むAIの安全/品質の課題を解決します。
開発支援、プロセス構築支援、自動運転やAIシステムの安全基準適合ツール提供等状況に合わせてご支援いたします。

技術紹介

AIの品質や安全の課題

従来のソフトウェアはエンジニアが設計・実装したプログラムの通りに動きます。そのため、設計のレビューやソフトウェアのテストによって品質を保証してきました。

一方で、自ら学習して予測・推論を行うAIは、どのように動くか・どのような結果を出力するかは不明確です。
そのため、AIの品質や、AIを利用した製品の安全を保証・説明するためにはいくつもの課題があります。

AI品質の課題

AIの選定の妥当性

アルゴリズム、ネットワーク、ハイパーパラメータ機械学習モデルの性能を調整するために事前に設定する値(例:学習率、バッチサイズ)の妥当性

AIの選定の妥当性

データ数、データの種類、アノテーションAIに学習させるためのデータに対して、人手で「正解」などの情報を付ける作業の妥当性など

学習済AIモデルの妥当性

十分な精度を保証できること

結果が正しいことの説明性AIが出した結果について「なぜそのような判断をしたか」を人間が理解できるようにする性質

予測結果の理由を示すのが難しい

倫理面の課題

公平性、プライバシー、社会性など

開発プロセスが適切か

AIセーフティの課題

AIの誤認識・誤判断等による人、周辺などへの被害

AIのロバスト性外乱やノイズのある環境下でも安定して正しく動作できる能力保証が技術的に難しい

AIの誤認識・誤判断等による被害発生時の責任問題

外部からのハッキングなどのよる情報漏洩

AIの安全規格/品質規格策定

2020年頃より、米国・欧州を先頭に各国でAIの品質・安全の原則やガイドラインの策定が進められてきました。
2022年半ばに入り、法規化に向けた整備がされて、各国運用が始まっております。

アメリカ

2023/10/30 AIに関する米大統領令発令。規制化へ向けた動き。

欧州:AI法

2024年5月に欧州委員会で最終承認、成立。2026年から全面施行が予定。

欧州:機械規則 (EU) 2023/1230

2027年1月から適用。AIを搭載したシステムに対し、より厳密な安全性の評価が求められることになる。

その他各国 (シンガポール、マルタ、UAE、カナダ、英国など)

AIについて自国独自規制(政府調達基準)を施行。

他にも、AI責任指令AIの誤作動により発生した損害に対して誰が責任を負うかを定める欧州の法案や製造物責任指令の改訂も注目を集めております。
これらを適用する国では「法律」となり、必ず遵守しなければならないものになります。

ソリューション

AIのコンサルティング/エンジニアリング サービス

AIシステム開発のトータルサポートが可能です。

AI開発のプロセス構築

  • 各製品分野対応・各国調達基準対応などの規定、テンプレート、ガイド、チェックリストなどの構築支援
  • 各国の法規制などに対応したプロセス構築
    • 欧州 AI ACT
    • 米国 NIST AI リスクマネジメントフレームワーク
    • AI責任指令
    • UL4600
    など多くの法規・規定・ガイドなどに則った対応が可能

AIシステム設計

AIシステムの安全設計・リスク低減を支援
  • 必要に応じてAIの機能安全にも対応可能
  • ハザード分析&リスク評価を行い、品質安全上の弱みを抽出
  • システム運用における改善を支援

AI開発・検証

品質・安全について論証可能なAI開発を支援
  • AIの選定から学習・評価・運用までAIシステムの品質・安全の向上+論証に向けたトータル支援が可能

第三者評価

第三者視点での製品評価
  • 既存開発物に対して、各製品分野対応・各国の調達基準などへの適合を確認
  • AI開発目線で品質・安全について再検討・妥当性を確認

支援実績

AI安全保証 販売実績

20

(2024年10月時点)

AI安全保証 支援事例

実績事例自動運転車両向けの物体認識システム
支援内容
  • 運転中のカメラ画像を対象に、歩行者や対向車などの物体を認識するシステムの試作開発を支援
  • 自動運転の安全規格であるUL4600や各国調達基準への適合が必要
    →信頼性・安全性が高いAIシステムの開発とその論証を支援
開発における
課題・問題点
  • AIの品質保証に関する経験者がほぼいない
  • 具体的な実施方法や合格基準は業界で確立していない
  • 信頼性・安全性の高いAIであると論証するために何をどう判断してどこまで実施すればよいか、対応方法がわからない
  • 選定したAIが妥当かどうか
  • 収集した学習データや件数の妥当性をどう論証すればよいか
  • AIシステムの機能安全をどうすればいいか
解決に向けた
具体的な支援
上記課題に対して、AI開発のスペシャリストと品質・安全のスペシャリストが協同でAIの品質安全の実現・向上+論証を構築
  • 選定したAIが妥当かどうか
  • 収集した学習データや件数の妥当性をどう論証すればよいか
  • AIシステムの機能安全をどうすればいいか