AI安全保証
AIの学習データは本当にこれで十分なのか...悩まれた経験はありませんか?規格策定が進むAIの安全/品質の課題を解決します。開発支援、プロセス構築支援、自動運転やAIシステムの安全基準適合ツール提供等状況に合わせてご支援いたします。
技術紹介
AIの品質や安全の課題
従来のソフトウェアはエンジニアが設計・実装したプログラムの通りに動きます。そのため、設計のレビューやソフトウェアのテストによって品質を保証してきました。
一方で、自ら学習して予測・推論を行うAIは、どのように動くか・どのような結果を出力するかは不明確です。
そのため、AIの品質や、AIを利用した製品の安全を保証・説明するためにはいくつもの課題があります。
AI品質の課題
AIの選定の妥当性
アルゴリズム、ネットワーク、ハイパーパラメータ機械学習モデルの性能を調整するために事前に設定する値(例:学習率、バッチサイズ)の妥当性
AIの選定の妥当性
データ数、データの種類、アノテーションAIに学習させるためのデータに対して、人手で「正解」などの情報を付ける作業の妥当性など
学習済AIモデルの妥当性
十分な精度を保証できること
結果が正しいことの説明性AIが出した結果について「なぜそのような判断をしたか」を人間が理解できるようにする性質
予測結果の理由を示すのが難しい
倫理面の課題
公平性、プライバシー、社会性など
開発プロセスが適切か
AIセーフティの課題
AIの誤認識・誤判断等による人、周辺などへの被害
AIのロバスト性外乱やノイズのある環境下でも安定して正しく動作できる能力保証が技術的に難しい
AIの誤認識・誤判断等による被害発生時の責任問題
外部からのハッキングなどのよる情報漏洩
AIの安全規格/品質規格策定
2020年頃より、米国・欧州を先頭に各国でAIの品質・安全の原則やガイドラインの策定が進められてきました。
2022年半ばに入り、法規化に向けた整備がされて、各国運用が始まっております。
アメリカ
2023/10/30 AIに関する米大統領令発令。規制化へ向けた動き。
欧州:AI法
2024年5月に欧州委員会で最終承認、成立。2026年から全面施行が予定。
欧州:機械規則 (EU) 2023/1230
2027年1月から適用。AIを搭載したシステムに対し、より厳密な安全性の評価が求められることになる。
その他各国 (シンガポール、マルタ、UAE、カナダ、英国など)
AIについて自国独自規制(政府調達基準)を施行。
他にも、AI責任指令AIの誤作動により発生した損害に対して誰が責任を負うかを定める欧州の法案や製造物責任指令の改訂も注目を集めております。
これらを適用する国では「法律」となり、必ず遵守しなければならないものになります。
ソリューション
AIのコンサルティング/エンジニアリング サービス
AIシステム開発のトータルサポートが可能です。
AI開発のプロセス構築
- 各製品分野対応・各国調達基準対応などの規定、テンプレート、ガイド、チェックリストなどの構築支援
- 各国の法規制などに対応したプロセス構築
- 欧州 AI ACT
- 米国 NIST AI リスクマネジメントフレームワーク
- AI責任指令
- UL4600
AIシステム設計
AIシステムの安全設計・リスク低減を支援- 必要に応じてAIの機能安全にも対応可能
- ハザード分析&リスク評価を行い、品質安全上の弱みを抽出
- システム運用における改善を支援
AI開発・検証
品質・安全について論証可能なAI開発を支援- AIの選定から学習・評価・運用までAIシステムの品質・安全の向上+論証に向けたトータル支援が可能
第三者評価
第三者視点での製品評価- 既存開発物に対して、各製品分野対応・各国の調達基準などへの適合を確認
- AI開発目線で品質・安全について再検討・妥当性を確認
支援実績
AI安全保証 販売実績
約 20 社
(2024年10月時点)
AI安全保証 支援事例
実績事例 | 自動運転車両向けの物体認識システム |
---|---|
支援内容 |
|
開発における 課題・問題点 |
|
解決に向けた 具体的な支援 | 上記課題に対して、AI開発のスペシャリストと品質・安全のスペシャリストが協同でAIの品質安全の実現・向上+論証を構築
|