SEAMSガイドライン

AI搭載システムや自動運転システムなどの品質・安全を論証するためのガイドライン「SEAMSガイドライン」。
「AI関連人材の不足」・「AIシステムの品質・安全を保証することが難しい」などのAIシステムの課題解決に向けたサポートをいたします。

技術紹介

AIの品質や安全の課題

従来のソフトウェアはエンジニアが設計・実装したプログラムの通りに動きます。そのため、設計のレビューやソフトウェアのテストによって品質を保証してきました。

一方で、自ら学習して予測・推論を行うAIは、どのように動くか・どのような結果を出力するかは不明確です。
そのため、AIの品質や、AIを利用した製品の安全を保証・説明するためにはいくつもの課題があります。

AI品質の課題

AIの選定の妥当性

アルゴリズム、ネットワーク、ハイパーパラメータ機械学習モデルの性能を調整するために事前に設定する値(例:学習率、バッチサイズ)の妥当性

AIの選定の妥当性

データ数、データの種類、アノテーションAIに学習させるためのデータに対して、人手で「正解」などの情報を付ける作業の妥当性など

学習済AIモデルの妥当性

十分な精度を保証できること

結果が正しいことの説明性AIが出した結果について「なぜそのような判断をしたか」を人間が理解できるようにする性質

予測結果の理由を示すのが難しい

倫理面の課題

公平性、プライバシー、社会性など

開発プロセスが適切か

AIセーフティの課題

AIの誤認識・誤判断等による人、周辺などへの被害

AIのロバスト性外乱やノイズのある環境下でも安定して正しく動作できる能力保証が技術的に難しい

AIの誤認識・誤判断等による被害発生時の責任問題

外部からのハッキングなどのよる情報漏洩

AIの安全規格/品質規格策定

2020年頃より、米国・欧州を先頭に各国でAIの品質・安全の原則やガイドラインの策定が進められてきました。
2022年半ばに入り、法規化に向けた整備がされて、各国運用が始まっております。

アメリカ

2023/10/30 AIに関する米大統領令発令。規制化へ向けた動き。

欧州:AI法

2024年5月に欧州委員会で最終承認、成立。2026年から全面施行が予定。

欧州:機械規則 (EU) 2023/1230

2027年1月から適用。AIを搭載したシステムに対し、より厳密な安全性の評価が求められることになる。

その他各国 (シンガポール、マルタ、UAE、カナダ、英国など)

AIについて自国独自規制(政府調達基準)を施行。

他にも、AI責任指令AIの誤作動により発生した損害に対して誰が責任を負うかを定める欧州の法案や製造物責任指令の改訂も注目を集めております。
これらを適用する国では「法律」となり、必ず遵守しなければならないものになります。

製品紹介

SEAMSガイドラインの概要

SEAMSプロジェクト(AI/自動運転の安全性論証技術の研究開発)で得たノウハウを認証機関のレビューや開発支援を通して、安全基準適合支援ツールに昇華したものがSEAMSガイドラインです。

本ガイドラインは、「AI関連人材の不足」・「AIシステムの品質・安全を保証することが難しい」などのAIシステムの課題解決に向けた支援ツールです。

SEAMSプロジェクト https://www.seams-p.jp/

自動運転安全

ガイドライン名称種別活用効果
ODD自動運転システムが正常に作動できる環境や条件の定義(例:天候、道路状況)のための自動運転用リスク評価カタログツール
  • 自動運転の検証シナリオの網羅性を保証
  • 膨大な検証パターンを効率化し、検証コストを削減
自動運転レベル4システムの安全設計事例具体事例
  • 国際認証機関の相場観を踏まえた自動運転システムの安全設計、安全性論証の具体策を習得
ISO21448(SOTIF)意図された機能が安全に働くことを保証するための国際規格(特にAI等に有効)対応のための効率的なSTAMP/STPA安全分析のフレームワーク。システム全体の制約を通じて事故を防ぐ方法論実施方法手順書
  • 自動運転システムに対する網羅的且つ効率的なSTAMP/STPAの実施ノウハウを習得

AIセーフティ

ガイドライン名称種別活用効果
AI搭載システムの安全設計ガイドライン技術カタログ
  • AI搭載システムの設計・評価方法、プロセス構築方法、各国規制対応などの安全技術を総合的に習得
自動運転AIのUL4600への適合方法解説書チェックリスト
  • UL4600のAI要求に適合するための具体的な対応方法を習得
GDPREUの個人データ保護法。AIが扱うデータの透明性・説明性が求められるに対応するためのAIのホワイトボックス化方法解説書
  • GDPR要求に適合するための、さまざまなAIのホワイトボックス化技術について習得
AI搭載システムの欧州CEマーキング欧州で製品を流通させる際に求められる安全・健康・環境保護に関する適合マークへの適合方法解説書チェックリスト
  • 将来CEマーキング要件に組み込まれるであろう欧州AI規制(EU AI Act欧州連合によるAI規制法。AIのリスクレベルに応じて義務や制限を定める)への適合方法を習得
AI規制対象国への適合方法(対象国:シンガポール/マルタ/ドバイ/カナダ)解説書チェックリスト
  • 対象国の規制に適合したAIシステムの構築方法を習得
AIモデルを機能安全規格(ISO26262,IEC61508)製品やシステムが誤動作した際に安全に止まる設計になっていることを求める規格に適合するための定量評価方法手順書
  • AIモデルの具体的な定量評価手順に従うことで、機能安全適合AIとして評価
AIモデルの開発文書テンプレート・チェックリストテンプレート
  • AI開発プロセス構築時の参考・ベースとして活用
AIモデルの開発文書の作成例具体事例
  • AI開発文書の作成方法の参考として活用

その他書籍

ガイドライン名称種別活用効果
「本日より…AIの安全を保証することになりました」AI安全論証の入門書 本書では、研究開発や支援実績+国際認証機関からの技術レビューを基に「AIの品質・安全向上」のための開発方法をストーリー仕立てでまとめています。AI安全論証の入門書として、是非ご一読ください。 Amazon限定販売

SEAMSガイドラインがカバーする主な標準群

欧州

EU AI ACT ALTAIEUのAI信頼性自己評価ツール。AI開発者が自ら倫理的・法的なチェックを行う ETSI ISG SAI欧州電気通信標準化機構によるAIのセキュリティ・信頼性に関する活動グループ DIN SPEC 92001ドイツによるAI品質・倫理に関するガイドライン 独標準 AFNORフランス規格協会。AIの倫理的ガイドラインを策定 BSI PAS 188x英国によるAI・自動運転に関する実践的なガイドライン群 英国AI原則

国際

OECD AI原則経済協力開発機構が定めたAIの責任ある活用のための国際原則 GPAIAIの国際的な政策・研究協力機構(Global Partnership on AI) PAI公正・透明なAI開発を目指す多国籍連携組織

その他の国々

AI利活用ガイドライン AI・データの利用に関する契約ガイドライン ISAGO日本のAIガバナンスに関するルール体系(仮称) カナダ Directive各国が個別に制定する法令(例:カナダDirective、ドバイAI原則など) ドバイAI原則 北京AI原則 マルタ ETHICAL AI

AIセーフティ対応の参考にな規格

IEC 62998-1 UL 4600自動運転などAI搭載システムの安全性を証明するための米国の安全規格

SEAMSガイドラインがカバーする主な技術要素

  • AIシステムの機能安全設計・評価技術
  • AIシステムの説明性の高い開発・学習プロセス
  • 信頼できる機械学習の構築方法、評価方法
  • AIの説明可能なモデリング手法
  • DNN人間の脳の構造を模倣したAIモデルの一種。高度な認識能力を持つトレーサビリティAIの開発・学習・運用の履歴を追跡可能にし、説明・再現性を確保すること手法
  • 機械学習のデザインパターン、アンチデザインパターン
  • AIのサイバーセキュリティ対応
  • その他、自動運転システムの安全性論証技術 など

販売実績

SEAMSガイドライン 販売実績

自動車メーカー含む

13