1. AIシステム認証への高まるニーズ 人工知能(AI)を組み込んだ製品やサービス(以下、「AIシステム」)は、社会のあらゆる場面に急速に浸透し、生産性を飛躍的に向上させる一方、プロファイリングによる行動誘導、生命を脅かす誤作動、バイアスによる差別など、AIがもたらすリスクの領域や質・量も拡大している。こうしたリスクの登場に伴って、AIシステムに対する認証(Certification)制度を求める声が高まっている。認証とは、独立した第三者機関が、対象となる製品、プロセス、サービス、またはシステム等が特定の要件を満たしていることを評価し(適合性評価)、これを証明する文書(証明書)を提供することをいう(※1)。AIに関する認証としてはISO/IEC 42001が2023年12月に公表され、既に国内外の多くの組織で活用されている。しかし、これはあくまでマネジメントシステムという組織に関する認証であり、その組織が運営する個別のAIシステムそれ自体を対象とする認証ではない。AIシステムそれ自体の認証のあり方を巡っては今まさに国内外で議論が進んでおり、そこではジョイント認証というアプローチが注目されている(※2)。本インサイトでは、既存の認証のアプローチを概観しつつ、AIシステムの認証におけるジョイント認証について解説する。◆ホワイトペーパー「AIシステム認証制度のデザイン:製品のリスク管理策と組織のマネジメントを統合した『ジョイント認証』の試み」全文はこちら(日本語版/英語版)2. 既存の認証アプローチの限界とジョイント認証の必要性 AIシステムの認証を検討する際、「何を評価するか」について3つのアプローチが存在する。(1) 製品の性能・仕様適合性を評価するアプローチ 第一のアプローチは、AIシステムが定められた性能や技術仕様を満たすかを評価するものである。電気用品安全法における「特定電気用品」のPSEマーク取得のように、製品が法定の安全性能を満たすかを認証する方法である。しかし、このアプローチはAIシステムには適さない場合が多い。AIシステムは学習データや運用環境に依存して挙動が変化する「動的」な性質を持つため、ある時点のスナップショットではリスクを十分に評価できない。また、AIの判断過程はブラックボックスであり、未知の脆弱性を事前に網羅的に検証することは困難である。さらに、公平性や倫理的適切性といった定性的な要求事項を客観的な評価指標として定義することも難しい。(2) 製品のリスクに対する「管理策」を評価するアプローチ 第二のアプローチは、AIシステムから想定されるリスクに対して適切な管理策(対応策)がとられているかを評価するものである。AIシステムを開発したり提供したりする事業者(以下、「提供者」)が、そのAIシステムに関するリスク対策を取捨選択する。そして、認証機関はその対応策の適切性を審査する。このアプローチは、AIシステムのリスク情報を最も多く保有している提供者が、その情報をもとにリスクへの対応方法を柔軟に判断できるという利点がある。そのため、リスクの範囲が広くダイナミックに変化するAIシステムの認証に有用である。しかし、認証主体は提供者より少ない情報しか持たないため、選択された管理策の適切性を第三者が評価することが困難であることや、技術や社会受容性の変化が速いAIシステムで、認証付与時点で適切と判断された管理策が継続的に妥当であり続けるとは限らない、といった課題がある。(3) AIシステムを提供する「組織」を評価するアプローチ 第三のアプローチは、AIシステムを提供する組織のマネジメントシステムを評価するものである。ISO 9001(品質マネジメントシステム)のように、個別の製品ではなく、製品を生み出す組織の体制が確立・運用されていることを認証する。しかし、AIシステムの場合、システムが直接的な人間の指示を離れて自律的に挙動することに加え、リスクの種類や影響が、使用される文脈や個々のシステムアーキテクチャごとに大きく異なることから、個々のAIシステムを離れて組織やその中の人間のみを通じてリスクをコントロールするアプローチには限界もある。(4) ジョイント認証の必要性 以上のように、リスクシナリオが多様でシステムの内容自体もダイナミックに変化していくAIシステムについては、(1)製品の性能・仕様、(2)製品のリスクに対する管理策、(3)製品を提供する組織のマネジメント、のいずれを対象とする認証アプローチにも限界がある。 このうち、(1)のアプローチについては、たとえば自動運転車や手術ロボットなどのハードウェア製品であってシステムの組み込みが限定的な範囲について、分野ごとの法令等に基づいて一部適用する余地があるものの、一般論としてはAIアルゴリズムのように変化の速い領域においては適用困難である場合が多い。そこで、AIシステムに対する基本的な認証の枠組みとしては、製品ごとに採用されている管理策の適切性(上記(2))と、それを評価・実行・改善する組織のマネジメントの適切性(上記(3))をあわせて審査することが、AIシステムへのより実質的なリスク管理に繋がり、結果として、信頼の付与につながると考えられる。 このようなアプローチは、管理策と組織の双方を評価することから、「ジョイント認証」(Joint Certification)とも呼ばれることもある(※3)。ジョイント認証は、「AIシステムの信頼は、信頼できるマネジメントシステムを有する組織・プロセスが適切な管理策を講じ続けることによってこそ確保される」という考え方に基づくものである(※4)。(5) ジョイント認証の方法 AIに焦点をあてた国際標準の枠組みとしてISO/IEC 42001(AIマネジメントシステム)が広く参照されるが、AIシステムに対するジョイント認証としてはISO/IEC 42001を利用する以下の枠組みが考えられる。① AIシステムの「管理策」に対する評価基準:ISO/IEC 42001 附属書A,B② AIシステムを提供する「組織」に関する評価基準:ISO/IEC 42001 本文③ 両者を統合的に評価し認証を付与するための仕組み:ISO/IEC 42007(※5)(現在ISOにて審議中)4. ジョイント認証の意義と課題本インサイトでは、AIシステムが社会に深く浸透する中で高まる認証へのニーズに応えるため、既存の認証スキームを分析・整理した上で、既存の認証アプローチの限界を特定し、その限界を克服する「ジョイント認証」の必要性と具体的な方法について簡単に説明した。 ジョイント認証には様々なメリットがある。予測困難なリスクについて柔軟に対応でき、かつ変化に強いという点に加え、一つの組織認証を複数のAI製品に再利用したり、医療や金融など個別ドメインの認証とAI認証を組み合わせたり、法令の義務の一部をAI認証で代替することによって、多くの局面において認証取得やそのための監査の時間やコストを大幅に削減できるという点である。これは、AIシステムに対する信頼をいち早く社会に届けることに直結する意味で、非常に意義の大きいものである。一方で、ジョイント認証の導入には課題も存在する。大きな課題は、多様なAIシステムに対して選定された管理策の適切性を第三者が評価することの困難さである。リスクシナリオが無数に存在し、社会的な許容水準も不明確な中で、どのような対策をどこまで取るべきかの判断は極めて難しい。その中でもジョイント認証の有効性を最大限に引き出すためには、様々なユースケースを用いて、場面ごとの管理策や組織の在り方や、組織間の連携を官民のステークホルダーで共有していくことが重要になるだろう。そのようなプロセスを継続的に行っていくことで、より多くのAIシステムの提供者が、大きなコストをかけずに最適な管理策の実践及び組織の整備を行うことができるようになり、ユーザー側も安心してAIシステムを信頼できるようになる。常に最新の状態にアップデートされたケーススタディに基づくジョイント認証は、AIシステムの信頼性を確保し、イノベーションの社会実装を加速させるための強力なツールとなるだろう。▶ 記事のPDFはこちら※1) ISO「Conformity Assessment」 (https://www.iso.org/conformity-assessment.html)※2)日本のAIセーフティ・インスティテュート(AISI)の発表した「AIセーフティ年次レポート2024」7頁(https://aisi.go.jp/assets/pdf/j-aisi_report_2024_ja.pdf)においては、AI製品に対する適合性評価規格の策定がISO及びCASCOで議論されていることも受けて、AISIとしても後に詳述するジョイント認証の検討がなされている旨が記載されている。また、認証ではないが、2025年6月3日に発表された内閣官房知的財産戦略本部による「新たな国際標準戦略 」24頁(https://www.kantei.go.jp/jp/singi/titeki2/chitekizaisan2025/pdf/kokusaisenryaku.pdf))においては、日本の標準における重要領域の中の戦略領域にAI分野が位置付けられており、AI分野での認証含む標準に関する日本政府の関心が高いことが伺われる。※3)AI製品以外についても、一部の物理的製品について既にジョイント認証が実施されている。たとえば、エアコンユニットについては、ISO/IEC 9001 (Quality Management System certification)と Energy Star (Product certification)を組み合わせることとされている。ただし、これは本文で言及した(1)と(3)を組み合わせる類型である。※4)この考え方は、認証以外の分野でも採用されている。例えば、EU AI法では高リスクAIシステムと分類されるAIシステムに対して、適合性評価が要求されるが、この要求事項の中心とされるのは、(i) AIシステムのリスクマネジメントや記録に関する製品固有の「管理策」に関する要件(EU AI法第9条〜14条)及び (ii) それらを支える「組織」(マネジメントシステム)に関する要件(EU AI法第17条)である。※5) ISO/IEC 42007については、まだ未発表であるが、ISOのHP(https://www.iso.org/standard/89967.html)に作業の進捗が記載されている。【参考リンク】▶ ISO/IEC 42001:2023▶ ISO/IEC JTC1/SC42 のウェブサイト本稿は公開情報や執筆者の専門的知見に基づいた一般的な分析・見解を提供するものです。本稿に記載の見解は執筆担当者の個人的見解であり、当社または当社のクライアントの見解ではありません。