高度な生成AIを巡るG7によるルール形成枠組である「広島AIプロセス」について、その到達点と今後の展望について分析した論文(CEO羽深が執筆)を、米国シンクタンクCSISのウェブサイトで公表しました。
本文では、民主国家のリーダーであるG7によるルール形成の到達点を詳細に分析し、今後の発展に向けたいくつかの提言を行っています。ぜひご覧ください。
▼Shaping Global AI Governance: Enhancements and Next Steps for the G7 Hiroshima AI Process
https://www.csis.org/analysis/shaping-global-ai-governance-enhancements-and-next-steps-g7-hiroshima-ai-process
要約の概要も以下に掲載させていただきますが、重要なポイントの多くは文中の図表やアネックスにまとめていますのでご関心をお持ちいただける方は、そちらだけでもご一瞥いただければ幸いです。
【概要】
1.民主的リーダーとしても経済的リーダーとしても世界で非常に大きなインパクトをもち、AIに関する世界の主要な国際合意(AI条約、ブレッチリー宣言等)にも参加しているG7が、高度なAIモデルに関するガバナンスの枠組について合意した意義は大きい。(Figure 2)
2.広島プロセス行動規範における各原則と、G7各国が現在公表している規制やガイダンスの内容を照合すると、両者が非常によく整合していることがわかる(Annex)。そのため、このフレームワークは、各国で検討中のハードローおよびソフトローにおいて今後の共通の参照フレームワークとなり得る。
3.もっとも、現状のHCOCはまだ具体性を欠いており、具体的な行動に落とし込めるものではない。とりわけ、以下の点について今後議論を進めることが重要と思われる。
- 定義・ターミノロジーの整理
- リスク(とりわけシステミックリスク)に関する共有
- リスクマネジメントプロセスの具体化
- コンテンツ認証メカニズムの実装
- 透明性レポートの標準化
- インシデント共有フォーマットの統一
- 法の支配、人権、民主主義の原則の強調
- 政府のAI利用に関する規範の合意
- 認証、モニタリング、監査等に関するメカニズムの開発
- AIのエコシステム内での責任分配
- 実効的な救済メカニズムの確立