カナダと英国の取り組みから学ぶ
日本の行政機関向けAI規制フレームワークの在り方 (下)

前回は諸外国における官民双方のAI規制フレームワークとして、先行している欧州連合(EU)と米国の事例を紹介した。今回は行政機関向けAI規制フレームワークの事例として、カナダと英国の取り組みを紹介し、日本におけるその在り方を検討する。

はじめに

幅広い分野の質問に対し、市民が自然だと感じる回答を生成する人工知能(AI=Artificial Intelligence)である「ChatGPT」が急速に普及する中、AIの正確性やブラックボックス性を巡るリスクが指摘されており、利活用の方策だけでなく、リスクを管理する規制の枠組み(AI規制フレームワーク)についても注目されている。

行政機関においても既に利活用が進められているが、行政機関には民間企業より強い説明能力が求められるため、AI規制フレームワークを慎重に検討することが必要である。

前回は諸外国における官民双方のAI規制フレームワークとして、先行している欧州連合(EU)と米国の事例を紹介した。今回は行政機関向けAI規制フレームワークの事例として、カナダと英国の取り組みを紹介し、日本におけるその在り方を検討する。

1.諸外国の行政機関向けフレームワークの概要

(1) カナダ──リスク・ベース・アプローチのAIA──

カナダでは、行政機関におけるAIの利活用を推進する「自動化された意思決定に関する指令(Directive on Automated Decision-Making)」が2019年に発効した。これを受け、首相直轄の組織であり、政府のレビュー機能を担って行政改革などを進める国家財政委員会事務局(TBS=Treasury Board of Canada Secretariat)が、その業務を担っている。

指令では、連邦レベルの行政機関がAIなどを利活用し、職員の判断を支援・代替する自動化された意思決定の取り組みについて、インパクトの大きさを評価するアルゴリズム影響評価(AIA=Algorithmic Impact Assessment)を実施することなどを定めている。

自動化された意思決定を導入する連邦レベルの行政機関は、それぞれの取り組みを設計する際に1回目のAIAを行い、「情報へのアクセス法(Access to Information Act)」「プライバシー法(Privacy Act)」を所管する公共サービス委員会(Public Service Commission)の情報・プライバシー室(ATIP=Access to Information and Privacy Office)や、その他の指定された機関に相談する。また調達前に法務サービスとも相談し、1回目のAIAを完成させる。

取り組みの構築前には2回目のAIAを行い、政府のポータルサイトで公表する。AIAの運用は、TBSの最高情報責任官室(OCIO=Office of the Chief Information Officer)が管理する(図表1)。

TBSへのヒアリング調査によると、連邦レベルの行政機関における自動化された意思決定の取り組みでは、リスクが顕在化して問題が生じてから対応するのでは費用対効果が悪いため、リスクを見通して事前に対応することが重要であるとして、AIAを重視している。

AIAにおいては、自動化された意思決定を導入する連邦レベルの行政機関がそれぞれの取り組みについて、インターネット上で質問に回答する。その結果を「リスクエリア」と「リスク軽減エリア」に分けて点数を算出し、評価する。

図表1:自動化された意思決定の取組のフローとAIAの位置付け

資料:TBSホームページ(https://www.canada.ca/en/government/system/digital-government/digital-government-innovations/responsible-use-ai/algorithmic-impact-assessment.html)より作成

AIAは、点数に応じて4段階のインパクトレベルに分類し、各レベルで求められるリスク軽減対策を示しており、「リスク・ベース・アプローチ」として位置付けられる(図表2)。

TBSへのヒアリング調査によると、AIAはこれまでに10件が実施されている。うち9件が公表されており、申請処理のニーズが大きい移民・難民・市民権省(IRCC=Immigration, Refugees and Citizenship Canada)が6件と最も多くなっている。これは、IRCCがAIAの導入前からAIの利活用を独自に検討していたことに起因するものである。

多くの連邦レベルの行政機関では、20年3月に世界保健機関(WHO)がパンデミック(世界的大流行)を宣言した新型コロナウイルス感染症の影響を受け、デジタル化が停滞し、自動化された意思決定の取り組み導入が滞っていた。しかし、その影響が一段落しつつあることもあり、今後はIRCC以外でも導入が進み、AIAの実施件数が増えると考えられる。

TBSとIRCCへのヒアリング調査によると、連邦レベルの行政機関は自動化された意思決定の取り組み導入に当たり、AIAを実施することでコンプライアンス(法令順守)を確保できると評価し、多くが前向きな反応を示しているという。また、AIAの質問に回答する際の支援にとどまっているTBSの役割を、強化してほしいとする意見が多くなっているとのことだった。

なお警察や国防関係など、機微な情報を取り扱う連邦レベルの行政機関は、AIAを実施してデータ処理のプロセスが公表されると悪用される恐れがあるなどとして、当初は難色を示していた。しかしTBSがその必要性を丁寧に説明した結果、国家的な安全保障に関するシステムは対象外とするが、政府の最高情報責任官(CIO)が実施主体となる場合は例外としてAIAの対象にするということで、理解が得られている。

図表2:インパクトレベルと求められるリスク軽減対策

注1:FAQは、よくある質問(Frequently Asked Questions)のこと
資料:AIAツールホームページ(https://www.canada.ca/en/government/system/digital-government/digital-government-innovations/responsible-use-ai/algorithmic-impact-assessment.html)より作成

(2) 英国──社会と情報共有するATRS──

英国では、データ倫理・イノベーションセンター(CDEI=Centre for Data Ethics and Innovation)が、行政機関が利活用するAIのアルゴリズム情報を社会と共有することを目的として、2021年に「アルゴリズム透明性記録標準(ATRS=Algorithmic Transparency Recording Standard)」を策定している。

ATRSはAIの「インパクト」に注目し、個人や集団に直接的・間接的に影響を及ぼす行政機関が利活用するAIのアルゴリズムを対象として、第1階層で一般市民向けの概要を、第2階層で専門家向けの技術情報を取りまとめている(図表3)。

図表3:アルゴリズム透明性記録標準の項目

資料:Algorithmic Transparency Recording Standardのホームページ(https://www.gov.uk/government/publications/algorithmic-transparency-template)より作成

全体で40項目あるが、第2階層の「アルゴリズムの技術の要件とデータ」が17項目と最も多く、アルゴリズムの技術面における透明性を重視していると考えられる。また行政機関のATRS実施は義務ではなく、任意であり、その結果は政府のポータルサイトに公表される。

CDEIはATRSの初版を21年11月に公表し、関連府省や警察組織など10以上のチームが試行した。23年1月には修正版が公表されている。CDEIへのヒアリング調査によると、まだ初期段階であると認識している。

ATRSの試行は6件が公表されている。府省の内局や食品基準庁(Food Standards Agency)といった外局のほか、高い機密性が求められる警察組織など、幅広い行政機関が実施している。

CDEIへのヒアリング調査によると、ATRSの導入は円滑ではなかったという。行政機関のATRS実施は任意であるため、CDEIは行政機関に対し、社会との情報共有、そしてリスクの事前対応を通じた社会からの信頼向上を打ち出して、実施を働き掛けている。

ATRSの試行には警察組織も参加しているが、その背景には警察組織がAI倫理に以前から関心を持っていたことがある。またATRSの目的が、行政機関が利活用するAIのアルゴリズム情報を社会と共有することであり、リスクの軽減ではないため、リスク・ベース・アプローチは採用していない。

2.まとめ

前回述べた通り、23年4月に群馬県高崎市で開催された先進7カ国(G7)デジタル・技術相会合は、「信頼できるAI」の普及について合意する一方、AI規制フレームワークの検討は今後の課題とされた。また日本においては、政府の統合イノベーション戦略推進会議が22年4月に決定した「AI戦略2022」で、「政府におけるAI利活用の推進」を打ち出している。

このため「政府におけるAI利活用の推進」に向け、G7デジタル・技術相会合の合意に基づき、行政機関において信頼できるAIの普及を図る、行政機関向けAI規制フレームワークの在り方を検討することが求められている。

今回は、諸外国における行政機関向けAI規制フレームワークの事例として、カナダのAIAと英国のATRSを紹介した。AIAは連邦レベルの行政機関を対象とし、リスク・ベース・アプローチによって、行政機関が利活用するAIのリスクを軽減するとともに、その結果を政府のポータルサイトで公表している。一方、ATRSは、行政機関が利活用するAIのアルゴリズム情報を社会と共有することを目指す任意の規制フレームワークであり、リスクの軽減を目的としていない。

日本において、信頼できるAIを普及させるためには、市民にAIのデータ処理プロセスの情報を提供し、理解してもらうとともに、リスク軽減対策を実施して市民の安心を確保することが必要である。

このため、日本の行政機関向けAI規制フレームワークはAIAを参考とし、リスク・ベース・アプローチによってリスクの軽減を図るとともに、ATRSを参考にして、結果を積極的に公表・説明し、市民の理解を得ていくことが求められる。

  • (注1)「時事通信社発行『地方行政』 2023年7月3日号に掲載されたものです。
  • (注2)本記事・画像・写真を無断で転載することを固く禁じます。

坂野 成俊(さかの なるとし)

Sakano, Narutoshi

公共政策研究センター長

専門分野

  • 日本企業の海外展開戦略
  • 環境・経済分析
  • 自治体経営

1999年慶応義塾大学経済学部卒業、2001年一橋大学経済学研究科修了、同年富士通総研入社。主にICT・交通分野など日本企業の海外展開の促進に関する政策や経済動向、環境政策等に関する調査研究業務のほか、地方自治体の各種計画策定等に関するコンサルティング業務に従事。

『Smart City Emergence 1st Edition』(Elsevier/2019年7月)で「The Smart City of Nara, Japan」や、『運輸と経済(2019年10月)』(交通経済研究所)で「民間力を活用したメンテナンスについて~英国からの教訓~」等を執筆。日本規格協会で「日ASEANコールドチェーン物流ガイドラインのJSA-S化(2019年度)」の委員等も務める。

お客様総合窓口

当社はセキュリティ保護の観点からSSL技術を使用しております。