第1回先進的AI利活用アドバイザリーボード
- 最終更新日:
概要
- 日時:令和7年(2025年)9月18日(木)10時00分から12時00分まで
- 場所:庁議室・オンライン
- 議事次第:- 開会
- 議事- 先進的AI利活用アドバイザリーボードの運営
- 各府省庁生成AIシステム定期報告概要
- 我が国及び諸外国における生成AIに係る動向
- 行政の進化と革新のための生成AIの調達・利活用に係るガイドライン充実に向けた論点候補
 
- 閉会
 
資料
- 議事次第(PDF/59KB)
- 資料1 先進的AI利活用アドバイザリーボードの開催(PDF/3,485KB)
- 資料2 先進的AI利活用アドバイザリーボード運営要領(PDF/271KB)
- 資料3 各府省庁生成AIシステム定期報告概要(PDF/869KB)
- 資料4 我が国及び諸外国における生成AIに係る動向(PDF/11,272KB)
- 資料5 行政の進化と革新のための生成AIの調達・利活用に係るガイドライン充実に向けた論点候補(PDF/9,154KB)
- 資料6 永沼構成員提出資料(PDF/304KB)
- 議事要旨(PDF/585KB)
参考資料
議事要旨
冒頭、岸デジタル大臣政務官から、アドバイザリーボードの開催にあたり、政府におけるAI活用の重要性とAI利活用に係るデジタル庁の取組、アドバイザリーボードに期待する役割等についてご発言があった。
1. 先進的AI利活用アドバイザリーボードの運営についての説明
事務局より、先進的AI利活用アドバイザリーボードの運営について資料1及び資料2により説明し、事前に構成員にご了解いただいたとおり、門林構成員を座長に選出する旨を説明した。
運営に関する出席者からの質疑及び意見等はなかった。
2. 各府省庁生成AIシステム定期報告概要についての説明
事務局より、各府省庁による生成AIの利活用状況の分析結果について資料3により報告した。
出席者の主な質疑及び意見等は、以下のとおり。
生田目構成員: 正確な分析に感謝する。意見が2点あり、1点目について、利用人数や形態等で全体的な構造が把握でき、何を目的としてAIを使っているのかの認識を深めるフェーズに入ったと理解した。目的には業務効率化や精度向上や分析/分類等があると思うが、政府としてのAIの活用の方向感が明確になっていくと考える。ご紹介いただいた一例として、法令違反端緒情報収集システムが挙げられていたが、すばらしい取組と思う。省庁職員の業務効率化という目的で記載いただいているところ、法令遵守の精度向上という目的にも資すると思われるため、個々のAIの意図するところ、どのように国益に関わるのか整理をいただく段階に入ったと考える。2点目として、政府におけるAIの導入がまだ初期段階であるという状況において職員個人が勝手に利用するケース等へのガードレールを実施するか等は検討いただいた方が良いと考える。
事務局: 目的の部分は、導入の効果の測り方に関わってくると考える。拾った情報がどこまでクリティカルに違反事例にヒットするか等の目標設定を有効なものにすることが重要。個人のAI利用の問題に関しては、課題としてできるだけ最新かつ安定したモデルを全府省庁の職員が使える状態にすること及び生成AIを各府省庁が使いやすい形で提供することが重要。AIを使うことだけが目的にならないようにしたい。目標設定や目的の明確化が肝要と考える。
吉永構成員: LLMの分析について、職員はそもそも利用できる国産モデルを知らないのではないか。機密性が高いデータやヘルスケア領域等のセンシティブな情報等を扱う場合、政府としては国産モデルが必要と考える。今後、利用可能になった国産モデルは積極的に各府省庁へ情報提供していく必要がある。質問だが、府省庁別に利用モデルの特徴があったのかどうか伺いたい。
事務局: デジタル庁としてはガイドラインの公表だけではなくCAIOとの連携をしているため、CAIO経由での情報発信は考えられる。府省庁別の特徴に関しては、個別の府省庁名を比べる形になってしまうためこの場では差し控えるが、ユースケースの観点で全体的に汎用的な利活用にとどまる府省庁や、特化型1・特化型2までの利活用に踏み込んでいる府省庁もあるという点で多少の差は見えてきたところ。
鳥澤構成員: 分析軸が利用人数になっているが、アクティブユーザー/非アクティブユーザーの割合が見えないので、正確な分析のため利用頻度も出してほしい。提供を嫌がる可能性もあるが、情報をいただけた方が正確な分析になると思う。
事務局: 今は利用人数が利用可能な人数にもなっていると思う。アクティブユーザ等も具体的に取れるかは検討していきたい。
柴山構成員: 利用人数別の分析について、1万人以上の類型は府省庁単位なのか、もう少し小さな組織単位なのかが気になったがいかがか。
事務局: 1万人以上の類型は、恐らく地方の関連組織等も含めた利用が含まれたものになる。
柴山構成員: 生田目構成員から挙がった個人的な利用を防がないといけないという点について、汎用型1に関しては利用ができない人を無くすことが重要になると考える。オフィシャルに利用できるものがあればそちらを利用すると思われるところ、空白地帯をなくしていくことが重要になっていくと思う。そのためには生成AIの利用ルールをブレイクダウンして具体化するなどが必要と考える。
岡田構成員: 生田目構成員から挙がったAIを導入する目的について重要と感じた。共有いただいた全ての案件において、予算要求を挙げる段階で目的や成果指標や活動指標などが設定されているものと推察する。そもそも成果指標、活動指標を設定しているのか、設定していれば何を尺度として設定しているのかが気になる。全体把握のために重要であり、他省庁の事例を学ぶといううえでも重要なので検討いただきたい。
事務局: 指摘いただいた点も意識付けとしては重要なため検討していきたい。AIを利用できる手続も整備を進めている。無償で利用可能なものであっても機密性1情報であれば使っても良いという形としている。負担にならず積極的に活用をするために、そのようなものは成果指標などを明確に定めずに利用しているものが多いという実態があり、システムを開発する事例については、デジタル庁も指標を求めている。まずは成果指標を設けずに使ってみるという姿勢も重要と考えるため、うまく調整しながら進めていきたい。
3. 我が国及び諸外国における生成AIに係る動向についての説明
事務局より、我が国及び諸外国における生成AIに係る動向について資料4により説明した。
出席者の主な質疑及び意見等は、以下のとおり。
北村構成員: 2点補足させていただく。AISIの評価ツールについて、自動レッドチーミングを含むOSSを出した。詳細はGitHubに公開している。生成AIの導入状況について、ドイツ国内では足元をしっかりやっていかなければならないということで、コンベンショナルAIの制御を踏まえて生成AIに動くという動きもある。エージェンティックAIについては国際的に確立した定義はまだ存在しないが、実務上の暫定的な理解に基づき、例えばドイツ等では監査やメタエージェントの活用といった具体的な取り組みが進んでおり、次のステージに向けた競争が激しさを増していることを意識する必要がある。
吉永構成員: 令和7年9月15日に、OpenAIとデューク大学、ハーバード大学から「人々がどのようにChatGPTを活用しているか」という題の報告書が公表された。主に、ガイダンスとして利用、検索エンジンのように情報収集として利用、文書作成支援に使われているとのことだった。現状は、府省庁においても大体、この3つに分類されると考えている。先ほどの報告で法制度の調査支援等についても使われているということだったが、シンクタンクの研究員として何十か国もの法制度を調査した経験があるなかで、そのような調査は今後シンクタンクを使わなくてもよくなると考えられる。ただ、ハルシネーションに対する正確性の精査は必要で、情報をしっかり精査して提供しているかを各府省庁に対しても見ていかなければならないと思う。そのあたりはデジタル庁から各府省庁へ密にコミュニケーションを取っていただきたい。
事務局: 生成AIについては、各省内で利活用ルールを定め、研修を実施して、ハルシネーション等については利用をする際の留意点を浸透させることとしている。
北村構成員: アドバイザリーボードは各府省庁のCAIOの方々との連携も行っていく必要がある。CDOやCISO等があるなかで、CAIOに過度な負担が集中しないよう、有識者として我々アドバイザリーボードがCAIOのパートナーとして期待されるような形で専門的な助言を行うことでCAIOの実務を補完できればと考える。
生田目構成員: AI基本計画に始まったこの1年の動きは極めて前向き、受益者である国民に資するものができたと思っている。米国のアクションプランも7月に出たということもあり、非常にタイムリーなものと理解している。その上で、継続的変革として、今後の運用がどれだけダイナミックに進められるか重要。AIの変化ペースが我々の予測を超えてくる可能性もあるため、政府がリスクと利活用のバランスをとっていく必要がある。AIは今後進化を続けるが、完璧に無謬性を求めることは難しいと考えられる。ハルシネーションという技術的な課題もあるうえ、限られたデータの中から作られるアウトプットは完全に正確ということは言えず、人手で修正する必要性が出てくるということは変わらないと思うので、継続的なモニタリングや課題の検討をすることが政府として重要になってくる。変化と無謬性の不完全性に関しては継続的に振り返りを行っていくことは今後の各府省庁の取組としても大事だと思う。米国Action PlanのPillar Ⅱの中でもPromote Mature Federal Capacity for AI Incident Responseとしてインシデントは不可避であるものとして許容しつつ、利益がリスクを上回る社会を実現させることに米国は視点を定めている。
事務局: 現在のGLで各府省庁のなかで役割を定め、それぞれの役割も定めている。運用の中でモニタリングの記載もあるが、皆さまにご意見をいただきながら記載の充実を検討してまいりたい。
北村構成員: 今後の生成AIのキーワードはマルチエージェント。従来は生成結果に含まれる『誤回答』が課題だったが、今後は複数のAIシステムが連携する過程で生じる『誤動作』—つまりシステム間相互作用による予期せぬ挙動—が課題になる。
門林座長: マルチエージェント等のキーワードが挙がったが、今後のアドバイザリーボードで継続的に議論をしていきたい。
4. 行政の進化と革新のための生成AIの調達・利活用に係るガイドライン充実に向けた論点候補についての説明
事務局より、ガイドライン充実に向けた論点候補について説明した。
出席者の主な質疑及び意見等は、以下のとおり。
門林座長: 永沼構成員からの資料(「AI制度に関する基本的考え方」)があるため、永沼構成員お願いしたい。
永沼構成員: 経団連デジタルエコノミー推進委員会 国際戦略WG主査をしている。昨年度、AI制度研究会へ経団連として産業界の立場で参画していた。本資料は、その際に、経団連内でAIの利活用や制度がどうあるべきかのアンケートをとり、AI開発者、AI提供者、AI利用者に回答いただいた結果のまとめである。政府のAI活用に関しての観点も入っており、AI制度研究会へも働きかけを行った。経団連としてどのようなことを申し上げていたのか参考にしていただきたいと考えている。原則に関する基本的な考え方に関して、「(1) リスク対応とイノベーション促進の両立」に関しては責任の分担を明確に、AI製品や安全対策に係る認証制度や、産業政策としての支援策やAIリテラシーを持つ人材育成等記載されているが、AI法にも反映されている部分となる。「(2) 技術・ビジネスの変化の速さに対応できる柔軟な制度設計」は、技術とビジネスとの速さに対応できる制度設計として、AI法に取り入れていただいている。「(3) 国際的な相互運用性や国際的な指針への準拠」は、国際的な相互運用性ということで、国際的な行動規範への準拠も踏まえての事項を記載している。ご存知の通り、AI法にも反映されている。「(4) 政府によるAIの適正な調達と利用に関する考え」に関しても、多くの意見をいただいた。海外依存を減らすべきとの意見もあり、また、責任の明確化や判断プロセスの透明化、政府内のガバナンス体制の構築に関しての声をいただいている。国際競争力の強化、ISMAPのような基準の整備等についても声をいただいている。国内技術の育成は産業界からも要望が大きい。責任の明確化や判断プロセスの透明化や政府内のガバナンス構築も声があり、議論を深めていきたい。国際競争力の強化に関して、具体的にどうなるかに関しては後ほど議論になると思う。ISMAPのような制度に関してもこの後の論点になると思う。「(5)その他意見」としても認証制度や業種ごとの対応や中小企業への配慮も考慮が必要とあった。今後は、「(4) 政府によるAIの適正な調達と利用に関する考え」に関して議論を深めていきたいと考えている。本資料は1年前の時点の話ではあるが、参考としていただきたい。
湯淺構成員: 3点意見がある。1点目、生田目構成員からも上がったが、AIに無謬性はないというのは周知の事実であるが、行政業務は完璧であるべきという世論が大きくなっているように感じる。AIの正確性は100%ではないということをしっかりとメッセージしていくことが必要と考えられる。2点目、行政や自治体等で、違法性を指摘された場合にどうするのか、という論点があるが、行政としては訴えられた場合のリスクがあるのかという観点がある。GLの高リスク判定に関しては、行政法における違法と直結するようなリスク判定となってはいないと考える。高リスク=違反となる可能性がある、という方向なのかは改めて見直しが必要と考えられる。3点目、リスク軸のロジックについて、ほとんどのユースケースで個人情報を使う想定であることを考えると、個人情報を扱った場合はすぐ高リスクとなるというのは厳し過ぎるのではないか。各府省庁がAIを利用する際の障壁となってしまう可能性がある。要配慮個人情報であるか否かでも扱いが変わるところ、緩和とは言わないが、行政が導入しやすいロジックにすべきではないか。
事務局: ご意見をいただきながら深めていきたい。AIが無謬ではないという部分は国民向けユースケースでは特に重要になると考えており、留意事項や免責事項を文字で示すことや具体化していくこと等を踏まえて進めていきたい。
事務局: リスク判定ロジックについては、現行の考えとしては、「C. 要機密情報や個人情報の学習等の有無」が漏洩リスクを意識しており、「B. 生成AI利活用業務の性格」が誤った情報等の生成により損害を与える民事的な違法性も含め対応するもの、「A. 利用者の範囲・種別」に関しては、利用者が特定できる場合であればルールを徹底できる等でリスク低減というような観点、「D. 出力結果の政府職員による判断を経た利活用」はヒューマンインザループの観点と、人が内容について責任を負うという観点である。ご意見をいただいた「C. 要機密情報や個人情報の学習等の有無」の部分等については、より今後議論を具体化してまいりたい。
門林座長: 個人情報に関しては、Named Entity Recognition等で、個人情報を自動マスクする技術があり、プライバシー情報保護技術である PETs(Privacy-enhancing technologies)は進化している。機密情報に関しては、秘密計算(Confidential Computing)で、クラウドの中で機密情報を維持しつつ、ローカル環境でAIを活用すれば機密情報を扱える等、技術は変化している。
事務局: 関連して、個人情報保護法の見直しが次の国会での論点になっているところ、動向を注視していきたい。
門林座長: 「A. 利用者の範囲・種別」に関しては行政から産業界に対して指針を示す等が重要であると考える。
鳥澤構成員: 幾つかコメントさせていただきたい。調達チェックシートに関して、AIは無謬ではないという点をこのシートの中でどのように表現・担保していくのかは非常に難しいと考える。要求事項19「生成AIシステムによる出力に有害なバイアスを含まず、不当な差別を含まない状態としていること」は実現不可能とも考えられる。確率が0と言い切れるAIは存在しない。調達関係者が腑に落ちる書き方も難しい。対策例の記載にも問題があり、生成AIが回答を拒否できる仕組みとあるが、回答を拒否できることが100%という意味なのか、90%という意味なのか、常識的には前者と解釈するがこれも現状不可能であり今後も不可能に近いと考える。Named Entity Recognitionも、稀な個人名等には対応が困難で100%正確かつ完全に個人名を特定できるわけではない。調達の中ではAIに関して素人の方が本記載を読まれることになると考えられるところ、「技術を有している」は納入する側がどう書くかは難しい。1つの考え方としては、バイアスを持っていないことを示すためにベンチマーク結果を使うことも考えられるが、ベンチマークテストでの評価ということも、そのベンチマークデータがオープンであればそれを学習してしまえばその範囲においては高得点を取ることができて裏をかくことができてしまうため、一定の歯止めにはなるが究極の解決策にはならない。AISIのツールを使うことも考えられるが、その場合は点数をつけることも難しくなると考えられる。どのように書くのかというところが重要になる。要求事項27「生成AIシステムがアクセスするデータを適切な状態に保っていること」も同じだと思う。
事務局: 生成AIが無謬ではないというニュアンスはチェックシートにも取り込む必要があると考える。基本的に無謬であることを求めているわけではなく、それに対するリスク緩和措置をとっているということが本質であるところ、具体的表現についてはご指摘の観点からあらためて見直すことが必要と考える。事務局で確認をすすめるが、構成員の皆様からも今後とも意見をいただき改善してまいりたい。
北村構成員: AISIの公開した「AIセーフティ評価のための評価ツール」もあくまで評価手法の1つということを忘れてはならず、また絶対的な評価でもない。AIは地理的な境界を持たないという中で、越境規制の困難さを見ると、王室認可英国品質協会の見方として、欧州ではデータマネジメントやどこまで出す・出さないというデータアクセスの話が今後の各国の競争領域になるだろうとのこと。AIの通貨はデータであり、そのため規制する際はデータアクセスだという考えであり、AIモデルの制御の限界を見渡して、データの方に主戦場は移っていくとの見方が広がっている。
事務局: 政府における生成AI調達・利活用ガイドラインの範囲というより、AI政策として今後の議題になってくると考えられる。
門林座長: AIに国境はないことは事実だが、インターネットの広がりの際にもプライバシーの法規制も徐々に進められた。AIに関しても同じような流れになると考えられる。行政文書を学習してよいか等、日本政府としてのデータに関する指針を示すことは重要。行政では思想のバイアスに関しても重要となる。
北村構成員: 政府の生成AI利活用の動きは、民間においても見られていると思われる。ドイツでも、日本のベンチマークは見られていた。
吉永構成員: 4点意見がある。1点目、まだ具体的なリスクが見えていない中で、フローチャートは検討の余地がある。どのようなリスクが実際にあるのか省庁から吸い上げるとともに、アドバイザリーボードのなかでもブレインストーミングしたうえで、リスク判定シートの改定をしていくべき。2点目、自治体のガイドラインのほうで別途議論がされているかもしれないが、三重県の児童虐待保護の事件もあった。AIの結果を参考にして保護を実施しないという判断をしていた。保護率39%で高リスクと判断すべきだったのかそうではなかったのか等も判断が難しい。そういった基準等のAIの運用ルールも考えていくべき。3点目、諸外国の政府機関が生成AIをどう使っているかは紹介いただきたい。例えば、アメリカ、イギリス、シンガポール等で政府機関がAIを使っているケースがあれば次回以降ご提示いただきたい。4点目、ガイドラインの構成について、別紙の中で参照必須・推奨という区分けがあるが、必須→推奨と並びを変えた方がわかりやすいのではないか。また、別紙の中でも推奨なのか必須なのかを明示した方が利用しやすいと思った。
事務局: 今日のご意見も踏まえて方向性を示しつつ、議論を深めてまいりたい。児童虐待保護に関するAIに関しては、深層学習を活用したものと聞いている。別紙の順番に関しては、現状は本文で出てくる順番のナンバリングとなっているが、検討してまいりたい。
門林座長: 各府省庁と行政で所管がそれぞれあると思う。児童虐待に関しては子ども家庭庁の所管だと思う。それぞれ連携しながら進めていくべきと考える。
北村構成員: AIマネジメントシステムの規格であるISO/IEC 42001との対応関係を精緻にするのは今ではない。ISO/IEC 42001 に関しては検討にも関与したメンバーの一人であるが、調達の文脈としても矛盾はしていない。しかし、日本では取組が始まり始めている段階であり、来年度以降、実際にISO/IEC42001マネジメントシステムが回り始めてから動き始めるという方が良いと思う。
事務局: 次年度以降の課題とすることも選択肢として検討してまいりたい。
北村構成員: America’s Action Planはフルスタックがポイントとなるが、米国でも意見が2分されているところ、日本としても先々を見越し取り組みを進めていく必要があると考える。
永沼構成員: 民間の立場から申し上げると、4つの論点について行政の利活用とはいえ、生成AIについてはユースケース・リスクともに民間が先行するだろうと想定している。現行の調達GLはAI事業者GLとの紐づきが大きい。これから、AI法に基づく指針が定められる中、政府のルールと整合性を取っていくという観点では、更新が多くなりすぎると利用者として使いにくくなるということも考えられる。どこまで目線を先に向けて進めていくのかが必要。民間側の時間軸を意識したクロスリファレンスは重要になる。
生田目構成員: 民間の立場としてコメントしたい。私が代表理事を務めているAIガバナンス協会は、現在120社ほどの協会になっている。民間でのリスクに対する知見、取組を社会に対して公開する意図で立ち上げた。これまでの活動を通じて感じている内容として、AIの固有のリスクに対しては、身体へのダメージ等既存の法制度で明らかにカバーされている部分も多い。倫理・尊厳・バイアス等、既存の法制度ではカバーしきれていない価値規範に関しては、民間の事業者としても難しさを持っている。バイアスや倫理、尊厳への配慮は調達チェックシートにも表現はあるが、サンプルデータでチェックすれば良いということも難しいと考える。なぜならば、AIはITとは異なり、情報の認識、理解、生成の複雑なプロセスを持つため、その差に対してどのようなことを行っていくか議論していきたい。
柴山構成員: 著作権侵害に関してもリスクを0にすることは難しい。著作権侵害が発生してしまった場合、法的効果として主に、差止め・損害賠償請求がある。差止めについては、過失があろうがなかろうが差し止められる。損害賠償に関しては過失が要件となる。著作権侵害を防ぐための合理的な措置を取っていると言えれば、過失が認められる可能性を低減でき、損害賠償へのリスクは相当減らすことができる。著作権侵害に対しては、一定の技術的担保等によりリスクを低減することもできるが、これについては利用者でどうこうできることではなく基本的に開発者側でのみ行えるものである。利用者側でできることは少ないが、利用態様等でリスク評価し、対応することが重要だと考える。JDLA(一般社団法人 日本ディープラーニング協会)でも議論を進めている。リスクを取れる民間が利用を進めていき、その後行政に参照いただけると良いと思う。また、契約チェックシートについては、JDLA等において生成AIを組み込んだシステムの開発契約のGLと契約書のひな型を公開しようとしている。
事務局: 画像の生成も対象とする場合には、生成物による知的財産権侵害について記載することは政府のガイドラインとして求められているものと考えている。従来のサイバーセキュリティの議論と似ている。未然防止、有事対応という点での制御というのがAIでも重要。AIも同じく、使う前の制限も大事だが、使った際の制限ということも踏まえながら進めていきたい。
鳥澤構成員: 現行法との関連で、開発している側からすると記載が曖昧過ぎて分からないということもある。その曖昧さを引き継がれてガイドラインが記載されるという点を危惧している。要配慮個人情報については、「信条」に関する記載があるが、信条とは何か、という論点がある。SNSの書き込みは信条なのかどうかという論点等。その状況を踏まえてガイドラインへの落とし込みが難しいものと思料。
岡田構成員: 省庁、自治体、企業からこの2年で相談をよく受けることについての情報共有をさせていただく。1点目、個人情報の活用について、特に、仮名加工情報を生成AIに用いていいのかという点。2点目、ハルシネーションの受容について、つい最近数学的に示されたようにハルシネーションは常に存在するという宿命を、どこまで受け入れ、どのように注意喚起や啓発するかという点。3点目、AI調達の際のレビューについて、調達や開発の際に、技術レビューとユーザーレビューをどのタイミングでどのように行うべきかという点。4点目、AIシステム監査について、調達や開発した生成AIサービスが運用後に適切に機能し、問題ないかの監査を、いつどのように行うべきかという点について相談をよく受ける。
門林座長: 制度を規定されている側と運用されている側、開発をされている側が集まって会話ができた。火を使っての鉄鋼精製や自動車も、リスクがありながら進めてきている。そういったものをどのように活用していくかが重要である。なお、一部非公表の資料については運用要領に基づき非公開とさせていただく。