第2回先進的AI利活用アドバイザリーボード
- 最終更新日:
概要
- 日時:令和8年(2026年)1月13日(火)12時00分から14時00分まで
- 場所:庁議室・オンライン
- 議事次第:
- 開会
- 議事
- 各府省庁生成AIシステム定期報告概要
- ガバメントAIの取組について
- 先進的AI利活用アドバイザリーボード第1回ワーキング・グループ実施報告
- 我が国及び諸外国における生成AIに係る動向
- 行政の進化と革新のための生成AIの調達・利活用に係るガイドライン充実に向けた改定方針案
- 閉会
資料
- 議事次第(PDF/53KB)
- 資料1 各府省庁生成AIシステム定期報告概要(PDF/1,115KB)
- 資料2 ガバメントAIの取組について(PDF/7,001KB)
- 資料3 先進的AI利活用アドバイザリーボード第1回ワーキング・グループ実施報告(PDF/1,249KB)
- 資料4 我が国及び諸外国における生成AIに係る動向(PDF/3,557KB)
- 資料5 行政の進化と革新のための生成AIの調達・利活用に係るガイドライン充実に向けた改定方針案(PDF/2,182KB)
- 議事要旨(PDF/689KB)
議事要旨
冒頭、川崎デジタル大臣政務官から、政府が実現を目指す「信頼できるAI」の在り方、ガバメントAIをはじめとするAI利活用に係るデジタル庁の取組、第2回アドバイザリーボードにおける主な議題についてご発言があった。続いて、三角デジタル監から、政府内におけるAI利活用の一層の推進に期待する旨のご発言があった。
1. 各府省庁生成AIシステム定期報告概要
事務局より、各府省庁による生成AIの利活用状況の分析結果について資料1により報告した。
出席者の主な質疑及び意見等は、以下のとおり。
生田目構成員: 政府内における生成AIの導入が拡大する中、政府としての目指すべき姿として、この取組を共通アセットとし、全府省庁への横断的展開を促進することが重要である。活用促進のキーワードとしては、どう標準化していくか。例えば、ある省庁では実装されている取組であっても、他省庁では導入されていないケースなどがあるかもしれない。導入加速支援を通じて各府省庁の取組を底上げし、政府全体としての率先性を高める必要がある。そのため、クォーターバック機能のような統括的役割を担う仕組みが必要である。
岡田構成員: 「成果目標の例」について、現場ニーズや目指す方向性を把握する上で有益な情報である。あわせて、成果目標を達成したベストプラクティスを源内上で共有する仕組みも有効ではないかと考える。事務局の考えを伺いたい。
事務局: 成果目標は第2回定期報告から対象としている。事例共有については、アドバイザリーボードの役割の一つであり、今後の定期報告により実績も蓄積されていくため、引き続きアドバイザリーボードにて共有させていただく。源内を通じたベストプラクティス共有の重要性はご指摘のとおりであり、資料2のP.9に記載のとおり、既に一部実施している。今後は参考資料として、各府省庁への事例共有も進めていく予定である。
2. ガバメントAIの取組について
事務局から、ガバメントAIの取組と生成AI利用環境(源内)の概要について資料2により報告した。
出席者の主な質疑及び意見等は、以下のとおり。
吉永構成員: 資料2のP.11の「源内利用状況:ユースケース別の利用人数(アプリ別)」を示すグラフにおいて「チャット」という項目があるが、「チャット」を文字通りに捉えてしまうとおしゃべりという意味になる。生成AIのチャット機能は、単なる情報検索からアイディア創出、政策検討まで多岐にわたる。今後はどのような「チャット」か、ブレイクダウンするとより傾向が見えてくるのではないか。
事務局: P.9に記載のあるとおり、「チャット」は「対話型AI」と定義しているが、具体的なユースケースまでは把握できていない。プロンプトを確認すれば判断可能だが、現時点ではそのニーズがないため確認していない。
鳥澤構成員: プロンプトを人間が見て使い方を調べるのは大変だが、LLMに対して当該プロンプトの使い方をLLMに訊くことで用途を自動的に把握することもできるのではないか。
事務局: 他省庁としては情報の流出も懸念している状況であり、デジタル庁として可能な範囲で検討させていただく。
生田目構成員: 資料1にも共通するが、データの制約がAI利活用の制約につながるケースもある。現段階においてどのような制約があるのか広く共有することで、データ保持の在り方やデータ整備の価値等についての理解も進むと考えている。
事務局: ご指摘のとおりであり、利活用におけるバリアがどこにあるのかを把握していきたい。検証を進めたものの常用段階に至らなかった事例などから、生成AIの利活用に向けた課題が明らかになる可能性もあるため、ヒアリングを行いながら、各府省庁への情報の横展開を進めたい。
門林座長: 生成AIの導入に係るボトルネックの分析は各府省庁で実施し、デジタル庁がヒアリングを行う形となるか。
事務局: 政府の保有するデータの活用に関しては、源内の推進にあたり、白書データ等のオープンデータを整備し、AIに簡易な質問を入力することで分析が可能となる環境を構築したいと考えている。各省庁や各課室が保有するドメイン知識は、隣接部署間でも共有されていない場合が多い。権限管理に注意しつつ、これらのデータをAIエージェント等により活用可能とする方法について検討を進める必要がある。府省庁内では一定程度オープンにできるデータも存在すると考えられるため、工夫を重ねていきたい。
湯淺構成員: データの問題はご説明いただいたが、「源内」に関して国民から情報公開請求をされた場合の対応方針について、デジタル庁が定めるのか、各省庁で定めるのか。現時点での検討状況を伺いたい。
事務局: 基本的には、情報開示請求の対象データを保持する各部局において対応していく想定である。
湯淺構成員: 情報開示請求に対しては、府省庁間で統一的な運用ができることが望ましい。デジタル庁としても尽力いただきたい。
永沼構成員: 資料2のP.10について、現在公開されている源内利用状況のダッシュボードについて、今後、他府省庁へ展開していく際には、どのような形でAIが活用されているのかを把握できるモニタリングの仕組みがあると望ましい。大規模な実証とあわせて、効果検証の仕組みを導入することが重要であると考える。
岡田構成員: 資料2のP.9において、「汎用的なアプリ」及び「行政実務用のAIアプリ」とあるが、府省庁共通での技術的・倫理的研修に加え、各府省庁においても倫理的観点の研修を実施する必要があるのではないか。安心・安全にAIを活用するためには、人材育成が不可欠であると考えるが、事務局の考えを伺いたい。
事務局: 各府省庁においてCAIOを設置し、ガバナンス強化を進めることとしている。ガイドラインについては、研修用の素材をデジタル庁から各府省庁に提供している。府省庁共通の研修については、基礎的な研修に加え、源内に関する研修も実施予定である。源内の利用状況に関しては、令和7年8月時点において、デジタル庁職員の約半数が一度もプロンプトを入力したことがない状況であった。その状況を踏まえ、初級者向け研修を充実させてまずは利活用の推進を図るとともに、その後中級者・上級者向けには段階的な研修を用意することが重要であると考えている。
岡田構成員: 資料2のP.16の「3.生成AI用の政府共通データ整備」は非常に重要な取組。一方、我が国では日本語でデータを蓄積してきた背景があり、データのAIでの活用を考えた際、既存の生成AIの翻訳機能を用いて単純に英語化した場合、当時の微妙なニュアンスを適切に表現できないおそれがある。特に公文書の翻訳に関し、特段の配慮を行っている点があれば伺いたい。
事務局: ご指摘のとおり。出力結果の利用に当たっては、最終的には生成AIを利用する職員の責任となるが、公文書を作成した時代背景や価値観等も考慮し、内容を十分に確認する必要がある旨について、源内の活用に当たって注意喚起を行っていきたい。
門林座長: 本件は研究開発とも関係する論点である。他国の動向も踏まえ、独立行政法人情報処理推進機構(IPA)やAIセーフティ・インスティテュート(AISI)においても議論されることが望ましい。
柴山構成員: 源内の利用者拡大に伴い発生するインシデントやヒヤリハット事象について、デジタル庁やアドバイザリーボードで集約し、注意喚起として共有できるとよい。利用者が増加すれば、リスク研修やリテラシー向上の取組が今後一層重要になる。現状では利用者拡大自体が課題であるが、拡大後を見据えた対策も必要である。
事務局: アドバイザリーボードの役割の一つとして、リスクケース情報の把握と再発防止のための助言が挙げられているため、リスクケースが発生した場合はアドバイザリーボードでの共有や再発防止策の検討を進めていく。研修についても留意しながら検討してまいりたい。
3. 第1回ワーキング・グループ実施報告
事務局より、第1回ワーキング・グループの実施概要について資料3により報告した。
出席者の主な質疑及び意見等は、以下のとおり。
吉永構成員: 「論点1 国民一般に広く生成AIチャットボットを利用してもらうにあたってのリスク管理、リスク低減の観点」に記載されている「ハルシネーションリスクに関する意見」について、有人対応に誘導するようなプロトコルは非常に重要であると考える。令和7年末に『AIエージェント博』という外部イベントに参加したが、AIによる誤回答は人間側のコミュニケーション不足に起因するものもあるため、言葉が足りない人間のコミュニケーションの補助をするようなAIエージェント製品が登場している。例えば、「確定申告」など一言のみで人間が入力するプロンプトに対し、さらにニーズを聞いたりしながら文脈を補完して回答するAIエージェントも登場している。今後、技術の発展により有人対応の必要性が減少する可能性はあるものの、技術が一定水準に達するまでは、有人対応へ誘導するプロトコルが必要である。
鳥澤構成員: コミュニケーションとハルシネーションの問題については全面的に同意する。ハルシネーションを分類すると、誤った情報を提示するケースと、関連情報が存在するにもかかわらず言及されないいわゆる「見落とし」のケースの2つがある。個人的に、過去の確定申告において不動産売却にかかる内容を申告する必要があった際、特例が多く理解しきれず、結果的に税理士に依頼した経験がある。税務分野は特例が多いため、AIがこれらを「見落と」すリスクへの配慮が必要である。また、生成AIとのやり取りの後に職員が有人対応するケースでは、AIとのやりとりを介さない場合に比べて、職員側の対応内容も変化すると考えられ、利用者が見落としやすい論点等の情報を、対応する職員側に事前に共有する仕組みが重要である。
事務局: ワーキング・グループ実施報告に関するご意見は、国税庁に共有する。
永沼構成員: 「論点1 国民一般に広く生成AIチャットボットを利用してもらうにあたってのリスク管理、リスク低減の観点」にて、今後の方向性として示されている、定期的に法令が改正される分野については、特にリスクが高い観点であると考えるため、引き続きアドバイザリーボードでも情報の共有を行っていただきたい。
事務局: 国税庁の案件は、令和10年の導入を見込む長期的なプロジェクトである。今後、進捗に応じてワーキング・グループに相談があれば、適宜アドバイザリーボードにおいても情報共有を図る。
4. 我が国及び諸外国における生成AIに係る動向
事務局より、我が国及び諸外国における生成AIに係る動向について資料4により報告した。
出席者の主な質疑及び意見等は、以下のとおり。
北村構成員: 民間でのユースケースや技術動向が紹介されたが、日本としては、戦略的に弱いタスクは強化し、強いタスクは更に伸ばすとともに、巻き返しのための新たなタスク創出と、それに対応したユースケース・動向の把握が不可欠である。そのため、調査の粒度や対象についても、今後、戦略的に検討していく必要がある。
北村構成員: 現時点における人工知能に関する各府省庁等のガイドライン等一覧が紹介されたが、日本のプレゼンス向上の観点から、タイムリーに英訳すべきものも存在する。過去の経験として、米国NISTのAIリスクマネジメントフレームワークの和訳を、米国関係機関とも連携して実施したが、翻訳作業には多くの困難が伴った。将来的には、ガバメントAIの取組の一環として、生成AI利用環境(源内)におけるRAGの一つとして翻訳RAGが整備される可能性も考えられるが、現時点においては、人工知能に関する各府省庁等のガイドライン等を対象とした翻訳辞書の整備についても、関係機関と連携しつつ検討する余地があるのではないか。
事務局: ガイドライン等の公開文書の英訳に際しては、政府内で用語の齟齬が生じないよう、「AI事業者ガイドライン」などの用語を踏襲することを検討してまいりたい。
生田目構成員: ガバナンスは政府横断で取り組むことが重要である。諸外国における政府のAI調達・利用ルールの比較について、各府省庁単独の取組と横断的な取組の双方を整理し、各国の動向を注視しながら我が国の施策を検討することが有効である。共同で課題解決に取り組む姿勢は、今後のデジタル庁と各府省庁との関係性のなめらかさを示す重要なメッセージとなる。
5. 行政の進化と革新のための生成AIの調達・利活用に係るガイドライン充実に向けた改定方針案
事務局より、ガイドライン充実に向けた改訂方針案について資料5により報告した。
出席者の主な質疑及び意見等は、以下のとおり。
門林座長: 永沼構成員より、経団連のアンケート結果についてご報告いただく。
永沼構成員: ガイドライン改訂にあたり、第1回アドバイザリーボードで示された各論点について、令和7年12月に経団連関係企業へのヒアリングを実施した。ガイドラインの対象AIの拡大について反対意見はなく、技術進展の速い分野においてスコープを固定したままでは、民間と政府の間にかい離が生じる懸念があるため、拡大は必要との意見が多かった。また、ベストプラクティスが未確立であっても、その時点で最善と考えられる内容を反映し、アジャイルに更新していくことの重要性が指摘された。共通原則を先行適用し、高リスク用途から段階的に対象を拡大する考え方についても賛同が得られた。高リスク判定基準については、4つの軸は分かりやすいとの評価が大勢であった一方、「過失が重大な影響を及ぼす可能性のある業務」について、具体的事例の提示を求める意見があった。「調達チェックシート」及び「契約チェックシート」については、最新の技術動向やユースケースの進展を踏まえた見直しと充実が求められた。特に、学習データに関する情報提供については、機密性の観点から詳細な開示が困難な場合もあるため、柔軟な記載方法を求める声があった。また、政府・事業者双方の負担軽減の観点から、ISO/IEC 42001やISO/IEC 27001等の外部認証との対応関係を整理し、一定の認証を取得している場合にはチェックの簡素化や免除を求める意見があった。広島AIプロセス報告枠組み等の国際文書との参照関係を明確化することは、相互運用性確保の観点から重要であるとの指摘もあった。加えて、事故情報の報告に限らず、自主的な透明性確保やリスク低減の取組など、いわゆるホワイトな取組を評価する仕組みの重要性が指摘された。さらに、政府内で複数のガイドラインが公開されている現状について、文書の性質や粒度が異なるため横断的な参照が困難であり、優先順位が分かりにくく、現場実装が進みにくいとの声があった。クロスリファレンスの明確化や、将来的な集約の検討を求める意見が示された。
北村構成員: 「国民向け生成AIシステム利用規約作成時の留意事項案」について、ブラックボックス性の高い生成AIシステムに関し、国民側に過度な責任が帰されることのないよう、バランスに配慮した整理が必要であると考える。
事務局: 「国民向け生成AIシステム利用規約作成時の留意事項案」については、各構成員にもレビューいただいているが、国民向けに過度な内容とならないよう、作成に向けて引き続き留意してまいりたい。
柴山構成員: 契約チェックシートの改訂に関し、基本的に準委任契約であることを明示した点は、民間の動向も踏まえ重要なメッセージであると考える。
事務局: 日本ディープラーニング協会(JDLA)のガイドラインも踏まえつつ具体化を進め、次回アドバイザリーボードにて改定案を示したい。
柴山構成員: 「知的財産権等対策参考シート」については、現在作成中との認識であるが、非常に重要な取組である一方、著作権等に関するリスクを完全にゼロとすることは困難である。生成AIの出力物について、必ず著作権侵害がないかを確認することは現実的ではないため、侵害有無の確認に重きを置くよりも、リスクの低い領域での活用を推進する方が、利活用効果は高いのではないかと考える。
事務局: 補足として、「知的財産権等対策参考シート」は、既存ガイドライン及び「調達チェックシート」との関係性を明確化するための参考資料という位置付けである。重要な内容については、「生成AIシステム利活用ルールひな形」や「調達チェックシート」に反映する。次回アドバイザリーボードにおいて、構成員に内容を提示したい。
門林座長: 海外では知的財産権等に関する多額の訴訟事例も発生しているため、国際動向も注視しつつ対応いただきたい。
吉永構成員: 知的財産と「調達チェックシート」の関係で、現在内閣府で検討中の「生成AIの適切な利活用等に向けた知的財産の保護及び透明性に関するプリンシプル・コード(仮称)(案)」に関して意見を述べる。そもそもAI推進法の趣旨は、企業に対しリスク情報の提供を求めることだったと認識しているが、プリンシプル・コードでは、使用モデルや学習データの情報等の開示を求める内容となっている。「強制的な開示を求めるものではない」としながらも、英語表現における「コンプライ(comply)」という単語は非常にニュアンスが強い。民間企業に対して使用モデルや学習データの開示を求めることは、過度な負担となり、AI基本計画で言及のあった「反転攻勢」の足かせとなる。そもそもAIモデルを作るための情報の集め方も企業にとってはノウハウに該当し、企業機密にも該当する可能性があるため、かなり慎重に検討を進める必要がある。仮に調達ガイドラインの要件として盛り込まれた場合、実施できる調達先が限定され、スタートアップ等の参入を阻害する懸念もあり、競争法の観点からも好ましくない。また、政府側においても、源内が情報開示の対象となる可能性があり、情報セキュリティ上のリスクが生じ得る。他国からの攻撃対象となり、脆弱性を高めるおそれがある点にも留意が必要である。
事務局: プリンシプル・コードについては、現在パブリックコメントを実施している段階であり、知財事務局におけるパブリックコメントの結果も踏まえつつ、対応を検討してまいりたい。
門林座長: AI-BOM(AI Bill of Materials)の部分に関しては、ネガティブな意見もいただいている。特に学習データに関する情報開示については、慎重な検討が必要である。標準化分野では、Normative ReferenceとInformative Referenceの区別があるが、プリンシプル・コードを参照するか否か、参照する場合にNormativeとするのか参考情報とするのかについては、十分な検討が必要である。2月から3月にかけて工夫できればと考えている。
事務局: ご指摘のとおり。本ガイドラインはNormativeな文書であるが、記載内容にはInformativeな要素も含まれる。内容に応じて取捨選択を行うことも含め、検討を進めてまいりたい。
門林座長: 国際文書ではAnnexとAppendixの区別があるが、日本語では意味が曖昧になりやすい。文書冒頭において、Normativeか参考資料かを明示することが望ましい。
北村構成員: 国際的なAI-BOMを巡る議論について、SBOMを起点としつつ、AIシステムへの拡張、いわゆるAI-BOMについても議論が行われている。こうした国際的な動向も加味した上で、国内での議論を進める必要がある。また、プリンシプル・コードに関連して、「コンプライアンス」という用語の使用に当たっては、慎重な配慮が必要である。例えば民間事業者においては、「コンプライアンス・マトリックス」が、入札における必須条件に近い強い意味合いを持つ用語として用いられる場合があり、政策文書等での使用には留意が求められる。
岡田構成員: リスク判定ロジックについては、新たなロジックにおおむね賛成である。一方、国民目線で見ると、従来の判定軸であった「C. 要機密情報や個人情報の学習等の有無」が削除されることについて、国の動向を十分に理解していない国民が当該部分のみを見た場合、不安を助長する可能性がある。完全にロジックから除外するのではなく、注釈に加えて記載を追加することが望ましいのではと考える。
事務局: ご指摘のとおりである。「C. 要機密情報や個人情報の学習等の有無」判定ロジックからは除外するものの、生成AI固有の留意点やアクセス制御機能の管理については、「政府機関等のサイバーセキュリティ対策のための統一基準」に記載があることを、ガイドラインに記載を追加することなどで読者に関係性がより伝わりやすくする方針としてまいりたい。
門林座長: いただいたご意見を事務局にて咀嚼したい。これにて意見交換を終了する。