この記事の結論
IRSは2026年2月発効のAIガバナンス方針(IRM 10.24.1)で、税務調査の対象選定に使われるAIを「ハイインパクトAI」に明示的に分類し、7つの最低リスク管理要件を課しました。日本の国税庁にはAI利用に関する包括的なガバナンス方針が公表されておらず、情報公開と制度整備の面で米国に遅れています。

(公開:2026年3月30日)

この記事でわかること
  • IRSが2026年2月に発効したAIガバナンス方針(IRM 10.24.1)の全体像
  • 税務調査の対象選定に使われるAIが「ハイインパクトAI」に明示的に分類された意味
  • ハイインパクトAIに求められる7つの最低リスク管理要件
  • IRSにおける生成AIの禁止事項と利用制限
  • 日本の国税庁のAIガバナンスとの比較、および情報公開の必要性

米国内国歳入庁(IRS)は、2026年2月10日、AIの開発・導入・運用に関する包括的なガバナンス方針「IRM 10.24.1 IRS Policy for Artificial Intelligence (AI) Governance」を発効しました。

この文書は、IRSの全職員・契約業者・ベンダーに適用される、AIの利用に関する内部規則です。

本稿では、この方針の中から、日本の税務行政にとって特に示唆的な5つのセクションを中心に紹介し、日本の国税庁のAI活用のあり方を考えます。


IRSのAIガバナンス方針(IRM 10.24.1)とは何ですか?

IRSが2026年2月10日に発効した、AI の設計・開発・取得・利用に関する包括的なガバナンス方針です。複数の大統領令やOMB(行政管理予算局)の覚書に基づき、「信頼性の高いAIの利用を加速させつつ、プライバシー・公民権・市民的自由を保護する」ことを目的としています。

この方針の背景には、以下の大統領令群があります。

大統領令・覚書年月概要
EO 139602020年12月連邦政府におけるAI利用の9原則を規定
EO 141792025年1月AIリーダーシップの障壁を除去
OMB M-25-212025年4月連邦政府AI ガバナンスの詳細指針(本IRMの主要参照資料)
EO 143192025年7月LLMの「イデオロギー的中立性」と「真実追求」を要求
OMB M-26-042025年12月EO 14319の実施指針
EO 14319「Preventing Woke AI in the Federal Government」は、連邦政府が調達するLLMに対して、「真実追求(Truth-seeking)」と「イデオロギー的中立性(Ideological Neutrality)」という2つの原則を求めています。多様性・公平性・包摂性(DEI)などのイデオロギー的構造を出力に意図的に組み込むことが禁止されています。

IRSにおいては、最高データ・アナリティクス責任者(CDAO)がAI責任官(RAIO)を兼任し、AIガバナンスの実施を監督しています。

重要なのは、この方針が抽象的な倫理原則にとどまらず、具体的な制度設計(定義・リスク分類・最低リスク管理要件・禁止事項・記録保持義務・インベントリ管理)を含んでいる点です。AIの利用を「ユースケース」単位で管理し、リスクに応じた段階的規制(risk-based approach)を採用しています。

税務調査AIが「ハイインパクトAI」に分類されたとは、どういうことですか?

IRSの方針は、「納税者が調査対象となるか、あるいは申告書のどの部分が調査対象となるかに影響を与えるAI」を、「推定ハイインパクトAI」のリストに明示的に列挙しています。これは、税務調査の対象選定にAIを使う場合に、最も厳格なリスク管理が求められることを意味します。

「ハイインパクトAI」とは、OMB M-25-21において次のように定義されています。

ハイインパクトAIとは、その出力が、以下の事項に対して法的、実質的、拘束力のある、または重大な影響を及ぼす決定や行動の主要な根拠となるAIをいう。
・個人または団体の公民権、市民的自由、またはプライバシー
・個人の教育、住宅、保険、信用、雇用等へのアクセス
・重要な政府資源またはサービスへのアクセス
・人間の健康と安全
・重要インフラまたは公共の安全
・戦略的資産または資源

「推定ハイインパクト」とされるAIの具体的なリストには、法執行におけるリスク評価、生体認証、犯罪予測、移民審査などと並んで、次の一文が含まれています。

「納税者が税務調査の対象となるか、あるいは申告書のどの部分が調査対象となるかについて、情報を提供し、または影響を与えるAI」(AI that informs or influences whether a taxpayer will be subject to audit, or what aspects of a return will be subject to audit)

つまり、IRSが税務調査の対象選定にAIを使用する場合、そのAIは自動的に「推定ハイインパクト」に分類され、次のQ で紹介する最低リスク管理要件がすべて適用されます。

この分類は、筆者が「税務調査でAIはどう使われているのか?」で指摘した、AIによる調査対象選定が納税者の権利に重大な影響を及ぼすという問題意識を、米国の公式文書が制度的に裏付けたものといえます。

ハイインパクトAIにはどのようなリスク管理が求められますか?

IRSは、ハイインパクトAIに対して7つの最低リスク管理要件を定めています。いずれも省略できず、免除には財務省の最高AI責任者(CAIO)による承認が必要です。

#最低リスク管理要件概要
1導入前テストAIを実運用に投入する前にテストを実施
2AI影響評価目的・データの品質・潜在的影響・コスト分析・独立レビュー等を含む
3継続的モニタリングパフォーマンスと潜在的な悪影響を継続的に監視
4人的トレーニング・評価AIを扱う人間が十分な訓練を受けていることを確保
5人間による監督・介入・説明責任AIの判断に対する人間の監視と介入の仕組みを確保
6救済手段・不服申立AIの判断に対して一貫した救済または不服申立の手段を提供
7エンドユーザー・市民のフィードバック利用者および市民からのフィードバックを聴取・反映
特に注目すべきは、第5項「人間による監督・介入・説明責任」第6項「救済手段・不服申立」です。AIが税務調査の対象を選定する場合、その判断に対して人間が介入でき、かつ納税者が不服を申し立てる手段が確保されなければならないことを意味します。

さらに、AIが適切な水準で機能していない場合の対応についても明確に定められています。

「ハイインパクトAIが適切な水準で機能していない場合、責任ある機関の担当者は、OMB M-25-21および本IRMへの準拠を達成するための措置が講じられるまで、その使用を中止する計画を策定し、実行しなければならない。適切なリスク軽減が不可能な場合、IRSは当該AIの使用を中止しなければならない。」(10.24.1.4.6 非準拠AIの終了)

この「非準拠AIの終了」(Termination of Non-Compliant AI)の規定は、筆者が「国税庁のAIの法的問題」において、「AIや機械学習アルゴリズムの利用に伴う重要な法的問題を解決できないのであれば、利用しないことも選択肢の1つになるはずです」と主張した内容と軌を一にするものです。

IRSは、AIの利用を推進しつつも、「利用しないことも制度的に組み込む」という設計を採用しています。


IRSは生成AIの利用にどのような制限を設けていますか?

IRSは生成AI(GenAI)の利用について、財務省またはIRSが承認した製品・サービスのみの使用を義務付け、詳細な禁止事項を定めています。特に、人間によるレビューを経ずにAIの出力を業務に使用することは明確に禁止されています。

▼ 主な禁止事項

  • 財務省の任務遂行のために承認されていないAIシステムの使用
  • 公的・未承認のAIシステムへの個人識別情報(PII)・連邦納税者情報(FTI)等の入力
  • 人間によるレビューを経ずにAIの出力を業務に使用すること
  • AIが生成したコンテンツの正確性・適切性を確認せずに使用すること
  • 適切な監督なしに納税者の権利に関する拘束力ある決定をAIで行うこと
  • AIの起源を隠蔽すること(AIを使用した場合はその旨を開示する義務)
これらの禁止事項に違反した場合、連邦公務員としての解任を含む懲戒処分の対象となることが明記されています。

▼ 生成AIに関する考慮事項(GenAI Considerations)

IRM 10.24.1.7.4は、IRS職員がLLMとやり取りする際の注意点を4つ挙げています。

①正確性と信頼性:LLMは不正確または誤解を招く情報を生成することがあり、「ハルシネーション」(事実に基づかない、もっともらしい出力)を生じることがある。常にLLMの出力を批判的に評価し、信頼できる情報源で確認すべきである。
②透明性と開示:LLMを使用してコンテンツを生成する際は、AIの関与を開示しなければならない。
③応答のばらつき:同じプロンプトに対して異なる回答が返されることは正常であり、さまざまなプロンプトやパラメータを試すべきである。
④過度な依存の禁止:LLMは自身の批判的思考や判断に取って代わるものではなく、業務を支援・強化するためのツールとして活用すべきである。
IRSの公式文書において「ハルシネーション」という用語が明記されたことは重要です。AIの出力が事実に基づかない場合があることを制度的に認識し、それを前提とした運用ルールを整備しているのです。

IRSはAIの利用状況をどのように管理していますか?

IRSは、すべてのAI利用事例を「AIユースケースインベントリ」に登録・管理することを義務付けています。これは、「どのAIが、どのような目的で、どのようなリスクのもとで使われているか」を組織的に把握するための仕組みです。

インベントリ管理の主なルールは以下のとおりです。

  • 「導入前」以降の段階にあるすべてのAIユースケースは登録が義務
  • 記載内容は「専門知識のない一般の人でも理解できる」水準の明確さが求められる
  • 少なくとも年1回のレビューと検証が必要
  • ハイインパクトAIの判定、免除、および関連する正当化理由は公開報告の対象
AIの記録保持についても具体的な期間が定められています。AIユースケースの文書は「有効期間+3年」、AIプロンプトログは「1年」、AIテストログは「更新されるまで」、AIシステムインシデントログは「有効期間中」です。

さらに、AIモデルとデータについても、各モデル・アルゴリズム・手法・データセットごとにインベントリへの登録が義務付けられています。

このインベントリ管理制度は、「どのAIが使われているか分からない」という状態を制度的に排除するものです。納税者の権利に影響を与えるAIが、少なくとも組織内で可視化され、追跡可能な状態に置かれることが保証されます。

「AI」と「自動化」の境界 ― AURプログラムの位置づけ

IRSには、確定申告書と情報申告書を自動照合して過少申告を検出するAUR(Automated Underreporter Program)という大規模な自動化プログラムがあります(IRM 4.19.3)。AURはルールベースのコンピュータ照合であり、機械学習やAIを用いているとは記載されていません。

IRM 10.24.1は、AIを「推論を行い、データ駆動型の意思決定を行うシステム」と定義しています。単純なルールベースの自動照合はこの定義に該当しない可能性があります。IRSが「AI」と「自動化」を区別している点は、日本の国税庁がAI・機械学習の利用範囲を整理する際にも参考になります。

出典:IRS, Internal Revenue Manual 4.19.3, IMF Automated Underreporter Program (Oct. 10, 2025)
https://www.irs.gov/irm/part4/irm_04-019-003r

日本の国税庁のAIガバナンスは、IRSと比べてどのような状況ですか?

日本の国税庁には、IRSのIRM 10.24.1に相当するような、AIガバナンスに関する包括的な公開文書は存在しません。国税庁は「データ活用推進第三次中期計画」(令和6年6月)や「税務行政のデジタル・トランスフォーメーション」(2023年)においてAI活用の方針を示していますが、AIの定義・リスク分類・禁止事項・記録保持義務といった具体的なガバナンスルールは公開されていません。

IRS(米国)国税庁(日本)
AIガバナンス文書IRM 10.24.1(公開・全文閲覧可能)相当する公開文書なし
AIの定義法律に基づく明確な定義あり公開文書上の定義なし
リスク分類「ハイインパクトAI」を明示的に定義公開文書上の分類なし
税務調査AIの位置づけ「推定ハイインパクト」に明示的に列挙SAT(調査選定補助ツール)の利用は公知だが、ガバナンスルールは非公開
生成AIの利用制限詳細な禁止事項を明記公開文書上の制限なし
インベントリ管理全ユースケースの登録・年次レビュー義務公開文書上の制度なし
納税者の権利独立セクション(10.24.1.9)で「AIは納税者の権利を侵害してはならない」と明記公開文書上の明示なし
日本の国税庁は「データ活用推進第三次中期計画」において、「AI・機械学習等の活用に当たっては、『人間中心のAI社会原則』に規定する公平性、説明責任及び透明性の確保をはじめ、AIの利用に関する包括的な枠組みやその動向にも留意する」としていますが、その具体的なルールは公開されていません。

IRSの方針との最大の違いは、情報公開の程度です。

IRSは、AIガバナンスの方針を全文公開し、ハイインパクトAIの判定や免除の正当化理由も公開報告の対象としています。

一方、日本の国税庁は、AIを活用していることは公表しているものの、そのガバナンスルールは公開されていません。

日本の国税庁が今後AIの活用を加速させるのであれば、まず関連する情報を積極的に公開すべきです。具体的には、①AIの定義と適用範囲、②リスク分類の基準、③ハイインパクトAIに対するリスク管理要件、④生成AIの利用制限、⑤納税者の権利との関係を、IRM 10.24.1と同等の具体性をもって公開することが求められます。

生成AIの利用について、日本の国税庁がどのような方針を採るかも注目されます。

IRSは、財務省またはIRSが承認した生成AI製品・サービスのみの利用を認めています。日本の国税庁がこれに倣う場合、生成AIを全面禁止するか、あるいは特定の大企業(Microsoft等)が提供する承認済みの生成AIのみに利用を限定するといった方針が考えられます。

また、筆者が「国税庁のAIの法的問題」において指摘してきたとおり、AIの利用に伴う重要な法的問題を解決できないのであれば、利用しないことも選択肢の1つです。

IRSの「非準拠AIの終了」(Termination of Non-Compliant AI)の規定は、まさにこの考え方を制度化したものです。

AIが適切に機能していない場合は使用を中止する。この当然の原則が、IRSでは公式のルールとして明文化されています。

日本の国税庁にとっての課題は、AIを「使うか使わないか」ではなく、「どのようなルールのもとで使い、どのような場合に使用を中止するかを、国民に対して明らかにすること」です。IRM 10.24.1は、そのための具体的なモデルを提供しています。

出典

(注)IRM 10.24.1の日本語訳は筆者による仮訳です。正確な内容については原文をご参照ください。

【国際比較】OECDレポートが映し出す「AIガバナンスの空白」

IRSがAIガバナンスの制度化に動いているのに対して、国際的な状況はどうでしょうか?

OECDが2025年11月に公表した『Tax Administration 2025』(58か国のISORa調査)では、各国税務当局のAI活用事例が約25%を占めるほど豊富に紹介されています。

しかし、このレポートを読んで気づくのは、AIのガバナンス(統治)・透明性・説明責任に関する体系的な分析がほとんど存在しないという点です。

OECDレポートに見る「ガバナンスの空白」
58か国の税務当局の69%がAIを導入し、74.4%が不正検出にAIを使用しています。
にもかかわらず、AIの判断に対する適正手続の確保、バイアスの検証、納税者への説明責任といった法的課題は、レポートの主題としては扱われていません。

唯一注目すべき例外が、スペインの税務当局(AEAT)です。

AEATは、AIプロジェクトのライフサイクル全体をカバーする独自の方法論を策定しています。
データソース、バイアス、定期的な再学習など、ソフトウェア開発とは異なるAI固有の論点を各フェーズで検証する仕組みです。

IT部門だけでなく、業務部門・セキュリティ部門・法務部門がすべてのAIプロジェクトに関与します。
倫理的・法的・品質基準に適合しないプロジェクトは、先に進むことができません。

スペインAEATのAI方法論のポイント
・ ソフトウェア開発ではなくAI固有の論点(データソース、バイアス、再学習)を各段階で検証
・ IT・業務・セキュリティ・法務の全部門が参加
・ 倫理的・法的・品質基準を満たさなければプロジェクトは中止
・ 定期的にレビューし、新たな技術的・法的状況に適応させる

本記事で紹介したIRSの「ハイインパクトAI」分類は、米国における制度的対応です。
スペインAEATの方法論は、欧州における別のアプローチと言えます。

一方、多くの国の税務当局は、AIの導入は進めつつも、そのガバナンス枠組みについてはまだ公表していないのが現状です。

まとめ:「AIを使う」から「AIをどう統治するか」へ
OECDレポートは、世界の税務当局がAIを急速に導入している実態を明らかにしました。
しかし同時に、AIガバナンスの議論がまだ多くの国で追いついていないことも浮き彫りにしています。
IRSの「ハイインパクトAI」分類やスペインAEATの方法論は、こうした空白を埋めようとする先駆的な取り組みです。
日本のNTAが「調査選定AI」のガバナンスをどう設計するかは、今後注目すべき論点です。

出典:OECD (2025), Tax Administration 2025: Comparative Information on OECD and Other Advanced and Emerging Economies, OECD Publishing, Paris.
https://doi.org/10.1787/cc015ce8-en

▶ 関連記事:税務調査でAIはどう使われているのか?

▶ 関連記事:国税庁のAIの法的問題

▶ 関連記事:税務AIに必要なのは「正しく答える力」ではなく「間違って進めない構造」である