税務調査におけるAI活用の現状と課題について、研究論文、一般公開資料及び情報公開請求資料に基づき、税理士・東洋大学法学部教授の泉絢也が解説します。

結論

  • 国税庁はAIを活用し、申告漏れリスクの高い案件を自動でスコアリングしています。
  • 情報公開請求により、所得課税部門では「SAT」、法人課税部門では「結(ゆい)」、資産課税部門(相続税等)では「RIN(リン)」というシステムが運用されていることが判明しました。
  • 最終的な調査の判断は人間の調査官が行いますが、AIが高リスクと判定した案件は非常に選定されやすい傾向にあります。
  • 令和6事務年度の所得税・消費税等の追徴税額は1,431億円と過去最高を記録し、国税庁はAI活用の成果を強調しています。
  • 一方で、選定理由のブラックボックス化や過去のデータのバイアス(偏り)の再生産納税者の権利保護との緊張関係が大きな課題となっています。
  • 海外では、オーストラリアのロボデット問題やオランダの育児手当スキャンダルなど、行政アルゴリズムが深刻な人権侵害を引き起こした事例があります。

本記事は、研究論文、一般公開資料、情報公開請求により入手した国税庁・東京国税局の内部資料等に基づき、税理士・東洋大学法学部教授の泉絢也が解説しています。

この記事でわかること

  • ✔ 国税庁が税務調査の対象者を「選定」する際にAIをどう使っている
  • ✔ 所得税、法人税、相続税の各部門で使われているAIシステムの名称と役割
  • ✔ AI導入によって追徴税額が過去最高になった背景と、数字の裏にある実態
  • ✔ 「AIが選んだ」という理由だけで調査に来ることの問題点と法的リスク
  • ✔ 過去の不適切な調査データがAIに学習されることで生じる「差別の再生産」
  • ✔ AI時代に税理士が果たすべき「人間による最後の防壁」としての役割
  • ✔ AI選定のリスクを下げ、納税者が備えるべきポイント

税務調査でAIは何に使われているのか

現在、税務行政におけるAI活用は「誰を調査するか」という選定段階で中核的な役割を担っています。調査官が現場でAIロボットを引き連れて尋問するわけではありませんが、その「入口」の精度がAIによって劇的に高められているのです。

具体的には、国税庁が長年蓄積してきた膨大な申告書情報や過去の調査データ、さらには外部から収集した資料などをAIに学習させ、「申告漏れの可能性が高い納税者」を自動的にスコアリングしています。以前は調査官の経験や勘に頼っていた部分が、科学的な予測モデルに置き換わりつつあります。

また、AIの活用は調査選定にとどまりません。滞納整理の場面では、過去の接触履歴を分析して「どの時間帯に電話すればつながりやすいか」を予測する「AIコールリスト」が運用されています。さらに、実地調査の前の準備段階で「どの項目を重点的に調べるべきか」を絞り込んだり、実地調査中に不正な取引を検出したりする場面でもデータ分析技術の活用が始まっています。

今後は、個々の納税者の状況に応じて「売上、経費、海外取引のどこに着目し、どのような手法で確認すれば効率的に不正を把握できるか」を、具体的かつ高精度に指示するAIの開発が進む可能性があります。

AI調査選定システムの全体像 ― SAT・結・RIN

情報公開請求によって入手した内部資料から、国税庁の各部門で具体的にどのようなAIシステムが動いているのかが見えてきました。

RIN(資産課税部門・相続税)

「RIN(相続税選定支援ツール)」は、相続税の調査対象を選定するためのAIツールです。一定の要素から「リスクスコア」を算出し、調査の優先度を自動で判定する仕組みとされていますが、具体的にどの要素をどう重み付けしているかというアルゴリズムの詳細は非公開(ブラックボックス)です。相続財産の申告内容、財産の評価、過去の調査履歴、さらには外部情報との突合などが要素として考えられますが、正確なところは明らかにされていません。RINが高リスクと判定した案件は、非常に調査対象になりやすいのが実情です。

結(法人課税部門)

法人課税部門では、AI技術を活用した選定支援システム「結(ゆい)」が利用されています。主に、実地調査に至る前段階の「簡易な接触(書面や電話による確認)」の対象を選定する際に活用されており、法人の申告データの整合性をAIが解析しています。詳細はRIN同様に非公開です。

SAT(所得課税部門)

個人の所得税等を扱う部門では、調査選定支援ツール「SAT」が導入されています。各種申告データや外部情報をAIで分析し、申告漏れの可能性が高い納税者をリストアップします。令和6事務年度からは非公開ではあるが新機能も実装され、さらに高度化が進んでいます。

共通する特徴

これらのシステムに共通するのは、仕組みがブラックボックスである点です。従来の人間の経験則との質的な違いは、①納税者のコンプライアンス違反のリスクスコアを予測するモデル(計算式)が膨大な過去データから自動生成されること、②予測精度が高いこと、そして③「人間の発想では着目しにくい要素」(例:一見無関係なデータの相関)をAIが自動で見つけ出し、選定基準に組み込んでいる可能性があることです。

数字で見る成果 ― 追徴税額は過去最高

AI活用の進展は、具体的な数字となって現れています。令和6事務年度(令和5年7月〜令和6年6月)の所得税・消費税等の調査実績によると、「調査等」全体の追徴税額は1,431億円と過去最高を記録しました。

項目数値備考
追徴税額1,431億円過去最高
申告漏れ所得金額9,317億円前事務年度に次ぐ規模
申告漏れ非違件数368,727件
実地調査件数約46,000件平成30年度の約73,000件から減少
簡易な接触件数約68,000件平成30年度の約53,000件から増加

国税庁はこれらの結果について、「調査選定にAIを活用するなど、効率的かつ的確に調査等を行った結果」と強調しています。確かに、実地調査の件数が減っているにもかかわらず追徴税額が増えていることは、AIによる「当たり」の精度が高まっていることを示唆しています。

しかし、私はこの説明をそのまま受け取ることには慎重であるべきだと考えます。AIに多額の予算が投じられている以上、AI選定の利用割合が高まるのは当然の帰結であり、「AIを使ったから成果が出た」という広報的な説明を鵜呑みにせず、その運用プロセスに不透明な点や副作用がないかを厳しく検証する必要があります。

専門家の視点:AI調査選定の問題点と課題

AIによる効率化が進む一方で、私は一人の専門家として、現在のAI調査選定には見過ごせない深刻な課題があると考えています。以下に5つの視点から問題提起をします。

(1)過去データの誤りや偏りの問題

AIは過去の税務調査データから学習しますが、その「教師データ」自体が常に正しいとは限りません。税務の現場では、不当に重いペナルティである重加算税の実績が調査官の評価指標として重視される風土があり、「調査官は三度の飯よりも重加算税が好き」と揶揄されることもあります。もし、本来課されるべきでない重加算税が課された不正確なデータでAIが学習していれば、そのAIは構造的に危ういものとなります。

(2)人間のバイアスをAIが再生産する危険

税務調査の現場では、「特定の国籍は不正の可能性が高い」「特定の地域に行けば追徴税額が出やすい」といった先入観が共有されてきた可能性があります。AIがこれらの過去データを学習すれば、人間の差別的な偏見がアルゴリズムに組み込まれ、特定の属性を持つ納税者が繰り返しターゲットにされる恐れがあります。

(3)自動化バイアスとブラックリスト化のリスク

人間には「AIの判断は正しい」と過度に信頼してしまう「自動化バイアス」が存在します。形式上は人間が確認していても、実質的にはAIのスコアが絶対視され、特定の属性の納税者が半ば自動的に「ブラックリスト(ウォッチリスト)」に入れられ、監視が固定化されるリスクは否定できません。

(4)選定理由が説明できない「ブラックボックス問題」

「なぜ私が選ばれたのか」と問われた際、調査官が「具体的な理由は不明だが、AIが高リスクと判断したため」としか答えられない場合、納税者は納得できるでしょうか。国税通則法では調査は「必要があるとき」に行うとされています。AIの判断プロセスが不透明なままでは、もし誤ったデータが使われていても、納税者はそれを訂正する機会すら奪われてしまいます。

(5)AIの仕様・性能が検証されていない問題

米国のIRS(国税庁)では、問題のない納税者を誤って高リスクと判定する「偽陽性率」などを含めて調査選定支援システムの性能を継続的に検証しています。しかし、日本の国税庁ではAIの精度や納税者への影響について、どのような検証が行われているのかが全く明らかにされていません。検証内容が不明であること自体が、AI税務調査の正当性を問う上で極めて重大な問題です。

海外の事例 ― 行政のアルゴリズムが引き起こした深刻な問題

海外では、行政によるアルゴリズムや自動プロファイリングの不適切な運用が、取り返しのつかない人権侵害や政治的混乱を招いた事例が複数報告されています。これらは、日本の税務行政におけるAI活用を考える上でも、決して見過ごすことのできない教訓を含んでいます。

米国の再犯予測AI「COMPAS」の人種バイアス問題

全米の刑事司法の場で普及した再犯リスク評価システム「COMPAS」について、非営利報道機関プロパブリカ(ProPublica)が調査したところ、深刻な人種バイアスが判明しました。再犯のリスクがないにもかかわらずAIによって誤って「高リスク」と判定される確率は、黒人の被告人が白人の約2倍(45%対23%)に達していました。この格差は、犯罪歴や年齢などの要因を分離して統計的検定を実施しても依然として存在し、システム自体に深刻な格差があることが浮き彫りとなりました。

オーストラリアのロボデット問題(Robodebt)

豪州政府が2015年末頃から、税務当局の所得データと社会保障記録を自動照合し、給付の過払いを算出・回収するシステム(通称 Robodebt)を導入しました。年間所得データを一定期間に機械的に平均化して推計する手法に依拠したことが問題となり、この手法に基づいて約40〜50万人とされる受給者に不当な債務通知が送付されました。多くの受給者が深刻な精神的・経済的打撃を受け、制度との関連が指摘される自殺事例も報告されました。2019年に連邦裁判所が所得の「平均化」のみに基づく債務算定を違法と判断したこと等を受けて、政府は2020年までにスキームを事実上廃止しました。2023年の王立委員会報告書は、同スキームを「粗野で残酷な仕組みであり、公正でも合法でもなかった(”a crude and cruel mechanism, neither fair nor legal”)」と結論づけています。政府は不当債務の返還や利息の支払い等を含む集団訴訟で和解し、その規模は約18億豪ドルに達しました。

オランダのSyRI判決

オランダ政府は、社会保障給付や税務等の不正を検出するための自動リスク評価システム(SyRI)を導入しました。しかし2020年、ハーグ地方裁判所はSyRIの法的枠組みが欧州人権条約第8条(プライバシー権)に反すると判断し、違法とする判決を下しました。判決では、SyRIがリスクモデルや指標を秘匿したまま運用されており透明性が欠如している点や、低所得者や移民が多い地域を中心に運用されていたことから、特定地域・集団に負担が集中し、差別的なバイアスやスティグマ(負のレッテル)を助長するリスクが厳しく指摘されました。

オランダの育児手当不正受給問題(Toeslagenaffaire)

オランダ税・関税局は、育児手当(childcare benefits)の不正請求を検出するリスク分析システムの運用において、申請者の国籍(オランダ国籍/非オランダ国籍)や二重国籍情報を重要なリスク指標として利用していました。その結果、約2万6千人規模の保護者が誤って「不正請求者」とみなされ、支給済み手当の全額返還や罰金等を求められるなど、過度に厳しい措置を受けました。被害を受けたのは低所得層や移民・二重国籍を有する世帯が多く、生活破綻や破産に至った例も多数報告されました。オランダのデータ保護監督機関は、国籍データの違法な処理などを理由として税・関税局に275万ユーロの制裁金を科しました。こうした一連の不祥事は「前例のない不正義」と評され、政治的責任が問われた結果、2021年1月に第3次ルッテ内閣が総辞職する事態となりました。

これらの事例から導かれる教訓: 行政によるAI・自動化は、適切な透明性、検証、そして人間による厳格な監督がなければ、深刻な人権侵害を引き起こす危険を常にはらんでいます。日本の税務行政AIについても、選定プロセスが不透明なまま運用される中で同様のリスクが存在しないか、厳格に検証する必要があります。とりわけ、海外の事例では「効率化」や「コスト削減」を名目に導入されたシステムが、最も脆弱な立場にある人々に最も大きな被害をもたらしたという共通点があります。

国税庁に求められる対応

国税庁がAIを活用して効率化を図ること自体は時代の流れとして理解できます。しかし、私は以下の三点において、国税庁は正面から説明責任を果たすべきだと考えます。

第一:AIの開発・利用に関する説明責任を国民に果たすこと

国税庁の資料は利点ばかりを強調し、法的・制度的な問題点にほとんど触れていません。政府が掲げる透明性・公平性・説明可能性の原則を、税務行政の現場でどう具体化しているのか、プライバシーやセキュリティの保護策を含めて国民に説明すべきです。

第二:「留意する」では足りない ― AI社会原則の遵守と実行

情報公開請求で入手した国税庁の「データ活用推進第三次中期計画について(指示)」には、AI活用にあたって政府が定めた「人間中心のAI社会原則」に「留意する」と記載されています。

しかし、私はこの「留意する」という表現では極めて不十分であると考えます。「人間中心のAI社会原則」は、人間中心、教育、プライバシー、セキュリティ、公正競争、公平性・説明責任・透明性、イノベーションの7原則からなり、開発者や事業者が「遵守すべき」とされているものです。本稿で指摘したように、ブラックボックス化やバイアスの再生産など、納税者の権利を脅かしかねない課題が山積し、海外では人権侵害の事例も出ています。国税庁に求められるのは、単なる「留意」ではなく、AI社会原則の「遵守と実行」、そしてその取組状況の「情報公開」です。

第三:AIへの過度な依存が調査官の自律性や専門性を損なうおそれ

ベテラン調査官が減少する中で、AIの結果に盲目的に従う調査官が増えることを危惧しています。「自律性を失った旧型ロボット」のような調査官が生身の納税者に向き合う未来は、受容されるべきではありません。AIの判断を疑い、自らの頭で修正し、最終判断に自ら責任を負える人材の育成が不可欠です。

生成AIと税理士の役割の変容

ChatGPTなどの生成AIの普及により、税務相談のあり方も変わりつつあります。生成AIは分散した膨大な税務情報を横断的に整理する点に優れ、機能面では「税務相談」に近い働きをするようになっています。

しかし、生成AIはあくまで「未完成だが強力な」道具にすぎません。事実と異なる内容をもっともらしく答える「ハルシネーション(幻覚)」のリスクがあり、専門知識がなければその誤りを見抜くことは困難です。

他方で、納税者が税務判断の過程に生成AIを利用することは当然の前提になっていくでしょう。懸念されるのは、特に、生成AIは難しい税制や課税関係について、わかりやすく回答してくれるので、「プロセスや根拠はわからなくてもいい、結論(結局税金いくらになるの?)さえわかればいい」という考え方が広く納税者に浸透していくことです。税制に対する主体性が失われ、ひいては納税者自らが申告と納税を行うという申告納税制度が崩壊するおそれがあります。

そこで私が提唱するのが、「Zeirishi-in-the-Loop(ゼイリシ・イン・ザ・ループ)」という概念です。AIが税務判断に介在する時代において、税理士がプロの目でAIの出力を検証し、納税者の責任で判断できるように整理し直す。つまり、税理士が「納税者の権利を守る、人間による最後の防壁(砦)」としての役割を担うべきなのです。少なくとも現時点では、AIは税理士の役割を「脅かすもの」ではなく「変容させるもの」として捉えるべきでしょう。

納税者としてどう備えるか

AIが選定に関与するからといって、納税者として特別な裏技が必要なわけではありません。

1. 「説明可能な申告」が最大の防御: 正しい帳簿を作成し、契約書・領収書などの証拠書類を保存しておくことが、AIのリスクスコアを下げ、もし調査になっても早期に納得を得る鍵となります。

2. 重点分野に注意: AIは現在、暗号資産、海外取引、富裕層、無申告案件を重点的に分析しています。これらの分野に該当する場合は、特に正確な申告が求められます。

3. 税理士に相談する: 「AIに選ばれるのではないか」と不安を感じる場合は、事前に税理士のチェックを受けることで、AIが着目しそうな不整合を事前に解消できます。

よくある質問(FAQ)

Q1. AIによる税務調査の選定で、自分が選ばれる基準は何か?

AIがどの要素をどう評価しているかの詳細は非公開です。しかし、内部資料からは、申告内容の整合性、過去の調査履歴、CRS(海外金融口座情報)などの外部データとの突合などが「リスクスコア」の要素になっていると推測されます。

Q2. AIが選定した場合、調査の内容や厳しさは変わるのか?

現時点では、AIはあくまで選定段階(入口)で使われるツールであり、実地調査自体は生身の調査官が行います。ただし、AIが「高リスク」と判定した根拠を元に、特定の取引について重点的に追及される可能性はあります。

Q3. AI選定に対して異議を申し立てることで違法な税務調査と主張できるか?

ここは議論のあるところですが、現行の法律上、調査対象に選ばれたプロセス(選定過程)そのものに対して異議を申し立てて、調査自体を違法とし、これに基づく課税処分の効果を争うことは可能ではありますが、そのような主張が裁判所に認められる可能性は極めて低いでしょう。納税者は基本的にその主張を裏付ける証拠を入手することができません。調査の根拠を問いただしても、「AIの判断はブラックボックス」「AIの仕様は公開できない」「開発した民間企業の企業秘密」といった点を隠れ蓑に説明を拒まれる可能性があります。

Q4. 生成AI(ChatGPT等)で確定申告をしても大丈夫か?

生成AIは「もっともらしい嘘(ハルシネーション)」をつくリスクがあります。存在しない法令や裁判例に基づいた回答をすることもあるため、最終的な判断や申告内容の正確性については、必ず税理士等の専門家に確認することをお勧めします。

関連記事

AI×税務の研修・セミナーをお探しですか?
泉絢也(東洋大学法学部教授・税理士)が、AI時代の税務行政・税務調査の最新動向について研修講師を承ります。税理士会・企業・金融機関向け。「税務行政におけるDX・AIの進展と簡素原則」「生成AIの普及により変容する税理士の役割」等のテーマで登壇しています。
→ 研修講師のご依頼
税務調査の通知が届きましたか?
泉絢也税理士事務所では、AI時代の税務調査に備えた相談・調査対応をスポットで承っています。初回30分の無料相談(オンライン)をご利用ください。
→ 税務調査対応のご依頼