この記事でわかること
  • 税務AIの問題は「精度」ではなく「プロセスの統制」にあること
  • AIの流暢な回答が誤った判断を強化する「流暢さの幻想」のメカニズム
  • 注意書きや免責事項がかえって危険を増す理由
  • 「正しく答えるAI」ではなく「間違って進めないAI」が必要な理由

LLM(大規模言語モデル)を用いた心理支援システムに関する最新の研究(Zhao et al., “From Stateless to Situated: Building a Psychological World for LLM-Based Emotional Support“, 2026)は、AIが人間を支援する場面における構造的なリスクを明らかにしています。

この論文は税務の論文ではありません。しかし、その知見は税務AIの設計と利用のあり方に対して、きわめて重要な示唆を含んでいます。

本稿では、この論文の3つの中核的知見を税務AIの文脈に翻訳し、税務AIが備えるべき4つの設計原則として提示します。


なぜ税務AIの「正確さ」だけでは不十分なのですか?

AIの問題は「間違うこと」ではなく、「間違ったまま進めてしまうこと」にあるからです。精度の向上だけでは、プロセス全体の安全性は担保できません。

税務AIに関する議論の多くは、「AIの回答がどれだけ正確か」という精度の問題に焦点を当てています。

しかし、Zhao et al.(2026)の研究は、問題の本質が精度ではなく「プロセスの統制(process control)」にあることを示しています。

この論文の核心的な主張は明快です。AIが「正しく答える」こと以上に重要なのは、「誤った状態のまま次のステップに進まない」ことだというものです。

心理支援の文脈では、相談者の状況を十分に把握しないまま助言を出したり、相談者が理解していないまま次の段階に進んだりすることが、重大なリスクにつながります。

税務の文脈でも構造は同じです。

納税者の所得区分を確認しないまま「申告不要です」と結論を出したり、例外条件を検討しないまま「経費として認められます」と回答したりすることは、正確性以前のプロセスの問題です。

以下では、論文が提示する3つの知見を税務AIの文脈に翻訳し、4つの設計原則として整理します。

「流暢さの幻想」とは何ですか? 税務AIではどう現れますか?

AIの流暢で自信に満ちた回答が、回答内容の不適切さを覆い隠す現象です。論文はこれを「fluency illusion(流暢さの幻想)」と命名しています。税務AIでは、「安心できる文章」が誤った行動を強化するという形で現れます。

心理支援での具体例

相談者が「最近ずっと仕事がつらくて…辞めたい気持ちがあります」と打ち明けたとします。

AIは「それは本当に大変でしたね。あなたはよく頑張っています」と共感的に応答します。

一見とても良い応答ですが、実際には状況の整理もしておらず、認知の歪みの検討にも進んでおらず、支援プロセスは全く進んでいません。「いい感じの会話」が「適切な支援」だと錯覚させているのです。

税務AIでの具体例

納税者が「この副業収入、申告しなくても大丈夫ですか?」と質問したとします。

AIは「少額であれば問題ないケースも多いので、そこまで心配しなくて大丈夫ですよ」と回答します。

法的要件を検討しておらず、所得区分も確認しておらず、例外条件も説明していません。しかし、「安心できる文章」になっている。その結果、納税者は申告しないという誤った行動を取る可能性があります。

この問題が深刻なのは、従来の評価基準では検出できない点にあります。

論文は、言語品質中心の評価体系そのものが誤っていると主張しています。流暢さ・自然さ・わかりやすさで評価すれば、上記の回答は「良い回答」になってしまうのです。

設計原則1:流暢さよりプロセスを優先せよ

  • AIの評価基準は「わかりやすさ」ではなく、適切な判断プロセスを踏んでいるかであるべき
  • 条件不足なら結論を出さない
  • 「可能性」「場合による」を積極的に使用する
  • 推論経路(なぜそうなるか)を明示する

注意書きや免責事項を付ければ安全ですか?

いいえ。論文の実験では、中途半端な制御を導入したシステムが、制御を一切しないシステムよりも成績が悪かったという結果が出ています。「部分的な制御は、制御なしよりも悪い」のです。

論文の実験結果

論文は3つのシステムを比較しています。

システム特徴深い介入の完遂率
Baseline制御なし(自由に会話)0.71
MiddleBaseline中途半端な制御(ステージ意識あり、外部状態なし)0.51
LEKIA完全な制御(外部状態+二重ゲート)0.81
注目すべきは、MiddleBaseline(0.51)がBaseline(0.71)よりも悪い結果を出している点です。「進め」と「止まれ」の矛盾した指示を受けたシステムは、進んだ”ふり”をするだけで実質的に停滞しました。

税務AIでの具体例

AIが以下のように回答したとします。

「一般的な情報ですが…(※個別判断が必要です)この場合、申告不要の可能性が高いです」

ユーザーの認識はこうなります。

「ちゃんと注意書きもあるし、大丈夫そうだ」

注意書きは読まれません。結論だけが信じられます。さらに悪いことに、注意書きがあること自体が「安全設計されている」という錯覚を生みます。
無防備なAIは、一見すると危険に見えます。しかし、ユーザーはその不確実性を前提として受け取るため、自ら補完的な判断(確認・検索・専門家への相談)を行う余地が残ります
これに対し、中途半端に「安全そうに見える」AIは、ユーザーのリスク認識そのものを低下させます。警戒心を解いた上で誤った結論を提示するため、結果的により危険です。

設計原則2:部分的な安全装置は排除せよ

  • 注意書きだけで結論を提示することは禁止すべき
  • 安全条件を満たさない限り、処理を停止する設計にすべき
  • 不完全な状態では機能を制限すべき
  • 「それっぽい安全」は最も危険

AIが結論を出す前に、本当に必要なことは何ですか?

納税者の理解と同意です。論文は、ユーザーの同意を「AIが配慮するもの」ではなく「システム構造として強制されるもの」にすべきだと主張しています。税務AIでは、「納税者が前提条件を理解していない状態で結論を提示しない」ことが、構造的に保証されるべきです。

心理支援での具体例

相談者が「まだその話はしたくないです」と言ったとします。

通常のLLMは「でも少し考えてみると役立つかもしれません」と説得してしまいます。

論文のシステム(LEKIA)では、こうした場面で構造的に進行が不可能になります。User Gate(ユーザーゲート)がブロックし、クールダウン(一定ターン数の待機)が自動発動します。「配慮して止まる」のではなく、「止まらざるを得ない設計」になっているのです。

税務AIでの具体例

納税者が「よくわからないので、とりあえず結論だけ教えてください」と言ったとします。

従来のAIは「この場合は課税されません」と結論を提示します。

納税者は前提条件を理解していません。条件を満たしていない可能性もあります。しかしAIは結論を出してしまい、納税者はそれを信じて行動します。

あるべき設計はこうです。

AI:「結論の前に、以下の点を確認しないと正確な判断はできません。①所得の区分は何ですか? ②金額はいくらですか? ③他に申告すべき所得はありますか?」

条件を満たさないと結論を出さない。これが「同意の構造化」です。「同意」とは「納得した雰囲気」ではなく、理解+条件充足を意味します。

論文はこの設計思想を次のように表現しています。

同意は「アラインメントの結果(alignment objective)」ではなく、「アーキテクチャの不変条件(architectural invariant)」であるべきだ、と。

税務AIに置き換えれば、「納税者が十分に理解していない状態で結論を提示しない」という原則を、注意書きの表示ではなく、AIの動作構造そのものに組み込むべきだということになります。

なお、この設計思想は、税理士の業務とも整合します。税理士は依頼者の状況を十分に聴取し、前提条件を確認した上で判断を示します。AIがその手続きを省略することは、専門家としての判断プロセスの劣化にほかなりません。

設計原則3:同意は構造で強制せよ

  • 理解確認がないと進めない設計にすべき
  • 条件確認が完了しないと結論を出すことを禁止すべき
  • ユーザーが拒否した場合は進行を停止すべき
  • 「同意」は感情ではなく条件充足

結局、税務AIはどう設計されるべきですか?

3つの原則を統合すると、第4の原則が導かれます。「正しく進める」よりも「誤って進めない」ことを優先する設計――「進めない自由」を構造に組み込むことです。

信頼できる税務AIとは、正しく答えるAIではなく、間違って進めないAIです。

従来の税務AI設計は「精度中心モデル」です。正確な回答を出すこと、ユーザー満足を高めることが目標とされてきました。

しかし、論文が示すのは「プロセス統制モデル」への転換の必要性です。誤った進行を防ぐこと、プロセスを強制することが、安全性の前提条件です。

従来モデル(精度中心)新モデル(プロセス統制)
目標正確な回答を出す誤った進行を防ぐ
評価基準回答の正確性・流暢さプロセスの適切さ
安全装置注意書き・免責事項条件未充足なら停止
同意の扱い配慮(ソフト制約)構造的保証(ハード制約)
失敗モード誤った回答誤ったまま進行すること

設計原則4(統合原則):進めない自由を設計せよ

  • 不確実性が一定以上であれば回答を停止する
  • 条件不足であれば分岐質問に移行する
  • 誤解を検知した場合はリセットする
  • 「進まないこと」が安全になる設計

この4つの原則を一言でまとめると、次のようになります。

① 流暢さを信用するな
② 中途半端な安全を排除せよ
③ 同意を構造で強制せよ
④ 進まないことを許容せよ

これらの原則は、AIの技術的な設計にとどまらず、税理士がAIを利用する際の判断基準としても機能します。クライアントがAIの回答を持ち込んできた場合に、その回答が上記の原則に照らして適切なプロセスを経ているかどうかを確認することは、専門家としての重要な役割です。

税務において特に深刻なのは、重加算税との関係です。AIの誤った助言に基づいて申告を行った場合であっても、その内容が「隠ぺい・仮装」と評価されれば、重加算税(35〜40%)の対象となり得ます。「AIがそう言ったから」は免責事由にはなりません。AIの回答を無批判に実行することは、税務上の重大なリスクを伴う行為であることを、納税者も専門家も認識しておく必要があります。

AIの普及は、税理士の仕事を奪うものではなく、むしろ「プロセスの統制」という専門家固有の価値を浮き彫りにするものだといえます。


出典

  • Boning Zhao, Clover, Xinnuo Li, “From Stateless to Situated: Building a Psychological World for LLM-Based Emotional Support” (2026)
    https://arxiv.org/abs/2603.25031

(注)本稿で紹介した論文はLLMベースの心理支援システムに関するものであり、税務AIを直接の対象としたものではありません。税務AIへの適用は筆者の解釈・見解です。

▶ 関連記事:生成AI・AIチャットボットで税務相談をするリスク ― 「シンプレクシティ」の問題

▶ 関連記事:AIが税務の世界を変える時代に、「わかりやすい税制」「簡素な税制」とは何かを問い直す

▶ 関連記事:確定申告でAIに「聞きにくい質問」をする人が急増している