【テンプレ付き】生成AIのHuman-in-the-loop承認フロー設計ガイド|情シス・監査対応の実践手順

生成AIの誤回答・情報漏えいリスクを防ぐHuman-in-the-loop(人間確認)の承認フロー設計を解説。業務別レビュー強度の決め方、チェックリスト、導入手順を網羅。

結論:まずは「レビュー強度」を業務別に決め、承認フローを最小構成で回す

生成AIの活用を安全に広げるには、「どの業務は人が必ず確認するか」 を先に決めるのが近道です。
一律禁止より、リスクに応じて レビュー強度(確認の厳しさ)を分け、記録が残る承認フローに落とし込みます。


理由:生成AIは「それっぽく間違える」から、最終責任は組織に残る

生成AIは便利ですが、以下の特徴が現場トラブルにつながりがちです。

特徴 具体的なリスク
もっともらしい誤り 根拠のない断定、存在しない引用元の記載
情報漏えいの懸念 入力データが意図せず外部へ(契約・設定次第で扱いが変わるため要確認
自動化バイアス 出力への過度な依存で、人によるチェックが形骸化

多くのガイドラインや枠組みでは、リスクに応じた統制と人の関与(監督)が重要な考え方として位置づけられています。


用語解説

用語 意味
Human-in-the-loop AIの出力を人が確認・修正・承認してから業務に使う運用設計
承認フロー 成果物を公開・送信・実装する前に、責任者がOKを出す手順
レビュー強度 確認の厳しさ(必須確認/サンプリング確認/事後監査など)

手順:Human-in-the-loopを4ステップで設計する

ステップ1:AI利用を「出力の行き先」で棚卸しする

ポイント:公開・対外ほど厳しく

最初に見るべきは「AIの出力がどこへ行くか」です。

出力先
社内メモ(非公開) 自分用の議事録、調査メモ
社内共有資料 部門内報告、全社周知
対外文書 顧客メール、提案書、プレスリリース、Web掲載
システム反映 設定変更、コード反映、与信判断

原則として、対外システム反映はレビュー強度を上げるのが安全です。


ステップ2:業務別に「レビュー強度」を3段階で決める

ポイント:まずはこの表で十分

レビュー強度 対象例 最低限のルール
レベル1:自己確認 社内メモ、議事録の下書き AI出力を鵜呑みにしない。機密・個人情報は入力しない(社内基準に従う)
レベル2:二者確認 部門共有の企画書、社内FAQ 作成者+レビュワー(上長や担当)で確認し、修正履歴を残す
レベル3:責任者承認 顧客向け回答、対外発表、契約関連 承認者を明確化し、根拠(参照資料)とチェック結果を残して公開・送信

「完璧な監査設計」を目指すより、レベル分けを先に決めて運用に乗せることが大事です。


ステップ3:「承認の判断基準」をチェックリスト化する

ポイント:承認者の迷いを減らす

承認者が毎回悩まないよう、最低限の受入基準を固定します。

共通チェックリスト(例)

  • [ ] 個人情報・社外秘・未公開情報が含まれていない
  • [ ] 事実関係が一次情報(社内データ・公式文書等)で確認できる
  • [ ] 断定表現が妥当(不確かな点は「要確認」になっている)
  • [ ] 著作権・引用ルールに反していない(引用元の明示など社内基準に従う)
  • [ ] 対外向けのトーン&社内ポリシーに沿っている

業務別チェックリスト(例)

業務 チェック項目
顧客メール 誤案内がない。価格・契約条件は人が原文確認
企画資料 数値根拠(集計条件・期間)が説明できる
コード反映 レビュー担当がテスト結果を確認し、手順書に残す

ステップ4:ツールより先に「記録の置き場」を決める

ポイント:監査は「探せること」が重要

承認フローは、メールやチャットで流すと後から追えなくなりがちです。まずは以下のどれかに寄せて、探せる状態を作ります。

記録の置き場
チケット 問い合わせ管理、変更管理ツール
文書管理 版管理・承認履歴が残るシステム
ワークフロー申請 稟議・申請システム

記録として残す最小項目は以下で十分です。

  • ユースケース名/作成者/承認者/日時
  • AI出力の用途(参考・下書き・対外送信など)
  • 承認チェックの結果(OK/NGと理由、修正点の要約)

注意点:やりがちな失敗と回避策

失敗パターン 回避策
承認者が重すぎて回らない レベル2(サッと二者確認)を用意し、レベル3は対外・高影響に限定
「AIっぽい文章」を直すだけで事実確認が抜ける 文章品質ではなく、一次情報での検証(根拠)を必須に
人がAIに過信してしまう 注意喚起(過度な依存のリスク)を研修・周知に含める。高リスクAIでは人の監督が重要
EU等の規制要件をそのまま社内ルールにコピー 適用範囲・施行時期は変わり得るため、国内外の要件は要確認としつつ、自社リスクに合わせて翻訳

すぐ使えるHuman-in-the-loop導入チェックリスト

以下のチェックリストをコピーして、導入の進捗管理にお使いください。

  • [ ] AI利用を「出力の行き先」で棚卸しした
  • [ ] 業務別にレビュー強度(レベル1〜3)を決めた
  • [ ] 承認者(役割)を明確にした
  • [ ] 受入基準チェックリストを配布した
  • [ ] 記録の置き場(チケット/文書管理/WF)を決めた
  • [ ] まずは対外・高影響業務から適用し、月1で見直す予定を設定した

参考リンク(公式・一次情報)

資料名 URL
経済産業省:AI事業者ガイドライン(第1.1版) https://www.meti.go.jp/shingikai/mono_info_service/ai_shakai_jisso/20240419_report.html
NIST:AI Risk Management Framework(AI RMF 1.0) https://www.nist.gov/itl/ai-risk-management-framework
NIST:AI RMF 1.0(PDF) https://nvlpubs.nist.gov/nistpubs/ai/nist.ai.100-1.pdf
NIST:Generative AI Profile(NIST AI 600-1, PDF) https://nvlpubs.nist.gov/nistpubs/ai/NIST.AI.600-1.pdf
OECD:AI Principles https://www.oecd.org/en/topics/ai-principles.html
EU:AI Act Service Desk(Article 14: Human oversight) https://ai-act-service-desk.ec.europa.eu/en/ai-act/article-14
ISO:ISO/IEC 42001:2023(AI management systems) https://www.iso.org/standard/42001

※本記事は一般的な情報提供であり、法務・監査の個別助言ではありません。最終判断は社内ルールおよび専門家にご確認ください。