昔、AIソリューションに関わっていたとき、
顧客から何度も同じ相談を受けました。
「人によるばらつきをなくしたい」
- 新人とベテランで判断が違う
- 同じ状況でも対応が変わる
- エキスパートに依存している
そして必ずこう続きます。
「AIで均一化できないか?」
最初のアプローチ:ナレッジをためる
当時、最初に考えたのはシンプルでした。
ナレッジを蓄積すれば解決できるのではないか?
- 過去の事例を集める
- ベテランの判断を記録する
- FAQやルールを整備する
しかし、やってみると分かります。
これでは解決しない
- 忙しくて参照されない
- ケースが毎回違う
- 暗黙知が抜け落ちる
- 最終判断は人に戻る
ナレッジは「材料」にはなるが
判断のばらつきは消えない
のです。
気づき:問題は「知識」ではなかった
ここで重要な違和感が生まれます。
ナレッジは確かに増えている
情報も揃っている
それにも関わらず
判断のばらつきは消えない
なぜか?
理由はシンプルです。
ナレッジは「何を知っているか」を揃えるものだからです
しかし現実にばらつきが出ているのは
「どう判断するか」
ここでズレが起きている
整理すると
- ナレッジ → 知識の問題
- 判断 → 意思決定の問題
解こうとしていた問題と
実際の問題がズレていた
ここで初めて見える本質
問題は知識不足ではない
問題は「判断のやり方が人の中に閉じていること」
つまり
判断が構造化されていない
ここで視点が変わる
ここで初めて問いが変わります。
どうやってナレッジを増やすか?から
どうやって判断を外に出すか?へ
実はこの問題、昔から解かれている
この「ばらつき」の問題は、
AIだけの話ではありません。
人に依存する限り、必ず発生する問題
そしてこの問題は
すでに他の領域で解かれているのです。
■ 製造業
昔の製造はこうでした。
- 熟練工しか作れない
- 人によって品質が変わる
そこで何をしたか?
作業を構造化した
- 標準作業
- 手順書
- 許容範囲(公差)
- チェックポイント
結果
- 誰でも同じものが作れる
- 品質が安定する
リテール
リテールでも同じです。
Before:
- 店長ごとにやり方が違う
- 店舗ごとに売上がバラバラ
After:
オペレーションを構造化
- 接客フロー
- 陳列ルール
- 補充タイミング
- 値引き基準
結果
- 店舗差が減る
- 売上が安定する
共通していること
ここで重要なのはこれです
- 製造は「作業」を構造化した
- リテールは「運営」を構造化した
従来のAIは「どこまでやっていたのか?」
ここでAIの話に戻ります。
従来のAIは、主に次の2つを担ってきました。
① 予測する
② 提案する
一見すると、かなり高度なことをやっているように見えます。
例えば
製造・品質のケース
- 「この部品は不良になる確率が高いです」(予測)
- 「この工程に問題がある可能性があります」(提案)
- 「点検した方が良いです」(提案)
しかし
- ラインを止めるのか?
- どのレベルで対応するのか?
- コストとのバランスは?
ここは人が判断しています。
金融・リスクのケース
- 「この取引は不正の可能性が高いです」(予測)
- 「リスクが高いユーザーです」(提案)
- 「追加確認を推奨します」(提案)
しかし
- 即ブロックするのか?
- 一時保留にするのか?
- 顧客体験とのバランスは?
ここも人が判断しています。
カスタマーサポートのケース
- 「この問い合わせは解約意図が強いです」(予測)
- 「この対応が適切です」(提案)
- 「この文章を返信候補として提示します」(提案)
しかし
- 本当に送ってよいか?
- トーンは適切か?
- 例外対応は必要か?
これも人が判断しています。
人事・採用のケース
- 「この候補者は採用確度が高いです」(予測)
- 「この人材がマッチしています」(提案)
- 「面接を進めることを推奨します」(提案)
しかし
- 本当に採用するのか?
- 条件はどうするのか?
- 他候補とのバランスは?
これも人が判断しています。
医療のケース
- 「この患者は疾患の可能性が高いです」(予測)
- 「この検査を推奨します」(提案)
- 「この治療方針が考えられます」(提案)
しかし
- 本当に治療するのか?
- リスクは許容できるか?
- 患者の状況はどうか?
これも人が判断しています
これらは一見、非常に合理的に見えます。
- AIが材料を出し
- 人が最終判断する
「安全で現実的な運用」に見える
しかし、ここに問題が残る
実務の現場では、この構造だと次の問題が必ず発生します。
① 判断のばらつきが消えない
- 同じ予測結果でも
- 人によって結論が変わる
新人は慎重に止める
ベテランは流す
判断が統一されない
② 暗黙知に依存する
人が判断するということは
- 経験
- 勘
- 文脈理解
に依存するということです。
つまり
判断の基準が外に出ていない
③ 再現できない
- なぜその判断になったのか曖昧
- 同じ状況でも再現できない
品質にならない
④ スケールしない
- 人の判断がボトルネック
- リアルタイムに対応できない
運用が拡張できない
つまり何が起きているのか?
ここが一番重要です
AIは「材料」を出しているだけで
「判断のやり方」は人の中に残っている
これが最初の問いに戻る
「人によるばらつきをなくしたい」
「AIで均一化できないか?」
この問いに対して、
ここまで見てきたように、
従来のAIは
- 予測する
- 提案する
ところまではできています。
つまりAIは、
- 状況を整理し
- 判断に必要な材料を提示する
ことはできています。
言い換えると
人が判断するための「情報」は揃っている
それでも揃わないものがある
しかし現場では、
それでも次の問題が起きます。
- 同じ情報を見ても
- 人によって判断が変わる
なぜか?
答えはシンプルです。
揃っているのは「情報」だけだからです
ここで重要な分解
ここで一度、整理すると
- 情報(データ・予測・提案)
- ナレッジ(知識・経験)
- 判断(意思決定)
従来のAIは主に
情報とナレッジを揃える方向に進んできた
- データを集める
- モデルで予測する
- ナレッジを蓄積する
しかし問題はそこではなかった
どれだけ情報やナレッジを揃えても
最終的な判断は人に委ねられる
その結果
判断のばらつきは残る
ここで初めて見える本質
均一化すべき対象が違っていた
従来の前提
情報・ナレッジを揃えれば均一化できる
本質
判断のやり方を揃えないと均一化できない
では、どうすればよいのか?
ここで初めて、次の問いが生まれます。
判断のやり方をどう揃えるのか?
ここで重要なのは、
判断を「人に任せるもの」から
「定義できるもの」に変えることです。
判断を構造にする
これまでの世界では、
判断は人の中にあるものだった
しかし、それを次のように変える必要があります。
- 判断を外に出す
- 判断を分解する
- 判断を再現可能にする
判断は分解できる
一見すると「判断」は曖昧に見えますが、
実は次のように分解できます。
- どの情報を見るのか
- どの条件で判断するのか
- どの選択肢を取るのか
- どこまで許容するのか
製造やリテールと同じことが起きる
ここで、最初の話に戻ります。
製造では
- 作業を分解し
- 手順として定義した
リテールでは
- オペレーションを分解し
- フローとして定義した
そしてAIの世界では
- 判断を分解し
- 構造として定義する
何が変わるのか?
これを行うと、次の変化が起きます。
① 判断が再現可能になる
同じ条件なら
同じ判断が行われる
② 判断の理由が明確になる
なぜその判断になったのか
どの条件が効いたのか
③ 判断が改善できる
どこを変えれば結果が変わるのか
どのルールが適切か
④ 判断がスケールする
人に依存しない
リアルタイムに実行できる
ここで初めてAIの役割が変わる
従来のAIは
- 予測する
- 提案する
しかしこれからのAIは
判断の構造の中で動く存在になる
AIは「判断の中」に入る
- 予測はSignalになる
- 提案は選択肢になる
- ルールが判断を決める
AI単体ではなく
構造の中の一部として機能する
これが意味するもの
AIは人を置き換えるのではない
人が持っていた判断を、構造として外に出す
最終的に起きること
ここで最初の問いに戻ります。
「人によるばらつきをなくしたい」
その答えはこうなります。
ナレッジを揃えることではない
判断の構造を揃えること
AIは情報を揃えることはできる
しかし判断は揃えられない
構造がない限り
だからこそ必要なのは
「判断を構造として設計すること」
AIシステム設計・意思決定構造の設計を専門としています。
Ontology・DSL・Behavior Treeによる判断の外部化、マルチエージェント構築に取り組んでいます。
Specialized in AI system design and decision-making architecture.
Focused on externalizing decision logic using Ontology, DSL, and Behavior Trees, and building multi-agent systems.

コメント