信用スコアは便利だ。
数字があると、人は安心する。
だが信用スコアには致命的な誤解がある。
信用は“推定値”ではない。
信用は 「許可範囲」 である。
だから、信用スコアをモデル出力として扱うのではなく、
契約として扱わなければならない。
特にコールドスタートでは、これが決定的になる。
なぜ「段階」が必要なのか
コールドスタート状態では、
-
データがない
-
分布が見えない
-
スコアが偶然に近い
このとき、信用を一気に与えると壊れる。
だから必要なのは、
信用を“段階解除”する構造
つまり
-
低リスクの行為だけ許可
-
行動・実績の蓄積で権限を拡大
-
不確実性が上がれば即座に縮退
これを「学習の結果」に任せると責任が消える。
だから「契約」にする。
信用スコアを契約として扱うとは何か
信用スコアを契約として扱うとは、
-
スコアの意味を定義する
-
スコアの適用範囲を固定する
-
スコアの解除条件を明示する
-
スコアの縮退条件を明示する
要するに、
スコアを“判断の代理”にしない。
スコアは「境界制御の入力」に落とす。
モデル:Trust Ladder(信用ラダー)
段階的信用の基本形は「ラダー(梯子)」だ。
例:
-
L0: Cold-start
-
L1: Observed
-
L2: Limited Trust
-
L3: Standard
-
L4: High Trust
重要なのは、各レベルが「点数」ではなく
許可されるアクションの集合で定義されること。
信用レベル=許可アクションの契約
たとえば金融・発行・特典の世界なら:
-
L0:閲覧のみ
-
L1:低額の発行のみ(上限あり)
-
L2:上限を引き上げ、頻度制限あり
-
L3:通常運用(標準上限)
-
L4:優遇(上限緩和、審査省略)
ここで「信用」とは
どれだけの影響力をシステムが許すか
である。
そしてこれは価値判断だ。
学習結果ではない。
契約化の中心:昇格・維持・降格ルール
段階モデルを契約にするには、最低限これを固定する。
1) 昇格(Promotion)
-
どの証拠が揃ったら上がるか
-
何をもって「実績」とするか
-
どの観測期間で判定するか
2) 維持(Retention)
-
どの範囲の行動を継続すれば維持か
-
不確実性が増えた場合の扱い
3) 降格(Demotion)
-
何が起きたら即時降格か
-
どの程度で段階的降格か
-
監査ログと人間承認の要否
ここが “判断を外に出す” 部分だ。
「段階スコア」ではなく「段階+スコア」
よくある失敗は、
0〜100点のスコアで全部決める
だ。
正しくはこう。
-
段階(Level):人間が定義する(契約)
-
スコア(Score):AIが推定する(連続)
AIは段階を決めない。
AIは「段階判定のための材料」を出すだけ。
具体的な契約スキーマ(概念)
信用契約は、最低限こういう形を持つべきだ。
-
trust_level: L0..L4 -
decision_mode: auto / recommend / human_required -
allowed_actions: 明示リスト -
limits: 上限(額・回数・時間) -
promotion_policy: 昇格条件(証拠・期間・閾値) -
demotion_policy: 降格条件(即時・段階) -
evidence_requirements: 必須証拠 -
audit: 根拠ログ参照(EventsRef / SignalsRef)
ここでのポイントは、
信用が「状態機械(state machine)」になっていること。
段階解除は「実績の積み上げ」ではなく「証拠の充足」
信用を上げる条件を
「利用回数」や「累積金額」だけにすると、壊れる。
なぜなら、それはGoodhart化するからだ。
だから昇格条件は、
-
量(回数・金額)
-
質(異常率・苦情率・返品率・不正兆候)
-
文脈(新規端末、位置変化、時間帯)
-
多様性(単一パターン偏重の検出)
のように、“証拠の束” にする。
そしてその束自体を契約化する。
不確実性が上がったら「縮退」する
段階的信用モデルの肝はここだ。
信用は上がるだけではない。
状況が変われば落ちる。
-
端末が変わった
-
振る舞いが変わった
-
分布外に出た
-
不正シグナルが立った
このとき、
-
L3 → L1 に即落ち
-
あるいは「一時凍結」
が設計されていなければならない。
これが fail-closed の実装形である。
人間承認ポイントは「段階の境界」に置く
Human-in-the-Loopを乱用すると運用が死ぬ。
逆に完全自動化すると責任が死ぬ。
だから人間承認は
-
L0→L1
-
L1→L2
-
L2→L3
のように
段階の境界にだけ置く。
つまり「境界の責任」を人が持つ。
これが Human-as-Author そのものになる。
結論
段階的信用スコアの契約モデルとは、
-
信用を点数ではなく「許可範囲」として扱い
-
段階(不連続)を契約で固定し
-
スコア(連続)は材料に落とし
-
昇格・維持・降格を状態機械として設計する
ということだ。
AIは連続を近似する。
だが信用は不連続である。
だから、信用は契約で守らなければならない。

コメント