AIは、巨大化してきた。
パラメータは増え、学習データは拡張され、
性能指標は次々と更新されていく。
そして、決まってこう言われる。
「もっと大きくすれば、
もっと賢くなるはずだ」
だが現場で起きているのは、
まったく別の現象だ。
モデルは賢くなっているのに、
判断は賢くなっていない。
スケールすると「何が」良くなるのか
まず、事実を整理しよう。
モデルを大きくすると、確かに次は改善する。
-
表現の滑らかさ
-
文脈の一貫性
-
既存パターンの網羅性
-
もっともらしさ
つまり、
「うまく話す力」
は、確実に上がる。
だが、ここに
危険な取り違えがある。
「賢さ」と「判断力」は同じではない
モデルサイズが改善するのは、
-
予測の精度
-
類似性の把握
-
統計的整合性
だ。
一方、判断とは、
-
どこで止めるか
-
何を引き受けるか
-
何を扱わないか
-
誰に戻すか
という、境界と責任の問題だ。
これらは、
パラメータ数では表現できない
巨大モデルほど「止まれなくなる」
皮肉なことが起きる。
モデルが巨大になるほど、
-
なんでも答えられる
-
なんでも尤もらしく言える
-
境界を越えても違和感が薄い
つまり、
「ここから先はやらない」
という感覚が弱くなる
これは知性の向上ではない。
慣性の増大だ。
スケールは「連続性」を強める
巨大モデルが得意なのは、
-
なめらかな補間
-
連続した推論
-
グラデーションの最適化
だ。
しかし、これまで述べてきた通り、
-
判断
-
常識
-
境界
-
停止条件
は、不連続でできている。
賢い判断とは、
うまくつながることではなく、
うまく断つこと
だ。
スケール神話が生む、最も危険な錯覚
巨大モデルには、
特有の錯覚が伴う。
「ここまで大きいなら、
きっと考えているはずだ」
この錯覚が起きると、
-
人は止めなくなる
-
人は疑わなくなる
-
人は境界を書かなくなる
結果として、
設計の不在が、
モデルの大きさで隠蔽される
設計なき巨大モデルは、責任を溶かす
巨大モデルの出力は、
-
説明がうまい
-
理由がそれらしい
-
自信があるように見える
だから、人はこう言いやすくなる。
「AIがそう言っているので」
これはHuman-in-the-loopの失敗と同じ構造だ。
-
判断の作者が消える
-
境界が曖昧になる
-
責任が霧散する
モデルが大きいほど、この現象は強くなる。
判断の質を上げるのは、サイズではない
では、何が判断を賢くするのか。
答えは、
ここまで一貫して示してきた通りだ。
-
停止条件が書かれているか
-
例外が表に出るか
-
合意しない結果が残るか
-
境界が言語化されているか
-
人が作者として立っているか
これらがなければ、
どれだけ巨大でも、
判断は空転する
小さなモデル+良い設計は、巨大モデルを超える
現場でよく起きる逆転がある。
-
小さなモデル
-
明確な境界
-
例外が多い
-
人が頻繁に戻る
この構成のほうが、
-
判断が説明でき
-
事故が少なく
-
改善が進む
というケースだ。
理由は単純だ。
賢さが、
モデルではなく設計に宿っている
モデルサイズは「能力」であって「判断」ではない
整理しよう。
-
モデルサイズ=できることの範囲
-
判断の賢さ=やらないことの明確さ
この2つは、
直交している。
モデルを大きくしても、
「やらない理由」
「止める条件」
「人に戻す線」
は、1行も増えない。
まとめ
-
モデルサイズは判断の賢さを保証しない
-
スケールは連続性を強め、断絶を弱める
-
巨大モデルは境界を越えやすくする
-
設計不在は、サイズで隠蔽される
-
判断を賢くするのは、境界と停止条件である
AI時代に本当に問われているのは、
どれだけ大きなモデルを使うか
ではない。
どこで止め、
どこで人に戻し、
何を扱わないと決めているか
だ。
モデルサイズを上げる前に、
境界を書いているか。
それがない巨大モデルは、
賢いのではない。
止まれないだけだ。

コメント