なめらかな計算では、判断は表現できない ──AIと不連続性の問題

昨日は、
なぜAIプロジェクトがPoCで終わり、
現場に定着しないのかを書いた。

今日はその理由を、
AIが「何をしている存在なのか」
という技術的な前提から考えたい。

最近のAI活用を見ていると、ある前提が静かに忘れ去られているように感じる。
それは AIはコンピューターの中で動いている という、あまりにも当たり前の事実だ。

コンピューターができることは何か。
それは一つしかない。

計算である。

AIも例外ではない。
推論、生成、学習、判断――どれも内部では数値演算に還元されている。


静的でない世界を計算するための唯一の道具

現実世界は静的ではない。
時間とともに変化し、状態は連続的に移ろい、因果は絡み合う。

この「変化する世界」を計算可能な形に落とすために、人類が選んできた基礎が 微分と積分 だ。

  • 微分:変化の方向と大きさを捉える
  • 積分:変化の累積としての結果を捉える

ニューラルネットワークの学習は、突き詰めれば
誤差関数を微分し、その勾配に沿ってパラメータを更新し続ける操作にすぎない。

これは非常に強力だ。
なぜなら、微分と積分は「連続的な世界」を扱う限り、ほぼ万能だからだ。


なぜ物理の世界では「なめらかさ」で十分なのか

ここで重要な前提がある。
微分と積分を成立させるためには、

計算対象の関数が限りなくなめらかであること

が必要になる。

物理学において、この仮定は驚くほどよく機能する。

  • 空間は連続
  • 時間は連続
  • エネルギーや運動量も連続量として近似できる

原子レベルでは不連続性が存在するにもかかわらず、
マクロな世界では 「なめらかな関数として近似しても問題にならない」

だから物理では、

  • 微分方程式
  • 連続時間モデル
  • 極限操作

が世界をうまく記述できた。


しかし「すべてがつながった世界」は区別を失う

ところが、この仮定をそのまま知能や意味の世界に持ち込むと、問題が起きる。

なめらかな世界では、

  • すべてが少しずつつながり
  • すべてが連続的に変化し
  • 境界が曖昧になる

結果として何が起きるか。

区別が消える。

白と黒の間は無限のグレーになる。
概念と概念の境界はぼやけ、
「これはAだ」「これはBだ」という断言ができなくなる。

現在のAIが得意なのは、まさにこの世界だ。

  • だいたい似ている
  • それっぽい
  • 文脈的には合っている

しかし、

  • どこで決定が切り替わったのか
  • なぜその判断になったのか
  • ここは越えてはいけない線ではないのか

といった 断絶点 は表現しづらい。


不連続性を無理やり埋め込む試み

この問題を避けるために、AIの世界では様々な工夫がされてきた。

代表的なのが ソフトマックス だ。

ソフトマックスは、

  • 完全な0/1の決定を避けつつ
  • 最大値を強調し
  • 擬似的な選択を作り出す

という「なめらかさ」と「選択」の妥協点にある関数だ。

他にも、

  • ReLU のような折れ線的な活性化関数
  • しきい値を意識した損失設計
  • 温度パラメータによる鋭さ調整

など、計算可能な範囲で不連続っぽさを演出する工夫が積み重ねられてきた。

しかし、これはあくまで「近似」だ。

世界に本当に存在する断絶そのものを扱っているわけではない。


それでも世界は表しきれない

現実の判断には、次のような性質がある。

  • ある条件を満たした瞬間に「禁止」になる
  • ある文脈を越えたら意味が反転する
  • ルールが優先順位を持って衝突を解決する

これらは連続的ではない。

微分可能でもなければ、なめらかでもない。
むしろ 論理的なジャンプ によって成立している。

ここで、昔から繰り返し言われてきた考え方が再び意味を持つ。


計算だけではなく、ロジックを組み合わせる理由

AIの歴史において、

計算(数値)とロジック(記号)をどう組み合わせるか

という問いは、何度も現れては忘れられてきた。

  • ルールベースAI
  • エキスパートシステム
  • 記号推論
  • 制約充足
  • 論理プログラミング

一時期は「古い」と切り捨てられたこれらの考え方が、
今あらためて重要になっている理由は明確だ。

連続な計算だけでは、断絶のある世界を表現できないからだ。

ロジックは、

  • 境界を定義し
  • 優先順位を明示し
  • 禁止と許可をはっきり分ける

計算は、

  • 曖昧さを扱い
  • ノイズに耐え
  • 連続的な最適化を行う

この二つは対立するものではない。
役割が違うだけだ。


AIを「賢くする」とは何か

AIを賢くするとは、
モデルを巨大化することでも、
パラメータを増やすことでもない。

それは、

どこまでを計算でなめらかに扱い、
どこからをロジックで断ち切るかを設計すること

だ。

AIが扱っているのは、今も昔も計算だけだ。
だからこそ、

  • 何を計算に任せ
  • 何を論理で固定するのか

この設計を人間が引き受ける必要がある。

AIは考えていない。
しかし、考えるための部品にはなれる。

その境界を意識しないまま使うと、
世界はいつの間にか、なめらかなグレーに塗りつぶされてしまう。


コメント

タイトルとURLをコピーしました