AIは、世界をよく近似する。
驚くほど精密に、なめらかに、
現実の構造を写し取る。
それでも私たちは、
ときどき強い違和感を覚える。
「言っていることは正しい。
でも、意味が分かっていない」
この違和感の正体は、
性能不足ではない。
近似できるものと、
原理的に近似できないものの違いだ。
AIがやっているのは「連続近似」である
まず、事実から始めよう。
AIが行っているのは、
-
分布の推定
-
関数の近似
-
勾配に沿った更新
つまり、
連続的な世界の近似
だ。
-
少し変われば、少し変わる
-
似ていれば、近い
-
大きく外れることは稀
この性質があるからこそ、
AIは「うまく振る舞う」。
世界は、確かに連続的に見える
物理世界も、
多くのデータも、
一見すると連続だ。
-
温度
-
速度
-
売上
-
確率
だから私たちは、
ついこう思ってしまう。
「意味も、
きっと連続的に近似できるはずだ」
だが、
ここに決定的な誤解がある。
意味は「断絶」で生まれる
意味は、
連続の中には存在しない。
意味が生まれるのは、
-
ここから先は違う
-
それは許されない
-
それを言ってはいけない
といった、
断ち切りの瞬間
だ。
-
0.49 と 0.51 の差が
-
ある瞬間、
-
生死・合否・犯罪・拒絶に変わる
この飛躍は、
連続近似の外側にある。
近似がうまいほど、意味は消える
皮肉な現象が起きる。
AIがなめらかに近似すればするほど、
-
境界はぼやけ
-
禁忌は薄まり
-
文脈の緊張は消える
結果として、
意味が発生していた「断絶点」が
埋め戻されてしまう
だから私たちは、
「正しいけど、違う」
と感じる。
意味とは「どこで切るか」である
意味を構造的に言い換えよう。
意味とは、
-
何を含め
-
何を含めず
-
どこで線を引いたか
の結果だ。
これは、
判断そのもの
であり、
-
確率
-
勾配
-
最適化
からは導けない。
なぜ意味はデータに現れにくいのか
意味は、
-
起きたこと
-
言われたこと
ではなく、
起きなかったこと
言われなかったこと
の側に宿る。
-
あえて言及しなかった
-
あえて選ばなかった
-
あえて踏み越えなかった
これは、
ログにならない
だから、
どれだけ学習しても、
意味は完全には出てこない。
AIが意味を「分かったように見える」理由
それでもAIは、
意味を理解しているように振る舞う。
理由は単純だ。
-
人間が意味を表現するとき
-
それは必ず言語になる
-
言語は統計的に扱える
AIは、
意味そのものではなく、
意味が現れた痕跡
を、
極めて精密に近似している。
だから錯覚が生まれる。
意味はロジックに「残る」
ここで重要な結論に至る。
意味は、
-
モデルの中には入らない
-
データにも完全にはならない
では、どこにあるのか。
意味は、
ロジックの「断絶点」に残る
-
この条件では適用しない
-
この場合は判断を止める
-
ここからは人が引き受ける
つまり、
境界・停止条件・例外処理
として現れる。
なぜ設計が必要になるのか
ここで、
ここまで述べたことが一つに収束する。
-
AIは連続近似が得意
-
意味は不連続で生まれる
-
だから、意味は自動では扱えない
このギャップを埋めるのが、
設計
だった。
設計とは、
-
近似の限界を知り
-
意味が発生する断絶を
-
あらかじめ書いておく行為
に他ならない。
意味をAIに任せると、何が起きるか
意味を近似できると信じると、
-
境界を書かなくなる
-
判断を急ぐ
-
「それっぽさ」に安心する
結果として、
意味の事故が起きる。
-
意図しない解釈
-
文脈を踏み越えた発言
-
説明不能な不快感
これはAIの暴走ではない。
意味を設計しなかった人間の不在
だ。
まとめ
-
AIは世界を連続的に近似できる
-
意味は断絶から生まれる
-
断絶は近似できない
-
意味はロジックの境界に残る
-
設計とは、意味の居場所を書くこと
AIは、
世界をうまく写す。
だが、
意味を生むのは、
どこで切るかを決めた人間
だけだ。
だからAI時代に問われているのは、
「意味を理解できるモデルはあるか?」
ではない。
「意味が生まれる断絶を、
誰が、どこに書いているか?」
という、
設計の問いである。
意味を扱うAI技術としてはセマンティックウェブ技術や、オントロジー技術がある。どちらも本ブログで詳細を述べているので、興味のある方はそちらを参照して頂ければと思う。

コメント