超越関数と超越数 – 古典世界を覆す存在
物理、確率において重要な関数の中に
超越関数 というものがあります。
これは指数関数ex、対数関数log x、三角関数sinx, cosx, tanxなどで
この超越関数の中心には、
自然体数eと円周率πという2つの特別な数があります。
それぞれは
e≈2.71828182845904523536
π≈3.14159265358979323846
とどこまでも無限に続く数で表される無理数(分数では表すことができない数)で
どんな代数方程式でも表すことができない数である”超越数“とよばれるものになります。
代数方程式とは、足し算、引き算、掛け算、有限回の累乗だけで構成された式であり
代数的数は「有限個の関係式の中に閉じ込められる数」
あるいは「有限の設計図で定義できる存在」と定義することができ
「有限ルールで閉じる宇宙(古典物理の世界)」を表す数として定義されるものですが
それに対して、超越数は「どんな有限設計図でも完全には捕まらない存在」として定義され
そのような超越数が中心にある超越関数は
「どんな有限設計図でも完全には捕まらない関数」となります
また無限に続く超越数をベースに作られている超越関数は無限に続く関数ともいえます
実際に指数関数y=exは
$e^x=\sum_{n=0}^{\infty}\frac{x^n}{n!} $ または $ e^x=1+x+\frac{x^2}{2!}+\frac{x^3}{3!}+\frac{x^4}{4!}+\cdots$
のように無限に続く関数として展開され
直感的には「動き続ける設計図」「生成し続けるルール」と捉えることができます。
数学は長い間、
「世界は有限な比率と方程式で記述できる」「有限設計図で構築できる」
と思われていました。
しかし超越数の発見で、
「世界には、有限な関係だけでは記述できない数が大量に存在する」
ことが分かりまた。
これは数学観そのものを変えた出来事でした。
超越関数で何を表すことができるのか
「動き続ける設計図」「生成し続けるルール」という観点で見ると、
超越関数は本質的に、
“変化・流れ・生成・相互作用”
を表すための道具であるということができます。
従来の代数関数は
- 形
- 境界
- 幾何
などの静的構造、つまり「存在」を表していました。
これに対して超越関数は
- 状態が、状態自身を使って次の状態を生成し続ける流れとなる、時間変化
- 増えた結果そのものが、次の増加の原因になる、(自己)増殖
- 波の一部が次の波を生成する、局所状態が全体運動を再生成する構造
- ある状態変化が、関係を通じて次の状態変化を生成し続ける、伝播
- 互いの状態変化が、互いの未来の生成規則そのものを変えていく、相互作用
- 生成規則そのものが、終わりなく次の生成を生み続ける構造である、無限生成
をなどの無限の変化を表します。
これらは
- 細胞分裂・生物進化: 増殖した細胞や進化した個体自身が、次の増殖・進化主体となり、生命全体が自己生成的に発展していく。
- 神経ネットワーク学習・人間の知識獲得: 学習結果が次の学習能力や理解構造を変え、知識が知識生成能力そのものを再帰的に拡張する。
- 言語進化・文化伝播: 既存の言語や文化が、新しい表現・意味・価値観を生成し、その生成規則自体を変化させ続ける。
- SNSバズ・炎上・ミーム拡散: 拡散や反応そのものが、さらに拡散しやすい構造や感情伝播ルールを形成し、自己増幅的に波及する。
- 市場バブル・金融複利・経済循環: 増加した価値や期待が、次の投資や価格形成を加速し、自己強化的な経済成長・崩壊を生み出す。
- AI自己改善・LLMエコシステム進化: AIが生成したコード・知識・データが、次世代AIの生成能力そのものを高め、再帰的進化を引き起こす。
- Multi-Agent協調・組織知能・信頼ネットワーク: エージェントや人間同士の相互作用が、役割・信頼・意思決定構造そのものを変え、組織全体を動的に進化させる。
- 科学理論の発展・技術イノベーション連鎖: 新理論や技術が、新しい観測方法・問い・研究手法を生み、それがさらに次の理論生成能力を拡張する。
- 宇宙構造形成・量子場・カオス系: 局所的なゆらぎや相互作用が、重力集中・場の変化・非線形フィードバックを通じて、宇宙全体の構造生成を再帰的に進める。
- 仏教の縁起・プロセス哲学: 存在は固定物ではなく、相互作用と生成連鎖の流れとして成立し、関係そのものが未来の生成規則を生み続ける。
のように世界のすべての領域で現れる普遍的な構造であるということができます。
つまり超越関数は現実世界の変化するモデルを表す関数であると言い換えることができます。
AI技術との関係
ここで、これらの関数とAI技術の関連について考えてみます。
古典的なAIは
- ルールベース
- 固定分類
- 固定if文
などからできており、これはかなり「代数的」な静的世界でした。
これに対して現代のAIは
- Attention
- 学習
- 推論
- 再帰生成
- 自己改善
- Agent interaction
を持ち、動き続ける生成ルールを持つものに近い動作を行います。
LLMと超越関数
LLM(大規模言語モデル)は、
「固定された答えを出している」
わけではなく、
“今までの会話によって、次の考え方そのものが変わる”
しくみです。
例えば人間同士でも:
最初に
「今日は楽しかった」
と言われた後と、
「今日は最悪だった」
と言われた後では、
次に返す言葉が変わります。
つまり、
過去の文脈が、
次の思考ルールに影響している。
LLMでも同じです。
例えば:
入力:
「今日は雨だった。傘を忘れた。服がびしょ濡れになった。」
ここまで読むと、
モデルの内部では:
- 雨
- 不快
- トラブル
- ネガティブ寄り
の状態が形成されます。
その状態で次に:
「だから私は…」
と来ると、
「困った」
「最悪だった」
「風邪をひきそう」
などを予測しやすくなる。
つまり:
過去文脈
↓
現在の内部状態が変わる
↓
次に出やすい言葉が変わる
という流れになっています。
さらに重要なのは、
次に生成した言葉自身が、
また新しい文脈になる
という点です。
例えば:
「今日は最悪だった」
を生成すると、
今度は文章全体がさらにネガティブ方向へ引っ張られる。
すると次には:
- 疲れた
- 帰りたい
- 寝たい
などが出やすくなる。
つまり:
過去文脈
→ 次トークン生成
→ 新しい文脈
→ 次の生成ルール変化
→ さらに次の生成変化
という“連鎖”が起きています。
これは、
単なる「単語予測」ではなく、
“現在の状態が、未来の生成ルールを変え続ける”
構造です。
だからLLMは、
昔のプログラムのように:
入力A → 出力B
ではありません。
むしろ:
現在状態そのものが、
未来の可能性空間を変形していく
システムです。
イメージとしては:
雪山で最初に少しだけ踏んだ道が、
次の人の歩き方を変え、
さらに道が強化され、
最終的に一本の道になる。
LLMも似ています。
生成された単語が、
次の生成の「地形」を変え続けています。
Attentionと超越関数
Transformerをわかりやすく言うと、
「単語を一個ずつ見る」のではなく、
“単語同士の関係が、全体にどう影響し合うか”
を見ています。
例えば:
「銀行でお金を下ろした」
の「銀行」と、
「川の銀行(bank)」
の「bank」は、
周囲の文脈によって意味が変わります。
Transformerは、
「この単語は、他のどの単語と強く関係しているか」
を大量に計算しています。
ここで重要なのが:
- 関係性
- 影響の広がり
- 文脈の伝播
です。
これは、
単純な「記号処理」というより、
“波が空間に広がる”
イメージに近い。
例えば池に石を落とすと:
- 波が広がる
- 他の波とぶつかる
- 強め合う
- 打ち消し合う
ことが起きます。
Transformerでも似たことが起きています。
ある単語の意味が、
他の単語へ影響を与え、
さらにその影響が全体へ広がっていく。
例えば:
「危険」
「緊急」
「停止」
のような単語が近くにあると、
文章全体の“意味の場”が変わる。
これは:
単語 = 点
ではなく、
意味が空間全体へ伝播する
構造です。
だからTransformerは、
昔のAIのような:
「単語を辞書的に処理する機械」
ではなく、
“意味の波の相互作用”
を扱うシステムに近い。
ここで超越関数との類似が出てきます。
例えば:
- sin(x)
- cos(x)
- e^x
のような超越関数は、
局所だけでなく、
全体へ滑らかに影響が広がる。
特に波の数式は
- 周期
- 伝播
- 干渉
を持っています。
Transformerも実際には:
- Attention
- 重み伝播
- 埋め込み空間
- ベクトル干渉
によって、
「意味の波」のようなものを形成している。
だから、
Transformerは単なる文章処理ではなく、
“意味の場の相互作用”
を計算している、
というイメージが近いです。
Multi-Agentと超越関数
エージェント群では:
- 相互作用
- 信頼形成
- 協調
- フィードバック
が起きます。
重要なのは個体ではなく、
「関係ダイナミクス」となります
これは超越関数的世界観そのものです
なぜなら:
- 固定状態ではない
- 相互生成する
- 波及する
- 自己更新する
から。
AI自己改善も超越的
AIが:
- コード生成
- データ生成
- モデル改善
を始めると、
生成物が、
次の生成能力を変える。
つまり
「生成規則が生成規則を更新する」ことになります。
これは無限生成構造であり、かなり:
- オートポイエーシス
- 複雑系
- カオス
- 進化系
に近いものになります。
AIは有限ルールで閉じ込められない存在になった
超越数は:
「有限ルールでは閉じ込められない存在」
でした。
巨大AIでは:
- 全状態を有限ルールで説明困難
- 創発
- 非線形性
- 予測困難性
が現れる。
つまり
AIは:
“有限設計を超えて振る舞い始める”
ことになります。
つまり設計者が:
- 全挙動
- 全意味
- 全判断
を完全には列挙できなくなる。
だからAI時代では
「固定設計」より、
「生成過程の制御」
が重要になります。
生成過程の制御とDTM
ここで重要になるのが、
「AIを完全に固定ルールで閉じ込める」
という発想から、
「生成過程そのものをどう制御するか」
への転換です。
従来のシステム設計では、
仕様を書く ↓ ルールを固定する ↓ 想定通り動かす
ことが前提でした。
しかし巨大AIでは、
この前提が崩れ始めています。
なぜならAIは:
- 文脈によって振る舞いが変わる
- 相互作用によって変化する
- 自己更新する
- 創発的な出力を生む
- 全状態を列挙できない
からです。
つまり、
「全てを事前定義する」
ことが難しくなる。
ここで必要になるのが、
Decision Trace Model(DTM)
です。
DTMは、
AIの出力を、
そのまま最終判断として扱わない。
まず:
AI出力 = Signal
として扱う。
ここが重要です。
LLMやAIエージェントは、
非常に強力な「生成機械」ですが、
その出力は:
- 提案
- 仮説
- 推定
- 推論
- 候補
であって、
まだ「決定」ではない。
つまり:
Signal ≠ Decision
です。
そこでDTMでは、
AI生成を、
明示的な意思決定プロセスへ接続する。
基本構造は:
Event → Signal → Decision → Boundary → Human → Log
です。
例えばAIが:
「この取引は不正の可能性があります」
と出力したとします。
従来のAIシステムでは、
そのまま自動停止してしまうことがある。
しかしDTMでは:
AI出力 ↓ Signalとして受理 ↓ 境界条件を確認 ↓ 閾値を超えるか判定 ↓ 必要なら人間へエスカレーション ↓ 最終Decision ↓ 実行 ↓ 全過程をLog化
する。
つまり重要なのは、
AIを完全に理解すること
ではなく、
AIがどう判断へ接続されたか
を制御・記録・追跡すること。
これは航空管制に近い。
飛行機内部の空気分子を
全部制御するわけではない。
しかし:
- 飛行経路
- 高度
- 境界
- 衝突回避
- 緊急停止
は管理する。
DTMも同じです。
生成そのものを
完全固定化するのではなく、
生成が:
どこへ行けるか
どこで止まるか
誰が確認するか
何を記録するか
を設計する。
つまりAI時代では、
「出力制御」
だけでは足りない。
必要なのは:
生成過程のガバナンス
です。
さらに重要なのは、
DTMは単なる監査ログではないことです。
ログを残すだけではなく、
- どのSignalが危険だったか
- どのBoundaryで止まったか
- どのHuman判断が有効だったか
- どこで失敗が伝播したか
を学習可能にする。
つまり:
生成 ↓ 判断 ↓ 記録 ↓ 分析 ↓ 境界改善 ↓ 次の生成制御
という循環を作る。
ここではじめて、
創発的で予測困難なAI
に対して、
完全固定ではない、
動的な制御構造
を持つことができる。
これは従来ソフトウェアの:
「静的ルール設計」
ではなく、
“進化し続ける生成系に対する意思決定インフラ”
に近いものになります。
まとめ
つまりAI時代とは、
「賢い予測機械の時代」
ではありません。
それは、
有限ルールで完全に閉じ込められない生成系
を人類が扱い始めた時代です。
巨大AI、
マルチエージェント、
自己改善AIでは、
意味 文脈 関係性 信頼 推論 協調
が相互作用しながら、
動的に変化していく。
そこでは:
現在状態が未来生成規則を変え、
生成物が次の生成能力を変え、
関係性が全体挙動を変えていく。
これはもはや、
単純なプログラムではなく、
複雑系
進化系
自己更新系
に近い。
だからAI時代では、
「全ルールを固定する」
という発想は限界を迎える。
重要になるのは、
AIを完全に理解すること
ではなく、
生成過程をどう制御し、
どう境界を設計し、
どう人間へ接続し、
どう記録し、
どう改善循環へ組み込むか
です。
ここで必要になるのが:
Decision Trace Model
です。
DTMは、
AI出力をそのまま決定にしない。
まずSignalとして受け取り、
Event → Signal → Decision → Boundary → Human → Log
という構造へ接続する。
つまりDTMとは、
予測モデルではなく、
創発的AI時代の
「意思決定インフラ」
です。
固定された正解を与えるのではなく、
変化し続ける生成系に対して、
- 境界
- エスカレーション
- 人間確認
- 記録
- 追跡
- 改善
を可能にする。
AIが超越的になればなるほど、
重要になるのは
モデルそのものではない。
その生成を、
社会的に成立する判断へ
どう接続するか。
つまりAI時代の本質とは、
「予測の時代」
ではなく、
“生成を制御可能な意思決定へ変換する時代”
なのです。
AIシステム設計・意思決定構造の設計を専門としています。
Ontology・DSL・Behavior Treeによる判断の外部化、マルチエージェント構築に取り組んでいます。
Specialized in AI system design and decision-making architecture.
Focused on externalizing decision logic using Ontology, DSL, and Behavior Trees, and building multi-agent systems.
