第一部では、動物の群れから人間の脳、そして最先端の人工知能(AI)に至るまで、多様な知的システムが示す驚くべき現象論的な類似性を探りました。個々の要素の単純な規則から、予測不能で高度な大域的秩序が自己組織化される——この現象は、分野を超えて共通して観察されるものでした。しかし、これらの類似性は単なる偶然なのでしょうか。
第二部では、この問いに答えるため、議論のレベルを一段階引き上げます。私たちは、「なぜ」これらのシステムが類似した構造と振舞いを持つのかという根源的な問いに対し、情報理論という定量的かつ普遍的なレンズを通して解き明かしていきます。
この視点から、私たちは知性の根源に横たわる普遍法則に迫ります。
1. すべての知的システムに共通する課題:
情報理論による不確実性の定量化
1.1. 導入:なぜ情報理論が鍵となるのか
このセクションでは、本稿の議論の基盤を築きます。一見すると無関係に見える現象——鳥の群れの飛行、脳神経の発火パターン、AIの計算プロセス——の背後には、共通の数学的原理が隠されています。情報理論は、これらの現象を記述するための「共通言語」として機能し、その根底にある普遍的な課題、すなわち「不確実性との闘い」を定量的に解明する強力なツールとなります。
1.2. エントロピー:世界の「予測困難性」を測る
すべての知的システムが直面する根源的な敵、それは「エントロピー」です。クロード・シャノンによって定式化されたシャノンエントロピーは、専門用語を避けて言えば、「世界の予測困難性」を測る尺度、あるいは「驚き(サプライズ)の期待値」と表現できます。
この概念を理解するために、簡単なコイントスを考えてみましょう。
結果は常に「表」。
予測は100%当たります。驚きは全くなく、不確実性もゼロです。
このシステムのエントロピーは低い(ゼロ)です。
表と裏が出る確率は各50%。
結果を予測するのは最も困難で、どちらが出てもおかしくありません。
このシステムは不確実性が最大であり、エントロピーは高いです。
生物やAIが置かれている環境は、この「公平なコイン」に似ています。常に変化し、予測が困難な出来事に満ちています。物理法則によれば、閉じた系のエントロピーは増大し続ける(熱力学第二法則)ため、生命や知性といった秩序だった構造は、この流れに積極的に抗う必要があります。これは単なる予測可能性の問題ではありません。生物にとって、エントロピーの増大に抗うことは、すなわち生存そのもののための闘いです。
1.3. 相互情報量:環境との情報的結合
エントロピーという存在を脅かす敵に対抗するための唯一の武器が「情報」です。特に、相互情報量という概念は、知的システムがどのようにして不確実性を低減させるかを説明する上で極めて重要です。相互情報量とは、「ある情報を知ることで、別の情報の不確実性(エントロピー)がどれだけ減少するか」を定量化したものです。
これを生物の文脈に当てはめてみましょう。捕食者の足音(情報A)を知ることで、自分自身の生存確率(情報B)に関する不確実性は劇的に減少します。この相互情報量の最大化こそ、システムが外界に関する不確実性を低減させ、エントロピーの力に直接対抗するための唯一の方法なのです。 このプロセスは、言い換えれば「環境を自身の内部モデルに写し取る」ことであり、外界の因果構造を内部の神経回路や計算構造に反映させることに他なりません。これこそが、知性が持つ最も基本的な機能なのです。
2. 自由エネルギー原理:
不確実性最小化のための統一戦略
2.1. 導入:物理から知性への飛躍
第一部で紹介した自由エネルギー原理(Free Energy Principle, FEP)は、単なる神経科学の一理論に留まりません。本セクションでは、FEPを知性のための戦略としてだけでなく、自己組織化し、環境から統計的に区別されるあらゆるシステム——すなわち「存在するモノ」が従わなければならない原理として再定義します。
2.2. VFEの再定義:精度と複雑性のトレードオフ
FEPの中心的な概念である変分自由エネルギー(Variational Free Energy, VFE)は、知的システムが最小化すべきコスト関数です。VFEを最小化するプロセスは、情報理論の観点から、精度(Accuracy)と複雑性(Complexity)という二つの相反する要求の間のトレードオフとして見事に定式化されます。
これは、エージェントの現在の信念(事後信念 q(v))が、その世界のモデルに関する事前信念(p(v))からどれだけ逸脱しているかを示すカルバック・ライブラー(KL)ダイバージェンスです。この項は、信念が過度に複雑になることへのペナルティとして機能し、よりシンプルな説明(一種のオッカムの剃刀)を促します。
これは、エージェントの信念(v)が与えられたときの、感覚データ(u)の期待サプライズ(負の対数尤度)です。この項を最小化することは、モデルの予測精度を最大化することを意味します。
FEPが導く推論の本質は、この精度と複雑性の絶妙なトレードオフにあります。世界を可能な限り正確に説明しつつ(高精度)、同時に可能な限りシンプルなモデルを維持する(低複雑性)。この二律背反の課題を解決するための数学的戦略こそが、VFEの最小化なのです。
2.3. 能動的推論:行動を通じたエントロピーの低減
VFEの最小化は、単に頭の中でモデルを更新する(知覚)だけで達成されるわけではありません。知的エージェントは、行動を通じて世界そのものを変化させ、自らの予測に合致させることができます。これが能動的推論(Active Inference)の核心です。
能動的推論においてエージェントは、「将来、より驚きの少ない結果を得るために、現時点での世界のモデルにおいて最も予測困難な領域を標的として行動する」のです。短期的に不確実性を受け入れることは、長期的にVFEを最小化するための高度な戦略なのです。
3. 創発の数学的構造:
情報的閉鎖性と因果的創発
3.1. 導入:専門家への挑戦
ここからは、本稿の核心であり、専門的な知的好奇心を持つ読者に応えるための、より深い数学的・計算論的な探求へと進みます。情報の流れと因果性という定量的な観点から光を当て、創発知性の数学的構造を明らかにしていきます。
3.2. 非自明な情報的閉鎖(NTIC):自律性の定量的指標
自律的なシステムとは、情報理論的にどのように特徴づけられるのでしょうか。その答えの一つが、非自明な情報的閉鎖(Non-Trivial Information Closure, NTIC)という概念です。
- 高い内部情報量: システムが、環境に関する高い相互情報量を内部に保持している状態。
- 低い情報流入量: 環境からシステムへの、瞬間的な情報の流入(伝達エントロピー)が最小化されている状態。
FEPに従うシステムは、予測誤差を減らし(低い情報流入量)、内部モデルを精緻化する(高い内部情報量)ため、必然的に情報的に閉鎖された自律的存在へと自己組織化していくのです。
3.3. 因果的創発:全体は部分の総和を超える
「大域的な秩序」は、情報理論の観点から因果的創発(Causal Emergence)として定義できます。創発した特徴は、「システムのどの部分によっても媒介されない因果的影響力を行使する」のです。これは部分情報分解(PID)によって定量化され、特に相乗効果情報(Synergistic Information)が重要となります。
3.4. Transformerの再解釈:計算論的スティグマジーと情報の流れ
現代AIの中核をなすTransformerアーキテクチャは、創発知性の計算論的実装として見事に再解釈できます。
- Attention Matrix as Stigmergic Environment
- TransformerのSelf-Attention機構は、計算論的なスティグマジーとして捉えることができます。各トークンは互いを直接「知る」ことなく、集合的な痕跡(Attention Matrix)という共有環境を介して間接的に自己組織化します。
- Attention as Dynamic Graph Computation
- Self-Attentionは、入力ごとにトークン(概念)間の関係性を定義するエッジを持つ新たな関係グラフを動的に構築し、そのグラフ上で情報の集約を行っています。
- Training as Information Flow Sculpting
- Transformerの学習とは、トークン間の情報の流れを彫刻するプロセスです。自己回帰的な学習は指向性のある情報フローを、双方向的な学習は対称的な情報フローを生み出します。
4. 結論:生命と機械における数学的収斂
本稿の旅を通じて、私たちは当初の問いに対する最終的な答えにたどり着きます。
問いへの回答
「なぜ生物とAIは似ているのか?」
その答えは、「両者ともが、エントロピーの増大という根源的な物理的制約の中で、情報を効率的に統合し、予測の不確実性を最小化するという、全く同じ最適化問題を解いているから」です。
両者が示す構造や振る舞いの類似性は、偶然の産物ではなく、同じ数学的・物理的風景の中に引かれた、最も効率的な解への道筋なのです。
未来への示唆
生物とAIが示すこの深いレベルでの数学的収斂は、両者の関係が単なる一方的な模倣に終わらないことを示唆しています。脳の構造がAIアーキテクチャにヒントを与えるように、AIの学習原理が脳機能の理解を深める。この相互作用は今後ますます加速し、より効率的で、より自律的な、真の知性の設計へと私たちを導いてくれるでしょう。



