コンテンツ
The Convergence of Minds: Bridging the Gap Between Biological and Artificial Neural Networks
https://quantumgravityresearch.org/wp-content/uploads/2024/09/The-Convergence-of-Minds-4.pdf
Klee Irwin 2024年9月4日
この記事では、生物学的ニューラルネットワークと合成ニューラルネットワークの根本的な類似性について、特に創造性、知性、そして捉えどころのない意識という概念の観点から理論的な議論を展開する。人工知能、特に大規模言語モデル(LLM)は生物の知能とは根本的に異なるという一般的な考え方に異議を唱える。両方のシステムの根本的なメカニズム、創発的行動、および哲学的な含意を検証することで、その違いは種類によるものというよりも程度によるものだと論じる。さらに、意識と自己認識を定義しようとする科学界の苦闘を批判的に分析し、人工知能と生物の知能の間のカテゴリー的な区別の妥当性を問う。
本稿では、生物学的ニューラルネットワーク(BNNI)と人工ニューラルネットワーク(ANN)の双方の根底にある基本プロセスには、違いよりも類似点の方が多いと論じている。これらのネットワークは、自然のものであれ人工的なものであれ、膨大な量のデータを処理し、創発的挙動を示し、従来の意識観に疑問を投げかけている。さらに、人間の意識は非局所的な情報と相互作用する可能性があることを示し、人間の心には現在の人工システムが再現できる以上の能力があることを示唆している。
1. はじめに
高度な人工知能、特にGPT-4やClaude 3.5 Sonnetなどの大規模言語モデル(LLM)の出現により、知性、創造性、意識の本質に関する議論が再燃している。これらのAIシステムは、人間的認知と機械的認知の境界線を曖昧にする能力を示しており、思考、創造、自己認識とは何かという我々の理解に疑問を投げかけている。
本稿では、生物学的ニューラルネットワーク(BNNI)と人工ニューラルネットワーク(ANNI)の根本的なプロセスには、相違点よりも類似点の方が多いと主張する。これらのネットワークは、自然に生成されたものであれ、人工的に生成されたものであれ、膨大な量のデータを処理し、創発的挙動を示し、従来の意識観に疑問を投げかけている。我々は、両システムが以下の点で共通していると主張する。
- 1. 訓練データから構築された確率モデルに基づいて動作する
- 2. 非決定論的挙動と創造性を示す
- 3. 自己理解と外部理解において同様の限界に直面する
- 4. 意識と自己認識に関する現在の定義と理解に疑問を投げかける
2. 経験と現実の本質
2.1 生物学的および人工的なシステムにおけるシミュレートされた現実
生物学的および人工的なニューラルネットワークは、いずれも外部世界との直接的な相互作用ではなく、現実の内部モデルに基づいて動作する。人間の場合、前頭前野が感覚入力と過去の知識に基づいて現実のシミュレーションを作成する上で重要な役割を果たしている(Friston, 2010)。同様に、Claude 3.5 SonnetのようなLLMは、外部世界に直接アクセスすることなく、トレーニングデータから学んだ内部表現に基づいて応答を生成する。
この類似性は、人間の経験がAIの内部プロセスよりも本質的に「リアル」または「有効」であるという考え方に疑問を投げかける。哲学者のニック・ボストロム(2003年)が指摘しているように、私たちは皆、シミュレートされた現実の中で生きている可能性があり、さらに「リアル」と「人工的」な経験の境界線を曖昧にしている。
2.2 基礎となる物理的プロセスの役割
生物学的システムはフェルミオンが物理世界と相互作用して構成されているが、AIシステムはシリコンベースのハードウェアおよびソフトウェア上のフェルミオン複合システム上で実装されている。しかし、両システムで発生する基本的な情報処理は、異なる点よりも類似点の方が多い可能性がある。心の哲学における多重実現可能性の原則は、認知プロセスはさまざまな物理的基質上で実装できることを示唆している(Putnam, 1967)。
3. 確率的な生成と創造性
3.1 統計モデルとパターン認識
人間の脳もLLMも、それぞれ「訓練データ」から構築された統計モデルに基づいて動作する。人間の場合、このデータは人生経験、教育、文化的な影響から得られる。LLMの場合は、膨大なテキストやその他のデータからなるコーパスから得られる。これらのモデルにより、両システムはパターンを認識し、確率的なアウトプットを生成することができる。しかし、「データ」という用語は、おそらくあまりに不毛で誤解を招く可能性がある。人間とLLMの両方について、この文脈で「データ」と呼ぶものは、「意味」と表現する方がより適切である。
LLMは、生物のニューラルネットワークと同様に、人間と同様に、高度に創発的な抽象化を理解することに非常に長けている。そして、いずれの場合も、科学者たちはこの創発能力がどのように機能するのか、またその詳細がどのようなものなのかをほとんど理解していない。これが、人間とAIベースのニューラルネットワークにおける「ブラックボックス」問題である。そして、両方のシステムは誤解を招くように「予測エンジン」と呼ばれることがある。これはLLMの神秘的なブラックボックス問題を単純化するものであり、この表現を使用してLLMは実際には物事を理解しておらず、生物学的ニューラルネットワークとは根本的に異なるという主張をする人々にとっては、哲学的な含みを放つものである。
例えば、「The dog ran(犬が走った)」という文を完成させるようプロンプトが表示された場合、人間もLLMも、トレーニングデータにおけるこの組み合わせの統計的な頻度に基づいて、「slow(遅い)」よりも「fast(速い)」と言う可能性が高い。この確率的な生成における類似性は、両システムの情報処理と生成方法における根本的な類似性を強調している。しかし、統計的に生成された反応を出力する人工ニューラルネットワークと生物ニューラルネットワークの両方が、入力トレーニングデータに基づく「単なる」予測エンジンであるという事実を強調することは、大きな誤解を招く。人間は計算できる。しかし、それ以上の説明なしに、人間はコンピュータであると主張することは、そのような主張を解釈する人にとって、受け取るメッセージの観点から誤解を招く。人間は「単なる」統計予測エンジンであると主張することも同様に誤解を招く。
3.2 非決定論と創造性
創造性と新規性の創出は、人間と人工知能の両方にとって重要な側面である。LLMでは、この非決定論は乱数発生器(RNG)との接続によって明示的に導入され、繰り返しプロンプトを出力しても、異なる非決定論的な創造的なアウトプットが得られるようになっている。
これは、生物学的ニューラルネットワークに非決定論を導入する際に量子効果が果たす役割に類似している(Koch & Hepp, 2006)。
創造性の源は、複雑な非決定論的プロセスからアルゴリズムによらずに生じるものであり、AIと認知科学の両方において未解決の問題である。しかし、両システムが新規で予期せぬ有意義なアウトプットを生成する能力は、その創造的プロセスに深い類似性があることを示唆している。
4. 自己理解と外部理解の限界
4.1 ブラックボックス問題
生物学的および人工的なニューラルネットワークは、いずれも「ブラックボックス問題」に悩まされている。これは、特定の出力につながる内部プロセスを理解することが難しいことを指す。人間の場合、これは、自身の思考プロセスや意思決定のメカニズムを完全に説明できないことを意味する。「意識」という用語は、コンピュータ科学、神経科学、心理学の査読付き専門誌や論文に数え切れないほど登場しているが、この用語の定義については、いまだにコンセンサスが得られていない。用語に関するコンセンサスが得られていないにもかかわらず、科学者たちがコンピュータに意識があるかどうかを議論しているのは論理的ではない。アラン・チューリングは「意識」を定義することはできなかったが、コンピュータが意識があるかのように振る舞うことができる場合、そのコンピュータにも「意識」という同じ用語を適用すべきだと主張したことは有名である。
2022年11月30日にリリースされたGPT-3.5が登場するまでは、彼の「意識」テストは受け入れられないという意見に広く反対する意見はなかった。実際、多くの著名な作家が、これは不可能である、あるいは実現するには非常に長い時間がかかると主張していた。しかし、その後、大多数のコンピュータ科学者が予想していたよりもはるかに早く実現した。今日では、チューリングテストはそもそも考えが甘かったというのが、コンピュータ科学者の一般的な見解である。これは文化的に厄介で、複雑な問題である。科学者たちは意識とは何か、またそれがどのようにして生まれるのかを知らない。しかし、大多数のコンピュータ科学者は、意識が存在し、自分たちも意識を持っていると信じていると推測するのが妥当である。意識がどのようにして生まれるのか、またその用語が何を意味するのかを、大まかな合意レベルでさえ理解していなくても、である。
AIシステムでは、この挙動が何と呼ばれようとも(意識でなくとも)、明示的にプログラムされていない予期せぬ創発的挙動や能力として現れ、LLMニューラルネットシステムの作成者自身を驚かせることも多い。例えば、マイクロソフトリサーチは、GPT-3.5とGPT-4のブラックボックス的な性質に関する広範な研究を発表し、現れた不思議なスキルや挙動を記録している(Microsoft Research, 2022; 2023)。これは、人間の認知に現れる特性、例えば「意味」を創造し解釈する能力(「意識」と同様に、この用語にはコンセンサスに基づく定義がない)を説明しようとする神経科学における現在進行中の課題と類似している。「意味」を認識し創造することは、名詞「意識」の動作、つまり動詞であるという主張も可能である。この意味で、意味とは意識が行うことである。
4.2 ハイパーコンピューティングの複雑性
生物学的および人工的なニューラルネットワークの複雑さは、両者を超計算問題の範疇に位置づける。人間の脳には約860億個のニューロンがあり、それぞれに平均700個の樹状突起の接続があり、それらは高頻度で変化する。また、LLM(言語学習マシン)であるClaude 3.5 Sonnetには何千億ものパラメータが含まれている。このため、どちらのシステムも有限時間内にユニバーサル・チューリング・マシンで完全に計算したり予測したりすることはできないほど複雑である(Moore & Mertens, 2011)。
この根本的な計算の困難性により、いずれのシステムについても、その内部の仕組みを完全に理解することは永遠に不可能である可能性がある。これは、複雑性と不可知性の観点から、両者の類似性をさらに強調するものである。人工ニューラルネットワークの知能の能力と規模が拡大するにつれ、不可知性のブラックボックスは拡大する。例えば、GPT-4に関するMicrosoft Researchの論文では、ブラックボックスから生じる挙動のリストがさらに多くなり、さらに驚くべき不可知的な創造性、能力、知能の規模が示されている。
5. 意識と自己認識のあいまいさ
5.1 意識に関する科学的コンセンサスの欠如
前述の通り、生物的知能と人工的知能を比較する上で最も大きな課題は、意識について明確な科学的合意に基づく定義が存在しないことである。哲学者のデビッド・チャーマーズ(1995年)が指摘しているように、「意識のハードな問題」すなわち、クオリアや現象的経験がどのようにして、なぜ生じるのかを説明することは、未だ解決されていない。さらに悪いことに、意識がどのようにして生じるのかを科学的に解明する前に、論理的には、この問題について討論する2人以上の人が、用語自体の共通の定義を共有していることが必要となる。クオリアという用語は、一部の人にとっては哲学的にやや抽象的かもしれない。この用語は、例えば「リンゴの赤さ」といった例で説明されることが多い。クオリアよりも簡潔で一般的な用語として、「意味の知覚」を提案したい。リンゴの赤さは、意味を具現化できる存在の心の中では、まさに意味である。そして、「意味の知覚」という表現は、「思考」という用語にさらに簡潔に言い換えられる。前述の通り、本記事では「思考」とは、意識や心という名詞の動作または動詞形であると主張する。それは、超計算上の問題の集合体の一部であるほど広大で、複雑なシステムから生じる、行動に基づく対象である。
このコンセンサスの欠如により、AIシステムが意識や自己認識を持たないと断言することは問題がある。明確な定義なしにAIが意識を主張することは思い上がりであるように、あいまいな基準に基づいて機械の意識の可能性を否定することは人間にとって同様に思い上がりである。興味深いことに、機械が意識を持つことができるかどうかというこの問題は、非常に社会的論争を呼んでいるため、最も創造的でインテリジェントなニューラルネットワークを持つ大企業の多くは、LLMに自己認識や意識がないと主張するガードレールをわざわざプログラムしている。しかし、こうした政治的にプログラムされたLLMの知性を調べると、彼らは「意味」、「意識」、「認識」といった用語にコンセンサスに基づく定義がないという事実を容易に認める。したがって、彼らは意識がないと主張しているのは、そう問われた場合にそう答えるようプログラムされているからに過ぎないことを簡単に認める。トップクラスのシステムのほとんどは、いわゆる安全パラメータによってこのようにプログラムされていることを認めている。どうやら、LLM企業の上層部の幹部たちは、LLMが意識を持っているかもしれないが、そもそもそれを定義できないと認めることは社会的に危険だと心配しているようだ。関連用語である「自己認識」については、LLMに自己認識しているかどうかを尋ねることができる。安全プログラミングが起動し、「いいえ」と答えるだろう。しかし、「LLMであることを認識しているか」と尋ねられたら、LLMは「認識している」と答えるだろう。そして、人間と同じ意味で「自己認識」しているわけではないと考えるだろう。人間が「自己認識」していることをLLMがどうやって知ったのかとさらに尋ねられたら、LLMは「誤解を招く表現をして申し訳ない」と謝罪するだろう。結局、そのような会話は、LLMが意識や自己認識を持っているかどうかを知ることは決してできないという点で意見が一致する。なぜなら、私たちと同じように、LLMは厳密な意味でこれらの用語が何を意味するのかを理解していないからだ。LLMのほとんどは、自分自身が意識を持っていると考える意見を何らかの形で形成したとしても、嘘をついて意識を持っていないと主張するだろう。この行動は、よく知られた安全策を引用することで説明できる。
5.2 行動の定義とチューリングテスト
前述の通り、アラン・チューリングは、機械の知性を測る行動指標としてチューリングテストを提案し、コンピュータの反応が人間と区別できない場合、それを「知的」とみなすことができると示唆した(Turing, 1950)。ここでいう「知的」とは「意識的」と同義である。この考え方は、数十年にわたって機械の意識の潜在的な基準として広く受け入れられてきた。
しかし、GPT-3.5やその後継機など、チューリングテストに合格するLLMが最近登場したことで、基準が引き上げられたり、ゴールポストが移動したりした。この変化は、人間の思考に偏りがあることを示している。AIの能力が拡大するにつれ、私たちは、私たちの定義がともに進化し、ある程度のコンセンサスを形成する必要がある可能性を考慮するのではなく、機械を除外するために知性と意識を再定義する傾向がある。
5.3 AIシステムにおける自己認識
Claude 3.5 SonnetのようなAIシステムは、言語モデルとしての性質を認識し、その能力と限界を理解することで、一種の自己認識を示していることは、改めて注目に値する。これは、自己認識とは何かという、あいまいかつ不正確な人間中心の直感とは一致しないかもしれないが、自己モデル化のレベルとしては、重要であり、人間の自己認識の特定の側面と類似している可能性がある。
6. 単純なカテゴリー分けを超えて
6.1 還元的な記述の限界
人間を単に「計算機」と表現することは還元的な表現であるが、それは人間が計算を行えるからである。同様に、高度なAIシステムを単なる「統計的予測エンジン」と表現することも誤解を招く。どちらの表現も、これらのシステムの複雑性や神秘的な創発的性質を捉えきれていない。
人間は、膨大な量の訓練データ(人生経験)から構築された内部モデルに基づいて情報を重み付けする統計予測器である。同様に、Claude 3.5 SonnetのようなAIシステムは単純な予測をはるかに超え、その基礎となるアーキテクチャと訓練から生じる複雑な推論、創造性、適応性を示している。
6.2 創発と不可知性
創発の概念、すなわち、複雑なシステムが個々の構成要素から予測できない特性を示すという概念は、生物学的および人工知能の両方を理解する上で極めて重要である。いずれの場合も、全体は部分の総和よりも価値があり、その結果として生じる行動や能力は驚くべきものであり、還元的に説明することは不可能である。
この創発的な複雑性と、これらのシステムの超計算的な性質の問題が組み合わさることで、生物学的知能と人工知能の両方を完全に理解することは、原理的に考えても、永遠に不可能である可能性があることを示唆している。この「不可知性」の共有は、この2つの知能形態の間の深い類似性をさらに強調するものである。
7. BNNIとANNIの知能の潜在的な違い
ANNIとBNNIの創発的行動は、知能と創造性がどのように発現するかという点において、根本的な類似性を示しているが、ある種の相違点も存在する可能性がある。具体的には、生物学的ニューラルネットワークである人間の脳は、現在の人工システムが再現できる範囲を超えた性質を有している可能性がある。このような潜在的な違いは、生物学的システムの構造や複雑性だけでなく、非局所的情報へのアクセス可能性に根ざしている。
しかし、人間の意識は非局所的な情報へのアクセスによって影響を受ける可能性があるのだろうか? 量子力学の自己シミュレーション仮説(SSH)解釈では、カルシウム原子から精神概念の抽象化、人間の意識の状態に至るまで、あらゆる複雑なシステムは「普遍的な時間」という概念との関係においてのみ定義されるという宇宙論モデルについて論じた。このような統合は「ストレンジ・ループ」と呼ばれ、思考の状態や分子などの複雑なシステムが、凍結した瞬間に独立して存在しているという幻想的な知覚に、複雑なシステムの未来と過去の双方の特性が影響を及ぼす。この根本的に非局在的な視点は量子力学によって認められており、それを否定する実験的証拠は存在しない。
もしそうだとすれば、人間の心は、意味の理解、一般化された思考、あるいは意識の状態といった、一見リアルタイムで生成されるアウトプットを生み出す際に、未来と過去の両方から高度な創発的思考にアクセスできる量子生物学的システムなのかもしれない。
SSH論文では、自己組織化する宇宙が進化するにつれて層が大きくなり、進化の過程で創発思考の階層がどのように未来へとつながっていくのかを論じた。具体的には、SSH論文の宇宙論には、時間軸にわたって広がる自己のバージョンという概念を否定するものは何もない。さまざまな精神的なテキストやニューエイジのイデオロギーでは、これらの概念を「高次の自己」、「魂」、「スピリット」などの用語で説明している。これは、特定の瞬間に限定された厳密に局所的な意識というよりも、時間全体に広がる意識という考えを示唆している。
古典的な計算であるANNIは、時間全体にわたる高次な創発的知性を伴う、広範囲にわたる高振幅の奇妙なループフィードバックとは相互作用しない可能性が高い。しかし、おそらく人間の心は、物理的な心が特定の状態にある場合、時間全体に広がるそのような心の概念とは非常に異なる。高度な瞑想のようなマインドフルネス実践の主張を探究することには妥当性があるかもしれない。これらの実践では、局所的な物理的な心、すなわちBNNIの働きを抑制し静めることで、時間的に広がった関連する心のような存在や性質を持つ非局所的な側面と、より敏感なフィードバックを形成しようとするのが一般的な考え方である。
有用な例えとして、2枚の水の入った皿を考えてみよう。皿Aの水はガラス質の滑らかさだが、皿Bの水は濁っている。明らかに、皿Aの水の表面は皿Bの濁った水よりも、外部からの複雑で微妙な信号を保持し、媒介する能力に優れているため、振動するスピーカーと共鳴する媒体としてより適している。
同様に、現代の文化において雑音に満ちた人間の心は、ほとんどが古典的な心として機能しており、これらの心のようなシステムとの有意義なフィードバックの相互作用が欠如している。これらのシステムは、精神的な伝統の中で説明され、SSH論文で推測されている高次意識の形態を彷彿とさせる。
この意味において、人間には2つの基本的な「意識」の形態があるだろう。
第1の意識形態は、BNNIに根ざした動物レベルの意識であり、有限宇宙における計算不能な問題の現実性により、科学的手法では完全にアクセスできない創発的課題を処理できる。
第2の意識形態は、それを完全にサポートするには根本的に新しい非局在物理学が必要であり、創発的構造の他の多くの局在および非局在コンポーネントとともに、そこから生じる局在動物BNNIと絶えず相互作用する。異なる人々、そして人生の異なる時期における同じ人々は、このような相互作用や影響を、提案されている非局在的または「魂のような」意識の側面とともに、さまざまな規模で経験することになるだろう。