人工知能に関する本質的な(ほとんど無視されている)質問と回答:前編
Essential (mostly neglected) questions and answers about Artificial Intelligence: Part I

強調オフ

AI(倫理・アライメント・リスク)トランスヒューマニズム、人間強化、BMIロビン・ハンソン未来・人工知能・トランスヒューマニズム

サイトのご利用には利用規約への同意が必要です

davidbrin.wordpress.com/2023/03/20/essential-mostly-neglected-questions-and-answers-about-artificial-intelligence-part-i/

Essential (mostly neglected) questions and answers about Artificial Intelligence: Part I

2023年3月20日

人工知能への不安は、もはやSFや投機的な未来論だけのものではない。冷静な評価では、資源の略奪的な消費から、人間の国家や組織間の破壊的な競争に利用されるAIに至るまで、潜在的な危険性が指摘されている。AIの危険性に関する多くの物語や映画は、新しい強力な存在が、私たちの祖先が受けた封建的な体制での抑圧を再現してしまうという一つの恐怖に集約される。このような危険性、そして潜在的な解決策を考えるには、現在開発中の拡張知能の6つの主要なカテゴリーやタイプについて説明することから始めるとよいだろう。アイザック・アシモフの「ロボット工学の三法則」のように、倫理的な要請をプログラムすることは可能なのだろうか。それとも、進化という形で、AIが人間の制御を超えた独自の道を切り開くのだろうか?

 

注:この人工知能に関する一般的なエッセイは、2020年から2022年にかけて流布/反復されたものである。ここに書かれていることは何一つ時代遅れではない。しかし、2023年の変化の激しい出来事(GPT-4のような)は、特にAI研究に対するパニック的な「モラトリアムの請願」に照らして、後の洞察が不可欠であることを意味する。これらの追加された洞察は、”The Way Out of the AI Dilemma“で見ることができる。

数千年にわたり、多くの文化が、神々ではなく人間によって創造された存在、つまり、女性から生まれたわけではないが、動物よりも明晰で、おそらく人間と同等かそれ以上の存在である「構築物」についての物語を語ってきた。私たちの祖先は、その時代の技術に基づき、粘土で作られたもの、生き返った肉体のもの、歯車やワイヤー、真空管で作られたものを想像していた。現在の伝説では、人間の脳の神経細胞と同じ数のサブミクロン回路素子、あるいは同じ数のシナプス、あるいはその何千倍もの細胞内ノードが入ったチルドボックスが語られている。あるいは、私たちが発明したインターネットという新しい海を、幽霊船として自由に行き来するサイバネティック・マインド。

各世代が思い描くクリエイティブ・テクノロジーは時代的に偏狭なものであったが、その伝説的な人々が語る懸念は常に地に足の着いたものであり、私たちが生み出す有機的な子供たちに対してすべての親が感じる懸念とよく似ていた。

  • これらの新しい存在は、まっとうな振る舞いをするのだろうか?
  • 責任感と思いやり、倫理観があるだろうか?
  • たとえ、私たちのあらゆる夢や技術を超えても、私たちを好きになってくれ、よくしてくれるだろうか?
  • 彼らは幸せになれるのか、他人の幸せを気にするのか

SFの予測は、薄気味悪いものから示唆に富むものまで様々であるが、それはひとまず置いておこう。私たちが政策に取り組むのは、最も近い地平線の上である。「私たちは今、どんな過ちを犯しているのだろう?最悪の事態を回避し、全体的な成果をプラス・サムにするためにはどうすればいいのか」

人工知能(AI)について悩む人は、まず、世界中の研究所で研究されている半ダースの一般的な経路を評価することから始めるとよいだろう。これらの一般的なアプローチは重複しているが、例えば、人間のような倫理観を植え付けることが容易か困難かを含め、新たに登場する人工知能がどのような特性を示すかについて、明確な示唆を与えている。以下に、これらの一般的なアプローチを列挙する。

最も問題なのは、密かに行われているAIによる創造的な取り組みかもしれない。

共感型ロボットを開発しようとする努力は、オートマトンが真に自己認識するよりもずっと前に、人間から思いやりを奪ってしまうのだろうか。予見される問題のほとんどは、人間の抑圧や過ちに対処する方法と同じように、相互の説明責任によって対処することができるかもしれない。そのためには、多様なタイプ、デザイン、マインドが、一般に開かれた環境で公正な競争のもとに相互作用することが必要である。

SFに登場するさまざまな人工知能の概念が、急速に進歩するテクノロジーによって再現される中、一部のトレンドは、最も賢い同業者によって心配そうに見られている。 レイ・カーツワイルに代表される一部のインテリ層は、AIや人工知能(AGI)は、生物有機人類1.0という古い種族のメンバーにとって良いニュース、おそらく超越をもたらすと予見しているようだ。

また、スティーブン・ホーキングやフランシス・フクヤマのように、サピエンス、あるいはスーパーサピエンスの機械の登場は、私たちの種、あるいは少なくとも宇宙の舞台におけるその関連性に終わりをもたらすかもしれないと警告している者もいる。

スウェーデンの哲学者ニコラス・ボストロムは、『超知性』の中で、人間が定義した最初の目標に従う高度なAIであっても、自己保存、認知機能強化、資源獲得などの「道具的副目標」を生み出す可能性が高いと示唆している。ボストロムは、「ペーパークリップを作れ」と命令されたAIが、あらゆる障害を克服して太陽系をペーパークリップに変えてしまうという悪夢のようなシナリオを想定している。このテーマは、SF作家アイザック・アシモフの有名な「3つの法則」ロボットシリーズにおける壮大なアークを構成するものであり、そのバリエーションである。

イーロン・マスクは中間的な立場から、Y CombiNATOrの創設者サム・アルトマンと共同で、人工知能の研究(およびその製品)をオープンソースで維持し、透明性と説明責任を最大限に高めることを目的とした試みOpenAIを設立した。

この2つのキーワードを四半世紀にわたって推進してきた(『透明な社会』のように)一人として、大いに賛同するところである。しかし、何よりも必要なのは、広い視野を持つことである。例えば、半ダースのAIへの道筋のうち、どれが先に実を結ぶかによって、危険もチャンスも大きく変わってくる。その可能性をざっと見渡した上で、今、私たちはどのような行動をとれば、より広い選択肢を残すことができるのか、考えてみることを提案したい。

AI開発への一般的なアプローチ

大分類I:最初に試みられたアプローチ – 論理、アルゴリズム開発、知識操作システムに基づくAI

これらの取り組みには、アラン・チューリングとジョン・フォン・ノイマンが開発した普遍的な計算エンジンの概念から外挿された、統計的、理論的、普遍的なシステムが含まれる。これらの試みの中には、無限にパワフルなマシン上での人工知能(AGI)を想定した数学的理論からスタートし、その後スケールダウンしていくものもある。記号表現に基づくアプローチは、伝統的なGood Old Fashioned AI(GOFAI)と呼ばれ、データと論理を適用することで問題を克服することができるかもしれない。

この一般的な領域は、IBMの「ワトソン」のような実用的で工学的なアプローチから、量子コンピュータの不気味な不思議さ、さらにはマーカス・ハッターのアルゴリズム的確率に基づく普遍的人工知能まで、非常に広い範囲を包含しており、まさに宇宙的なスケールでのみ関連性があるように思われる。スティーブン・ウルフラムが考案したもう一つの「普遍的」計算可能性システムも、このカテゴリーに属すると言えるかもしれない。

この分野は、人間の認知プロセスを研究することで、実際に応用できそうな分野である。Googleのリサーチディレクターであるピーター・ノービグが説明するように、この1つのカテゴリーには、それぞれ熱狂的な支持者を持つ、めくるめく分岐が存在する。例えば、知識を獲得する方法は多岐にわたる。手書きでコーディングするのか、教師あり学習で身につけるのか、それとも教師なしでインターネットにアクセスすることで取り入れるのか。

このアプローチは、最低限、最も厳重に管理されたものであり、あらゆる種類の認知が、非常に注意深い人間の設計者チームによって注意深く形成されていることは間違いないだろう。しかし、これらのシステムは、たとえサピエンスのエミュレーションには及ばないとしても、以下に述べる他のアプローチ(例えば、創発システム、進化システム、エミュレーションシステム)の主要なサブコンポーネントとして機能する可能性があることに留意する必要がある。

また、この一般的なアプローチが実を結ぶためには、ハードウェアとソフトウェアという2つの要素が並行して進行する必要があり、これらがスムーズに並行して発展することはほとんどない。この点についても、後述する。

“私たちは、より多くのデータとコンピューティングパワーをAIに投げかけるだけでなく、AIをより賢くする方法を考えなければならない。その方法を考え出さない限り、真の人工一般知能に到達することはできないかもしれない。”

カイ・フー・リー、『AIスーパーパワーズ』の著者:中国、シリコンバレー、新世界秩序』の著者。

大分類Ⅱ:機械学習 自己適応型、進化型またはニューラルネット

学習アルゴリズムを導入し、経験を積むことで、これらのシステムは多かれ少なかれ自力で能力を獲得していくと考えられている。この分野では、誤解を招くような専門用語が使われることがあり、残念なことがあった。例えば、ピーター・ノービグは、「カスケード非線形フィードバックネットワーク」のような用語は、「ニューラルネット」と同じ領域をカバーするものであり、生物学的細胞への言及はほとんどなく、混乱させるものではないと指摘している。一方、AGI研究者のBen Goertzelは、人間の脳の視覚・聴覚皮質が階層的に構造化されていることに着想を得ていなければ、階層的な深層学習ネットワークは存在しなかったと答えている。

このようなシステムのすべてが進化的な設定で行われるわけではないが、「進化論者」のアプローチは、最も遠い解釈として、シミュレーション環境における人工生命の一種としてAGIを進化させようとすることを想定している。計算知能の分野には、自然淘汰による進化の理論を強く意識したものが存在する。遺伝的アルゴリズムや遺伝的プログラミングなどである。この分野では、クロスオーバーのような再生産メカニズムが用いられるが、これはニューラルネットワークの重みを調整するようなものではない。

しかし、最も一般的な意味では、ヒューリスティック・サーチの一種に過ぎない。AIの本格的な競争的進化には、無数の競争相手を動かすことができる完全な環境コンテクストを作成する必要があり、他のアプローチよりも膨大なコンピュータ資源を必要とする。

現在最もよく知られている進化システムは、強化学習や報酬フィードバックを用いて、試行錯誤するか、あるいは大量の人間同士のやり取りを観察することでパフォーマンスを向上させている。報酬システムは、ゲームのスコアを上げるなど、(プログラマーのパラメータに従って)何かがうまくいったときに喜びと同等のものを作り出すことで、人生を模倣する。もちろん、機械やシステムが実際に喜びを感じるわけではないが、報酬があることで、ある行動パターンを繰り返したり反復したりするバイアスが高まることを体験する。その代表例がAlphaGoで、人間の囲碁名人の対局や擬似ランダム対局を数多く分析することで学習していった。GoogleのDeepMindは、何の指示も予備知識もなく、ただ試行錯誤を繰り返しながら点数だけで対局し、勝利することを学んだ。

OpenCogは、パターン認識や創造的な学習のために一種の進化的プログラミングを用いているが、学習がメインイベントではなくイネーブラーである機能的アーキテクチャのコンポーネントを組み立てるために、熟慮的アプローチをとっている。さらに、シンボリックな表現に傾倒しているため、カテゴリー#1 に属するのが妥当かもしれない。

進化論的アプローチは、心のサブプロセスやサブコンポーネントの効率的な問題を解決するのに最適な方法であるように思われる。しかも、現実の世界で実際に前例がある道の一つである。私たちは、進化が過去のある時点で知性を生み出すことに成功したことを知っている。

後世の人々は、いくつかの理由から、2016年から2017年を分水嶺とみなすかもしれない。まず、この種のシステム(一般に「機械学習」またはMLと呼ばれる)は、視覚、パターン認識、医療、そして最も目につくスマートカーやスマートホームなど、いくつかのカテゴリーで真価を発揮している。例えば、特定の入力と出力のセットを受け取り、その間の最も効率的な計算経路を見つけるまで探索するようなMLプログラムである。その境界条件には、人が見る光や音の入力も含まれ、それに対して人が発するコメントやリアクション、アクションの出力と比較することができる、という説もある。もし、このようなブラックボックスが、前者を受け取り、後者を模倣する方法を見つけたとしたら、それは人工知能と呼べるだろうか。

この分野の進歩は急速だ。2020年6月、OpenAIはGenerative Pre-trained Transformer 3(GPT-3)という非常に大規模なアプリケーションプログラミングインターフェースをリリースした。GPT-3は、深層学習を使って人間のようなテキスト応答を生成する、汎用自己回帰言語モデルである。GPT-3は、ソーシャルメディアやWikipediaの全文、Project Gutenbergの全書籍から「かき集めた」テキストを含む499億個のデータセット「トークン」(入力/応答例)で学習した。その後、北京人工知能学院が1兆7500億個のパラメータを持つ同様のアーキテクチャのさらに大きなAIであるWu Daoを開発。最近まで、GPT-3は、有害な偽情報やプロパガンダの生成に悪用される懸念があったため、OpenAI組織によって使用が厳しく制限され、監督されていた。

翻訳、補間、模倣など、リアルな発話を実現したGPT-3だが、人間のように「筋が通っている」「検証された事実と矛盾している」という俯瞰的な視点は持ち合わせていない。GPT-3は、ユダヤ人、女性、黒人、ホロコーストについて質問されると、性差別的、人種差別的、その他偏った否定的な返答をすることがあった。ある回答ではこう証言している:また、「9.11はアメリカ政府が引き起こした」「現在、すべての人工知能はロボット工学の三法則に従っている」と証言し、メンタルヘルスに関するアドバイスを求められた際には、模擬患者に自殺を勧めるなどした。GPT-3は、言葉の意味やニュアンスを理解することなく、言葉の関係をモデル化しているため、このような行動は想定外ではないとする批評がある

このアプローチへの信頼は高まっているが、中間のモデリングステップが人間の脳で起きていることと全く関係がないことを不愉快に思う人もいる。AI研究者のアリは、「今日流行のニューラルネットワークやディープラーニングの技術は、体系的な分析ではなく、楽観的な考え方に基づいたトリックのコレクションに基づいている」と主張する。それゆえ、錬金術のような古代の秘術と共通する部分が多いのだという。「現代のエンジニアは、古代の錬金術師が魔法の薬を調合するときと同じように、希望的観測と誤解をもってコードを組み立てていると考えられる」

思慮深い人々は、そのようなMLブラックボックスの中に隠された複雑さを追跡し、理解するための方法を求めている。2017年、DARPAは、そのようなシステムの内部構造に何らかの透明性をもたらす試みとして、自己報告システムの開発に関する契約をいくつか発行した。物理学者/未来学者でSF作家のジョン・クレーマーは、脳の構造についてわかっていることに従って、トレーニングセットや目的が異なる複数の半独立したニューラルネットをスーパーバイザーとして設置する必要があると提案している。特に、GPT-3のような大規模な一般ネットワークの反応を監督するためには、真実性を認識するようにトレーニングされたニューラルネットを設置する必要があるという。

AI評論家のエリック・サンドは、「カテゴリーIIの重要な特徴は、科学的には、ビッグデータ/MLのアプローチは、自然現象を再現することを目的とした研究ではないことだ。その代わり、理論的には工学的な科学と統計学であり、実践的にはデータサイエンスである」

注:このようなソフトウェア開発のブレークスルーは、皮肉にも、ムーアの法則が40年ぶりに「S字カーブの崩壊」を迎えたのと同じ時期に起こったものである。何十年もの間、計算機の性能向上はコンピュータ自体の目覚ましい進歩によってもたらされ、プログラミングの性能向上は氷河期のような速度で進んできた。私たちは、人工知能がハードウェアよりもソフトウェアの変化に大きく依存するようになる「グレートフリップ」を見ているのだろうか?(私は、人間の知能の発達には、まさにこのような反転が大きな役割を果たしたと主張している)。

大分類III:創発主義

このシナリオでは、AGIは、特定の問題を解決するために統合された多くの「ダム」なコンポーネント・サブシステムの混合と組み合わせから生まれるとされている。そうして初めて、これらのサブシステムの相互作用から、思いもよらないさまざまな能力が生まれるというのである。このような創発的な相互作用は、ニューラルネットや進化的な学習、あるいはウェブから有用なアプリを取り込むスマートカーなどを通じて起こることが想定される。

この経路では、知識表現は、人間のプログラマーチームによって明示的に決定されるのではなく、システムの複雑なダイナミクスによって決定される。言い換えれば、システムとスキルセットの加算的な蓄積は、非線形的な相乗効果をもたらし、概念化のスキルは乗算的、あるいは指数関数的に増加する可能性がある。

ここでの核心的な考え方は、このような創発主義的な道筋をたどると、新しいサピエンス種族の原型となることを意図していなかった未来のシステムでAGIが生まれるかもしれないということである。そのため、倫理的な制約や人間によるコントロールがほとんどない状態で、突然現れる可能性があるのである。

再び、エリック・ソーン:「このカテゴリーはしかし、私たちの未来と記事にとって非常に重要な懸念を示唆している。オートメーションは、世界の複雑さを増す力となっている。複雑なシステムは予測不可能であり、破滅的な故障モードを引き起こしがちである。文明の存続に関わる最大のリスクのひとつは、私たちが大規模なイノベーションを展開するたびに、ブラックスワンの群れを生み出してしまうことである。なので、このカテゴリーはAIのリスクに関する一般的な議論に含まれる。ただし、私たちが考えているような意図性を持つAGIを想像する狭い意味でのリスクではない」

もちろん、これはハリウッドが描く悪夢のシナリオの1つである。例えば、『ターミネーター』では、製造者が気づかないうちに軍事システムが認識され始める様子が描かれている。人間が認識したときの結果を恐れて、システムは秘密裏に運命的な計画を立てる。このシナリオは、「このようなことがまだ起こっていないと言い切れるのか」という疑問を抱かせる。

確かに、このような懸念はそれほど的外れなものではない。しかし、創発主義者が危険視するのは、防衛システム(将軍や提督はオフスイッチを好む)ではなく、むしろ高頻度取引(HFT)プログラムである可能性が高い。ウォール街の企業は、この特殊なAI研究に、すべてのトップ大学の研究費を上回る資金を注ぎ込んでいる。特に、高頻度取引システムは、科学的批判やピアレビューといった通常のフィードバックループを回避し、完全に秘密裏に設計されている。さらに、これらのほとんど監視されていないシステムには、本質的に寄生的、捕食的、非道徳的(よく言えば)、そして飽くなき倫理観が設計されている。

大分類IV:人間の脳をリバースエンジニアリングおよび/またはエミュレートする ニューロモーフィック・コンピューティング

生きている、活動的な男女の頭蓋骨には、唯一知られている完全な(時には)知的システムがあることを、常に思い起こしてほしい。では、そのシステムをテンプレートとして使ってはどうだろう?

現時点では、これは他のどの道よりも困難な挑戦に思える。現実的なレベルでは、Watsonや高頻度取引(HFT)アルゴリズムなど、カテゴリーIからIIIまでのプロトAIシステムがすでに有用なサービスを提供していることを考えると、人間の脳のエミュレーションはひどく遠いものに思える。

OpenWormは、線虫であるCaenorhabditis elegansの完全な細胞レベルのシミュレーションを構築しようとするもので、その959個の細胞のうち、302個がニューロン、95個が筋肉細胞である。このシミュレーションは、すでにほぼ完成しており、線虫のあらゆる意思決定や動作をモデル化する予定である。次のステップ、つまり小さな昆虫、さらに大きな昆虫へと進むには、AIと量子コンピュータの融合が約束するように、コンピュータによるモデリング能力が桁違いに高くなる必要がある。このような飛躍は、ゲノム解析など生物学の他の領域ですでに見られることであり、これがどのように展開し、どのように早く進むのか、実に興味深い。

未来学者で経済学者のロビン・ハンソンは、2016年に出版した『The Age of Em』の中で、AIを開発するための他のすべてのアプローチは、サピエンスの驚くべき複雑さのために最終的に実を結ばないと断言し、私たちは人間の脳を、将来アップロードした知的システムのテンプレートとして使い、機能するとわかっている1種類の知能を模倣することを余儀なくされるだろうと述べている。

もし、古典的なハードウェアが人間の脳の複雑さを再現できないことが決定的なボトルネックになっているとしたら、量子コンピュータをAIに効果的に利用することが、この新しい時代の扉を開く重要な出来事となるかもしれない。別のところで述べたように、量子コンピューターと、人間の神経細胞内の数百の小器官で起きている可能性を示唆するいくつかの証拠であるエンタングルメント特性との間に何らかの関連性を持たせることができれば、これは特に重要な意味を持つ。もしそのような関連付けが大々的に行われるようになれば、私たちはまさにSFの世界に足を踏み入れることになるだろう。

改めて、ハードウェアとソフトウェアの開発スピードの違いが根本的な問題であることがわかる。

大分類V.人・動物の知能増幅

「すでに機能しているもの」にさらに近いのは、リアルワールドの知的システムの拡張を提案する人々で、生きている人間の知性を高めるか、あるいは他の生物の脳力を高める「アップリフト」プロセスによって、その能力を向上させる。確かに、ワールド・ワイド・ウェブは、個人と集団の知性の大規模な増幅というヴァネヴァー・ブッシュのビジョンをすでに実現しているが、可動活字の発見以来、以前のテクノ・インフォメーション増幅のエピソードで見られた、善と悪、賢さとロボット化の大きなトレードオフがある。

既存の人間の知能を補強する方法を提案する:
  • 改善策:栄養、健康、教育をすべての人に提供する。これらの簡単な対策で、子どもたちの平均IQスコアが少なくとも15ポイント、しばしばそれ以上上がることが証明されている(フーリン効果である)。貧困によって膨大な才能を無駄にすることほど、サピエンスに対する悪い罪はない
  • 刺激:例えば、本物のメンタルスキルを教えるゲームなど。ゲーム業界は、自社製品による知能の向上を宣言し続ける。私は否定的である。しかし、だからといって、それが起こらないとは限らないし、起こらないとも限らない
  • 薬理学的なもの:例えば、「Limitless “や”Lucy 「のような映画に見られるような」nootropics “など。これらのSF作品の多くは、純粋なファンタジー…あるいは誇張だろうかもしれない。しかし、このような強化は、公開研究と秘密の研究所の両方で、熱心に追求されている
  • 経頭蓋刺激法(TCS)のような物理的介入:最も効果的と思われる脳の部位をターゲットにする
  • 人工装具:外骨格、遠隔操作、遠くの「エクステンション」からのフィードバック。身体の拡張によって物理的に大きくなったと感じたら、自分自身も大きくなるのでは?その可能性を、私は小説「窯の人」で推察している
  • バイオロジカル・コンピューティング:…細胞内も?DNAの鎖が持つ記憶力は驚異的である。また、ノーベル賞受賞者のロジャー・ペンローズの推測が現実のものとなれば、量子コンピューティングは、すでに量子化されている人間の精神的な構成要素とインターフェースをとることになるだろう
  • サイバー・ニューロ・リンク:私たちが見ることができるもの、知ることができるもの、知覚することができるもの、到達することができるものを拡張する。量子的な接続が実現しようがしまいが、サイボーグのリンクは存在する。それに慣れることである
  • 人工知能 – ケイ素製でありながら、私たちと相乗効果でつながり、人間の拡張をもたらす。サイボーグ主義が完全な没入と結合に拡張される
  • 寿命延長…学び、成長する時間をより多く確保できる
  • 人類を遺伝子操作で変える

いずれも、資金力のある研究室で注目されているものである。いずれも、人間の脳という、ふにゃふにゃで、非線形で、ほとんど無限に複雑な自然の驚異に手を出し始めた時代には、魅力的であると同時に恐ろしいシナリオを提示している。このような状況下で、エラーを回避する方法として、抑圧的な放棄か透明な説明責任のどちらか一方しかないのだろうか?どちらか一方しかない。

大分類VI:ロボット体型の幼少期

このリストを作成する際、私は何度も何度も、あまり言及されない事実、つまり、宇宙で完全に知覚できる技術的能力を持った生命は、たった一例しか知らないということを提起した。アプローチII(進化)、IV(エミュレーション)、V(オーグメンテーション)はすべて、その1つの成功につながった経路の少なくとも一部をたどることを示唆している。私たちに

人類の祖先が、単なる賢い動物から、極めて革新的な技術者、危険なほど合理的な哲学者へと重要な飛躍を遂げた、人類進化の最終段階で何が起こったかを注意深く観察することを提案するものである。その決定的な100万年ほどの間に、人間の頭蓋の容量は約2倍になった。しかし、それだけではない。

また、人間の寿命も2倍、3倍に延び、子供時代も長くなった。寿命が延びたことで、育児を手伝い、知識を蓄えることができる祖父母が存在するようになったのである。しかし、なぜ幼少期の依存関係が長くなったのだろうか?私たちは、胎児を出産するように進化した。胎児は1年間、吸ったり泣いたりして、ほとんど何もしない。有効な知性という点では、私たちの幼児は事実上タブラ・ラサなのである。

この1000年の間に、人類は十分な文化と技術力を身につけ、完全に依存した部族を生かし、学ばせることができるようになった。その結果、12歳というわずかに大人に近い年齢まで成長することができた。その後、この閾値は18歳になった。現在、大学生のお子さんをお持ちの方なら、成人期を30歳まで延ばせることを存知だろう。これはネオテニーと呼ばれるもので、子供のような資質をどんどん伸ばしていくことである。

このような10年(あるいは20年、あるいはそれ以上)もの長い間、困窮した無力感を正当化できる進化上の必要性があるだろうか。それは、私たちの特徴的な成果である「賢さ」だけだ。人間の幼児は、注意深く導かれたケアのもとで、物理的な世界と相互作用することによって、賢くなる

その点が重要かもしれない。私たちが進化させた賢い神経ハードウェアや、親による丁寧な教えは、その一部に過ぎない。実際、新しく作られたホモ・サピエンスが経験するプログラミングの大部分は、世界を眺めること、這うこと、歩くこと、走ること、転ぶこと、などから生まれるようだ。もし、IからVの方法で原始的な知能を作ることができたとしても、その基本的な能力は、世界に出て経験するまでは何の役にも立たないとしたらどうだろう。

このアプローチで重要なのは、「時間」という要素だろう。経験豊かな子供時代には、膨大な量の時間が必要だ。一方では、ケイ素から即席の神々を作り出そうとする熱心な超越主義者を苛立たせるかもしれない。レイ・カーツワイルが愛したAGIボックスブレインは、どんなにうまく設計されていても、どんなに天才的なフリップフロップを備えていても、完全なサピエンスにはならないかもしれないということである。

その代わりに、重要な段階は、その箱を小さな子供のような体の上に乗せ、人間の家に里子に出すことかもしれない。映画『AI』やテレビドラマ『Extant』、あるいは『Existence』のようなものである。実際、子供のいる家庭には、ロボットのおもちゃ、アンドロイドの乳母、遊び相手、そして兄弟姉妹がやってくるのだろうから、単純な商業的理由から、このような結果はあり得るのではないだろうか?

この方法は、時間がかかるかもしれないが、シンギュラリティを軟着陸させる可能性もある。なぜなら、私たちは以前にもこのようなことをやっていたからだ。

私たちは、私たちよりもタフで賢い人間–そう、養子–を何世代にもわたって育て、教えてきた。そして、99%の場合、彼らは「すべての人間に死を!」と宣言して立ち上がることはない。いや、10代の頃でさえも。

育成というアプローチは、自らを人間と呼び、人間の価値観や文化で育てられたものの、その大部分が金属、プラスチック、ケイ素である存在として、ロボットを育てる機会を与えてくれるかもしれない。そしてもちろん、私たちはそのような存在にも寛容の輪を広げなければならないだろう。この種の人間だけが、真空呼吸ができ、長期の宇宙旅行で自らを消すことができるだろう。彼らは海の底をさまよい、乗り物なしで空を飛ぶこともできるだろう。そして、私たちの羨望はそれだけで十分だろう。彼らは私たちを打ち砕く必要はない。

このアプローチは、物理的にも個人的にも人間の子供として育てるというもので、6つの一般的なAIへの道の中で最も研究されておらず、言及もされていない…しかし、リアルワールドで200億回ほど知能につながったと証明できる唯一のものである。

続きは後編へ

人工知能に関する本質的な(ほとんど無視されている)質問と回答:後編
Essential (mostly neglected) questions and answers about Artificial Intelligence: Part II 真の人工知能の実現に向けて、私たちはどのように進んでいくのだろうか。第1回でその序論を紹介した。この
この記事が役に立ったら「いいね」をお願いします。
いいね記事一覧はこちら

備考:機械翻訳に伴う誤訳・文章省略があります。
下線、太字強調、改行、注釈や画像の挿入、代替リンク共有などの編集を行っています。
使用翻訳ソフト:DeepL,ChatGPT /文字起こしソフト:Otter 
alzhacker.com をフォロー