「効果的加速主義」と宇宙的ユートピアの追求
シリコンバレーの難解な哲学的対立が、人工知能開発競争をどのように形成しているのか

強調オフ

テクノクラシー加速主義意識・クオリア・自由意志未来・人工知能・トランスヒューマニズム

サイトのご利用には利用規約への同意が必要です

www.truthdig.com/articles/effective-accelerationism-and-the-pursuit-of-cosmic-utopia/

TDオリジナル2023年12月14日

TESCREALコミュニティのすべての陣営は、最終的に遠い未来についてのファンタジーを共有している。イメージ アドビ

先日、サム・アルトマンがOpenAIから更迭され、その後1週間で復職したことで、さまざまな憶測が飛び交った。OpenAIの取締役会は、シリコンバレーで最も人気のある人物の一人である人工知能の顔を、なぜ解雇するに至ったのだろうか?

アルトマンの解任は、メディアで言うところの「効果的利他主義者」といわゆる。「加速主義者」の戦いの結末だったという見方もある。「EA」とも呼ばれる「効果的利他主義者」は、人工知能(AGI)への歩みを減速させたいと考えており、「加速主義者」はアクセルを踏み込みたいと考えている。

このシナリオによると、アルトマンは加速主義に傾倒し、イリヤ・サツキーバー、ヘレン・トナー、ターシャ・マコーリーなどの取締役はEAアプローチに沿った。結局、アルトマンがCEOに復帰し、サツキーバー、トナー、マコーリーが取締役から解任されたため、加速主義者が勝利した。EAの中には、この権力闘争は「(FTXの破綻と)同じくらいEAの評判を落とすものだ」と考える者もおり、その後、元CEOで共同創業者のサム・バンクマン=フリードが投獄された。サム・バンクマン=フリードは、彼の道徳的助言者である哲学者のウィリアム・マカスキルと並んで、間違いなく世界で最も著名なEAだった。

「加速主義」とは一体何なのか?EAとどのように対比されるのか。また、ティムニット・ゲブル博士と私が「TESCREALバンドル」と呼ぶイデオロギー群(シリコンバレーや主要な統治機関で絶大な影響力を持つようになったテクノフューチャー的な世界観の一群)とは関係があるのか。アルトマンがOpenAIに復帰したことで一気に勢いを増した加速主義運動については、一部の例外を除いて、一般的なメディアではほとんど取り上げられていない。

加速主義とEAには重要な違いがあり、加速主義者はブログ記事やインタビューでそれを強調するが、それぞれの未来像は多かれ少なかれ同じである。異なるイデオロギーの5×5フィートの地図を想像すると、加速主義とEAは1インチほど離れている。5歩下がれば、同じ場所にあるように見える。一方、労働者の搾取やアルゴリズムの偏り、偽情報の拡散やAIシステムの環境への影響など、AIが現実にもたらす害に焦点を当てるAI倫理の分野からは、両者とも3フィートほど離れている。

この地図の地形を理解するために、e/accとEAを顕微鏡で観察し、両者がどのように分岐し、どこで重なっているかを見てみよう。

加速論者と「減速論者」:AGIの危険性に関する2つの見解。画像アドビ

加速論とEAの違いは、2つの領域に分けられる。最も重要なのは、AGIがもたらす「人類存亡リスク」に対するそれぞれの評価である。加速論者は技術的に楽観的であり、リスクは非常に低いか存在しないと考えている。現代の加速主義の思想的指導者の一人であるギヨーム・ヴェルドン(「ベフ・ジェゾス」というスプーナー風のペンネームでよく知られている)の言葉を借りれば、AGIによる実存的な大災害は「ゼロか、ゼロに近い確率」で起こるという。もう一人の代表的な加速論者であるハイテク億万長者、マーク・アンドリーセンは、自身のマニフェストのひとつで、「良いニュースを伝えるためにここにいる」と宣言している:AIは世界を滅ぼすことはなく、むしろ世界を救うかもしれない。

EAの多くは、少なくともAGIのような特定の仮想技術に関しては、より技術的に慎重な傾向がある。一般的なメディアや加速論者は、この対立するグループを「EA」と呼ぶことが多いが、より正確なレッテルは “長期主義であろう。というのも、EAとは広範なテントであり、AGIや人類存亡リスク、それに類する事柄にそれほど関心のない人々も多く含まれているからだ。伝統的にEAは、世界の貧困の緩和、動物福祉の向上、長期主義という3つの主要な活動分野を区別してきた。2009年頃にEAが結成された当初は、世界の貧困に焦点を絞っていた。しかし、時が経つにつれ、EAの主要人物や助成団体は、AGIの存続に関わるリスクの軽減など、より長期的な課題へとシフトしていった。

その理由はこうだ:すべてのEAの基本的な目的は、世界で可能な限り「良いこと」をすることである。世界的な貧困の緩和や工場農場の廃止は、そのための明らかな方法のように思える。しかしEAは、人類が今後1世紀ほど生き延びれば、おそらく宇宙にまで広がっていくであろうこと、そして宇宙は巨大で何兆年も居住可能なままであることに気づいた。その結果、この壮大で宇宙的な視点に立ち、時空間における私たちの位置づけを考えれば、存在しうるほとんどの人々が遠い未来に存在することは明らかだと思われる。つまり、私たちが地球を越え、アクセス可能な宇宙を植民地化した後なのである。もしあなたが最も多くの人々にポジティブな影響を与えたいのであれば、そしてほとんどの人々が遠い未来に生きているのであれば、あなたは今日のあなたの行動が、彼らが良い人生を送るだけでなく、そもそも存在するようになるのを助けることができるかに焦点を当てるべきであるということになる。

AGIとの関連は、EA長期主義者(略して「長期主義者」)が、AGIは宇宙を植民地化し、想像を絶する数の未来の人々(ちなみに、そのほとんどは、広大なコンピューター・シミュレーションの中で生活するデジタル人間であろう)を創造するために不可欠であると信じていることである。つまり、この「倫理的」な未来像と「価値観が一致」したAGIを構築することである。もしAGIを間違えれば、ほぼ間違いなく人類は滅亡し、EA運動の共同創設者である長期研究者トビー・オードの言葉を借りれば、私たちとともに、この「広大で輝かしい」天空の未来も滅亡してしまうということだ。

したがって、AGIをどのように構築するかにすべてがかかっているのだ。何兆年、何兆年先の未来、銀河系にまたがる人類の未来全体が、天秤にかかっているのである。そして、多くの長期的研究者によれば、私たちはAGI構築の入り口に立っており、これは人類の歴史だけでなく、宇宙の歴史においても絶対的に重要な瞬間にいることを意味する。今後数年、あるいは数十年のうちに、高度なAIを使って何をするかによって、宇宙が意識のある存在で満たされるようになるか、それともスペースとエネルギーの無駄遣いであり続けるかが決まるかもしれないのだ。

彼らは、今後数年から数十年の間に我々が構築するAGIが、その創造者に牙を剥き、我々を絶滅させ、それによってすべてを台無しにするのではなく、天国のようなテクノ・ユートピアへの扉を開くことを、とてもとても確かめたいのだ。過去20年にわたり、ロングターミスト(この言葉自体は2017年まで使われていなかったが)は、このように、お粗末に設計されたAGIがどのように、そしてなぜ我々を死に至らしめる可能性があるのかについて、様々な議論を探求し、発展させてきた。

加速論者は、こうした議論は非科学的で、過度に悲観的だと主張する。加速論者から見れば、「脱線」ほど悪いものはないのだが、これは加速論者と長期主義者がイデオロギー地図上で何マイルも離れているという誤った印象を与えかねない。

加速論者からすれば、「減速」ほど最悪なものはない。加速論者と長期主義者がイデオロギー地図上で何マイルも離れているという誤った印象を与えかねない。

これは、両陣営の2つ目の意見の相違を指し示している。長期主義者の考えでは、AGIを正しく理解することが極めて重要であるため、AGIを「人類」の「価値観」-長期主義者は暗に自分たちの価値観を意味している-に適切に「合わせる」方法を見つけ出す必要がある。この目的のために、長期主義者たちは、AGIがどのように実存的大災害を引き起こす可能性があるのか、そしてそれを回避するために私たちに何ができるのかに焦点を当てる、現在「AIセーフティ」と呼ばれる分野を確立した。このように、AIの安全性という分野は、長期主義者の運動から直接生まれたものであり、「価値観の一致した」AGIを設計する問題を「価値観の一致問題」と呼んでいる。

長期研究者は、現在の状況をAIの安全性とAIの能力研究の間の絶望的な競争と想像している:もしAIの安全性研究が価値調整問題の解決策を見つける前に能力研究がAGIを生み出した場合、「ずれた」AGIは「デフォルト」で地球上のすべての人を殺すだろう。もしAI安全性研究が、能力研究がAGIを生み出す前に価値調整問題を解決すれば、AGIは「調整」され、我々は星々の間でユートピアを手に入れるだろう。

長期研究者によれば、AIの安全性研究はAIの能力研究よりも遅れているため、近い将来、私たちは全滅の危機に瀕することになると考えている。能力研究を減速させ、安全研究が追いつくようにする必要があると主張するのはこのためだ。エリエイザー・ユドコフスキーのような著名なAI破滅論者は、AIの「禁止」を呼びかけているが、一方でそのような研究の「一時停止」を主張する者もいる。

しかし、どうすればそのような禁止や一時停止を実施できるのだろうか?そこで政府の出番となる。長期主義者は、オープンAI、ディープマインド、アントロピック、イーロン・マスクの会社xAIのようなAGIの構築を目指す研究プロジェクトを政府が規制しなければならないと主張する。アルトマン自身もこのような主張をしており、彼は本格的な加速論者ではないが、AI安全派に片足を突っ込んでいることを示唆している。本格的な加速論者にとっては、いくつかの理由から、これは深く見当違いである。

第一に、彼らはAGIがもたらす人類存亡リスクは無視できるか存在しないと考えているため、そのような規制はまったく無意味である。その唯一の効果は、AIの進歩を遅らせ、それによって彼らが想像するテクノユートピア世界を遅らせることであろう。

第二に、加速論者の多くはリバタリアンであり、AGI建設競争への政府の干渉に反対している。彼らは、たとえAGIが実存的なリスクをもたらすとしても、自由市場がこれらのリスクを軽減する最善の方法であると言うだろう。これが、彼らが高度AIシステムのオープンソース化を提唱する理由:危険なAGIに対抗する最善の方法は、善良なAGIが1,000種類存在することなのだ。力には力で対抗する。ここでの彼らの主張は、全米ライフル協会の「銃を持った悪人を止める唯一のものは、銃を持った善人である」という主張とそれほど変わらない。千のAGIに花を咲かせれば、ユートピアの草原ができる。

つまり、長期主義者は技術的に慎重であり、加速主義者は技術的に楽観的である。また、長期主義者は慎重に行動するために政府の介入が不可欠な役割を果たすと考えているのに対し、加速主義者は、政府の介入は事態を悪化させるだけであり、同時にユートピア的な未来世界への進歩の歩みを遅らせるだけだと考えている。

これが、加速主義と長期主義の最初の大きな違いである。2つ目は、両者の特定の将来像に関するものである。後述するように、どちらも深いユートピアであり、実際にはほとんど区別がつかない。

ここで、特にアルトマンがOpenAIで更迭されて以来、最近注目を浴びている加速主義について説明しておこう。いわゆる「効果的加速主義」であり、略称は「e/acc」である。これは、極右の人種差別主義哲学者であり、”人工知能が十分に向上したときに避けられないとされる「人類種の崩壊」について書いているニック・ランドの加速主義に通じるものがある。しかし、e/accは「ベフ・ジェゾス」ことヴァードンの発案によるもので、ヴァードンはこれを熱力学に根ざしたものだと説明している。特に、ヴァードンはMITの物理学者ジェレミー・イングランドが提唱した非常に推測的な理論に基づいて、彼の壮大な終末論的ビジョンを描いている。しかし、ヴァードンの文章を読むと、この理論が確立された科学であるかのような印象を受けるが、そうではない。

私が理解できる限りでは(そしてヴァードンがイングランドの理論を正しく理解しているとは確信できないが)、宇宙はエントロピーが最大、つまり無秩序な状態に向かっているという考え方だ。熱力学第二法則は、エントロピーが最大になるまで増大することを示唆している。ヴェルドンは次に、イングランドの研究の一部から、生命が誕生したのは基本的に、このプロセスを助けることができたからだと主張する。我々は環境から使用可能なエネルギーを取り出し、それを使用不可能なエネルギーに変換することで、エントロピーを増大させている。「知性」が進化したのは、より「知的」な生き物の方が、この変換を触媒する能力が高いからである。この考えを生物学から経済学に拡張すると、イングランドは確かにそうしないが、ヴァードンは、企業、会社、資本主義そのものが、エネルギーを使い切るのにさらに効率的な超人的知性の一種であり、銀河系に広がる巨大で広大な文明は、さらに効率的であろうと主張する。

ヴェルドンの結論は、我々は「宇宙の意志」に寄り添い、ますます強力なテクノロジーを構築し、最終的には宇宙全体を植民地化しなければならないというものだ。哲学科の学生なら誰でもすぐに気づく誤謬である

別の言い方をすれば、e/accも長期主義者も、最終的な目標は何かを最大化することだと考えている。

「効果的に加速する」ことが実際に意味するのは、「カルダシェフの勾配を登る」ことであり、カルダシェフ・スケールとしても知られている、とヴァードンは説明する。カルダシェフ・スケールとは、文明が使用できるエネルギーの量によってランク付けされたものである。タイプ1の文明は、その惑星のエネルギーをすべて利用する。タイプ2の文明は、最も近い恒星が生み出すエネルギーをすべて利用する。タイプ3の文明は、銀河系のエネルギーをすべて利用する。文明がより多くのエネルギーを取り込み、利用すればするほど、その文明は「宇宙の意志」に沿っていることになる。だからこそ、ヴァードンのようなe/accは、テクノロジーの発展を加速させ、カルダシェフ・スケールを上昇させるためにできることはすべてやるべきだと考えているのだ。彼らは、AGIを構築することがそのための最善の方法であると主張しているので、我々はAGIの研究を加速させる義務がある。

これは、長期主義者の究極の目標である「道徳的価値」の最大化とは対照的である。道徳的価値とは、宇宙における快楽体験の総量として理解できるかもしれない。だからこそ、彼らは「安全な」AGIを構築し、宇宙に拡散し、何兆、何兆ものデジタルピープルが暮らす巨大なコンピューターシミュレーションを作りたいのだ。楽しい経験をする人が多ければ多いほど、楽しい経験の総量は増える。そして、楽しい経験の総量が増えれば増えるほど、宇宙は道徳的にみてより良いものになる。

別の言い方をすれば、e/acc派も長期主義者も、究極の目標は何かを最大化することだと考えている。この「何か」とは、e/acc派にとってはエネルギー消費であり、長期主義者にとっては、より一般的な意味での「価値」である。とはいえ、エネルギー消費を最大化することは、長期主義者にとって重要な「価値」を最大化する最善の方法かもしれない。

しかし、全体像を把握すれば、相違点よりも親和性の方がはるかに高いことがわかる。e/accとEAロングターミズムの間の意見の相違は、家族間の争いとして理解されるべきである。実際、いくつかの資料が示唆するように、e/accはまったく別個のものではなく、むしろTESCREALのイデオロギーの束の延長あるいは変種と見るのが理にかなっている。e/accの発展は、TESCREALのイデオロギーによって様々な形で形作られてきたし、未来がどのようなものであるかというビジョンと、この未来を実現するために私たちがどのように進むべきかについての説明は、TESCREALのバンドルに含まれるすべてのイデオロギーと非常に密接に連携している。

簡単に説明すると、「TESCREAL」という頭字語は、トランスヒューマニズム、エクストロピアニズム、シンギュラリティ主義、宇宙主義、合理主義、そしてもちろん、効果的利他主義と長期主義を表している。Truthdigの他の記事で説明しているので、ここでこれらの多義的な単語を定義する必要はない。TESCREALバンドルがジャーナリスト、政治家、政策立案者、そして一般の人々にとって重要である理由は、まさにこのバンドルが今日の世界、特にシリコンバレーで絶大な影響力を持っているからである。TESCREALバンドルは、実際、AGI構築競争の最初の火付け役となったものである。このバンドルについてのある程度の理解なくして、AGI競争を理解することはできない。

そもそも「効果的加速主義」とは、「効果的利他主義」をもじったものである。ヴェルドンによれば、e/accは、トップダウンではなくボトムアップで進む「創発的利他主義」と呼ばれる「利他主義」の一種として理解できるという。つまり、e/accの利他主義は、自由市場における制約のない競争を通じて、つまり「経済的権力と主体性を柔和な人々の手に委ねる」ことによって生まれるということである。これは、1000のAGIを開花させるというアイデアに通じる:AI企業間の競争が激化すればするほど、そして彼らが作るAGIがユートピア的でさえあるほど、ポジティブな結果をもたらす可能性は高まる。これとは対照的に、ヴァードンはEA長期主義の利他主義をよりトップダウン的なものだと考えている。

「効果的加速主義」の「効果的」という言葉について訊かれたヴァードンは、「文明の範囲と規模の拡大に最も大きな影響を与える、私たちが今できる行動を見つける」という意味だと答えた。これはEAの言葉とも類似しており、EAはその中心的な目標を、世界で「最大」あるいは「最高の影響力」を持つことと定義している。EAの公式サイトが述べているように、「目的は、現在の取り組みにおける最大のギャップを見つけることであり、追加的な人間が最大の影響を与えることができる場所を見つけることである」ヴェルドン自身、今年初めのインタビューで「EAとe/accはかなり多くの点で一致している」と断言している。彼はこう続ける:

結局のところ、私たちはともに文明と万人の利益を重視している。ただ、その方法が違うだけだ。そして、私たちが最適化しようとしていることも違う。私たちの場合、AIは文明の進歩に向け、巨大な善と巨大な効用をもたらす最も強力なテクノロジーの1つである、というのが主な相違点だ。そして、私たちは……AIが私たちを破滅に導くという架空の物語に神経質にこだわるべきではない。

先に述べたように、主な相違点はAGIの存続リスクに関するものである。しかし、e/accとEAの長期主義者は、文明を発展させることが最も重要であることに同意している。実際、両者とも可能な限り文明を発展させるべきであり、それは宇宙への拡散とカルダシェフ・スケールの上昇を意味する。オルドとEAを共同設立した長期主義者の第一人者であるマカスキルは、長期主義者の悲願である『未来に誓うもの』の中で、「もし未来の文明が十分なものであるならば、私たちは単に目先の絶滅、例えばAGIによる絶滅を避けようとすべきではない」と書いている。「未来の文明が大きくなることを望むべきだ。未来の人々が十分に裕福であるならば、2倍の長さ、2倍の大きさの文明は、2倍良いということになる」彼はさらに、「この現実的な結果は、宇宙定住のための道徳的なケースである。文明の未来は文字通り天文学的な規模になる可能性があり、繁栄し、栄える社会を実現するのであれば、そうすることは非常に重要である。」

ヴェルドンとe/accの同僚たちは、e/accが「人類が地球を越えて広がることができるよう、惑星間輸送と恒星間輸送を開発する」ことに努めていると書いているが、この偉業にはおそらくAGIが必要だろう。

e/accも長期主義も、その核心は人口増加主義であり、極めて成長主義的である。マカスキルは著書の中で、世界的な人口減少を憂慮してかなりの量のインクをこぼしている。彼は、「研究者を含む人間の労働者に取って代わる人工知能(AGI)を開発する」ことによって、それに対抗できるかもしれないと言う

マカスキルの著書に関連する懸念は「技術的停滞」の可能性であり、彼はこれを我々の長期的な未来に対する重大な脅威と見ている。停滞は「絶滅と永久崩壊のリスクを高める可能性がある」と彼は言う。ヴァードンは、「停滞は成長よりもはるかに危険である」と書いているが、これとほとんど同じことを言っている。

E/accと長期主義者は、AGIの実存的リスクとは何かという点については見解が異なるものの、人類存亡リスク(宇宙における我々の「長期的可能性」の達成を妨げるような出来事)を軽減することの重要性については同意している。ヴァードンが言うように、e/accは「生命全体に対する人類存亡リスクを最小化する」ことを目指しており、EA長期主義者のより人間中心的な視点とは対照的である。ヴァードンによれば、未来の生命は生物学的なものではなく、完全に技術的なものである可能性があり、彼は長期主義者が現在の人類、あるいは現在の人類にまだ近い修正された未来の人類を維持することにとらわれすぎていると考えているようだ。

最も著名な長期主義者たちは、テクノロジーを使って人類を根本的に改造し、現在の人類とはまったく異なる新しい「ポスト・ヒューマン」種を1つ以上生み出すべきだと考えている。

最も著名な長期主義者たちは、テクノロジーを使って人類を根本的に再構築し、現在の人類とはまったく異なる新しい「ポスト・ヒューマン」種を1つ以上生み出すべきだと考えている。例えば、オルドは「現在の人類を永久に保存することは、我々の遺産を浪費し、我々の可能性の大部分を放棄することにもなりかねない」と書き、ボストロムは「人間の生物学的本性にこのような変革をもたらす可能性を永久に閉ざすこと自体が、実存的破局を構成するかもしれない」と主張している。

これがトランスヒューマニズムのイデオロギーであり「TESCREAL 」の「T」である。ヴァードンと同僚は、「e/accはトランスヒューマニズムとは対照的に、知性と生命のための生物学的基盤に特別な忠誠を誓っているわけではない」と書いているが、実際のところ、ほとんどのトランスヒューマニストは生物学的基盤にも忠誠を誓っていない彼らの目的は、長期主義者のイデオロギーに包摂されているが、完全に非生物学的な新しい種を創造すること、あるいはそうなることである。金属、プラスチック、ワイヤー、コンピューター・ハードウェアで構成された「身体」を持つポスト・ヒューマンになることへの偏見はない。実際、長期主義者のビジョンは、基本的に、完全に生物学的な存在には不可能であろう宇宙への拡散と、膨大なデジタル人間の群れのシミュレーションにある。このような未来の存在に道徳的価値がある限り、私たちが今日着て歩いている生物学的な「ミートサック」などクソ食らえなのだ。

そして、道徳的価値、つまり「倫理的」な意味で重要なものには何が必要なのだろうか?最も明白な答えは「意識」である。もし未来の存在に意識がないのなら、道徳的に言えば、石ころが重要でないのと同じ理由で、未来の存在は重要ではないだろう。石を蹴るときによく考えないのは、石は何も感じないからだ。子猫を蹴るときは、子猫は何かを感じることができるので、よく考えるだろう。

ボストロムが、「機械の知性が生物学的知性に取って代わるが、その機械は意識を欠くように作られている」と書いているのは、意識と道徳の関係があるからである。機械が生物学に取って代わるのは構わないが、意識のない機械が生物学に取って代わるのは問題である。イーロン・マスクの言葉を借りれば、「意識の光が未来に続くように維持する」ことが、長期的な視点に立つ者にとっては不可欠なのだ。(マスクはボストロムのデジタル植民地化のビジョンを推進し、長期主義を「私の哲学に近い」と呼んでいる)。同様に、ヴァードンは「e/accとは、意識の光を星々に広げるために、知識の光を可能な限り明るく照らすことだ」と書いている。

このような目的に沿って、長期主義者はカルダシェフ・スケールを上昇させるべきだという意見にも同意している。オードは、長期主義と人類存亡リスクに関する著書『The Precipice(絶壁)』の付録で、カルダシェフ尺度を拡張し、第4のタイプの技術的に高度な文明、すなわち宇宙全体のエネルギーを利用する文明を含めることを提案している。「我々の地球文明は、現在約12兆ワットのパワーを支配している」と彼は書き、「これは我々の惑星の全能力の約1万分の1であり、タイプ4の文明が自由に使える4×10^46ワットのパワーには到底及ばない」と付け加えた。宇宙を征服し、自然界を征服することによってこの膨大なエネルギーを利用することは、宇宙における我々の「長期的な可能性」を実現するための重要な要素である。

TESCREAL内のAGI論争では、両陣営とも最終的な意識のデジタル化を想定している。 画像はイメージ:アドビつまり、e/accと長期主義にはかなりの類似点と重複点がある。どちらも人類の究極の目標を追求する上で「効果的」であることの重要性を強調し、自分たちの立場を一種の「利他主義」と表現している。両者とも、カルダシェフ・スケールの頂点に位置する多銀河文明が支える、最大限の人口を目指す。両者とも、「意識の光」を維持する義務を肯定している。そして両者とも、現在の状況がどれほど危険であるかについての評価は異なるものの、実存的なリスクを懸念している。

この最後の点をさらに詳しく述べると、ヴァードンと同僚は、「宇宙で意識が失われることは(中略)最悪の結果であると書いている。E/accの研究者たちは、テクノロジーが進歩すればするほど、「宇宙の片隅で意識のある生命をすべて消滅させることが容易になる」とさえ認めている。オードが「今世紀はそのリスクが高くなり、技術の進歩が続くごとに高くなると信じる強い理由がある」と断言したり、ボストロムが「最大の人類存亡リスクのほとんどは、外界や我々自身の生物学を操作する能力を根本的に拡大する可能性のある、将来の技術的飛躍的進歩に関連しているようだ」と宣言したりするように、まさに長期主義者が言うことなのだ。

Twitter/Xの経歴に「e/acc」を含むアンドリーセンは、加速主義の主な「敵」の1つとして「人類存亡リスク」という考え方を挙げているが、彼が本当に言いたいのは、AGIのリスクについて考えるための技術的に慎重なアプローチは、制約のない技術進歩という彼自身の加速主義のビジョンに「人類存亡リスク」をもたらすということだ。アンドリーセンは、長期主義者ほど「人類存亡リスク」を心配しているわけではない。ただ、それがどのようなリスクなのかについて意見が分かれているだけである。彼にとって、「ディセル」はAGIよりもはるかに大きなリスクである。

最後に、e/accも長期主義も、極めて成長主義的、自由主義的、新自由主義的、資本主義的である。長期主義者は、AGIが国家介入やトップダウンの規制に対するルールの例外を構成すると考える傾向があるだけである。この最後の点は強調しておきたい:長期主義者の多くは、AGIやその他の先端技術に関するものを除き、政府による規制に反対している彼らはAGIの規制を支持しているので、リバタリアンではないように見えるかもしれないが、一般的にはそうではない。

長期主義者の多くは、AGIやその他の先端技術を除いて、政府の規制に反対している。

最近、誰かがツイッター/Xに投稿した質問を考えてみよう。”核兵器、生物兵器、AIを利用した戦争、権威主義的な監視以外のあらゆるものに対するe/acc “は存在するのだろうか?これに反応した一人が、今世界で最も有名なドゥーマーであるユドコフスキーが2000年に設立した機械知能研究所で働くAIドゥーマー、ロブ・ベンシンガーだった。「私が最後に確認したところでは、その種のe/accの用語は “doomer 「です」とベンシンガー氏は答えた。言い換えれば、AI破滅論者は、AGIと関連技術以外のすべてについて加速論者であり、実際、ユドコフスキーのような破滅論者はAI加速論者として出発したが、その後、AGIについては例外とするようリバタリアン的見解を修正した。ユドコフスキーがMIRIを立ち上げた当初は、「シンギュラリティ人工知能研究所(Singularity Institute for Artificial Intelligence)」と呼ばれており、その明確な使命は「人工知能への加速」であった。

OpenAIで一時的にアルトマンの後任を務めたエメット・シアーは、ベンシンガーと同じことを言う:「私はドゥーマーであり、人間レベルのAGIを構築する試み以外は、基本的にすべてe/accである」また、「私は技術楽観主義者だが、人間レベルの(AGIが)破滅的に危険なものになる可能性もあると信じている」とも書いている。

したがって、e/accとEAの長期主義の違いは比較的小さい。e/accはインタビューやブログ記事でこうした違いを誇示したがるが、2つの立場はイデオロギー地図上ではほぼ同じ位置を占めており、実際、両者の将来像は多かれ少なかれ区別がつかない。

E/accは、EA、長期主義、トランスヒューマニズムに加えて、他のTESCREALイデオロギーとも重要なつながりがある。例えば、e/accは「テクノキャピタル・シンギュラリティ」と呼ぶものに執着している。彼らはこれを「宇宙からフリーエネルギーを発見/抽出し、それをより壮大なスケールで効用に変換する」ことの「漸近限界」と定義している。テクノキャピタル・シンギュラリティを実現することは、「宇宙の意志」を実現するために不可欠である。

シンギュラリティという概念は、『TESCREAL』の「S 」である「Singularitarianism」と呼ばれるトランスヒューマニズムに由来する。シンギュラリティにはさまざまな定義があるが、有力な説明のひとつは、技術進歩が急速に加速して人類の歴史を断絶させ、宇宙における新たなエポックが始まると想像している。そして宇宙そのものが、”目覚め“始めるのだ。この説明によれば、シンギュラリティに不可欠なのは、人間が機械と融合することであり、e/accもこの考えを熱狂的に支持している。例えば、ヴァードンは、「人間と機械のコラボレーションとオーグメンテーションを促進するため、より多くの取り組みに資金を提供する方法を見つける」ことに「強気」であり、これを彼は「トランスヒューマニスト的前進」と呼んでいる。E/accは、シンギュラリストの世界観の上に、AGIが触媒となって到来するシンギュラリティがどのようなものになるかについて、独自の解釈を加えている。

e/accの面々はインタビューやブログ記事でこうした違いを誇示したがるが、この2つの立場はイデオロギー地図上ではほぼ同じ位置を占めており、実際のところ、彼らの未来像は多かれ少なかれ区別がつかない。

e/acc運動には、エクストロピアニズムの要素も顕著に見られる。TESCREALの「E」であるExtropianismは、あらゆる問題に対する自由市場による解決策を支持する自由主義的なトランスヒューマニズムのバージョンであり、「proactionary principle」と呼ばれる「予防原則」の代替案を提唱している。これは、新しい技術を生み出すかどうかを決定する際には、それを生み出さなかった場合に生じるかもしれないすべての害を考慮しなければならない、というものだ。アンドリーセンは、この考え方を取り入れて、加速主義者のマニフェストの中で、「AIの減速は人命を犠牲にすると考える」と書いている。「AIが存在しないようにすることで防げた死は、殺人の一種である。」と。別の言い方をすれば、高度なAIに反対するのであれば、あなたは殺人者と変わらないということだ。多くの点で、E/accはAGIを中心としたExtropianismのアップデート版である。ヴァードンは、30年前にExtropianによって広められた言葉を借りて、自身のAI会社を「Extropic」と名付けたほどだ。

最後にヴェルドンは、「e/accは、基本的な加速主義的フレームワークにコスミズムを加えている」とも言う。『TESCREAL』の「C」であるコスミズムとは、人類がAGIを構築し、機械と融合するだけでなく、宇宙に広がり、「科学的な「未来の魔法」によって銀河全体を文字通り再設計することを想像する、トランスヒューマニズムのまた別の種類である。e/accの壮大な願望は、コスミズムの願望と極めて類似している。事実、ジュリオ・プリスコというコスミストは最近、e/accについての論文を発表し、その中で「エクストロピー、フューチャリズム、コスミズムは精神的に強く関連しており、e/accはその共通の精神の新たな例なのだろう」と結論づけている。

したがってE/accは、特異点を提唱し、全宇宙を支配するという宇宙主義者の夢を共有するエクストロピアニズムの延長線上にある。

これは、TESCREALの頭文字に「e/acc 」を加えるべきだという意味だろうか?運命論者と加速論者はTESCREAL運動の変種にすぎない。破滅論者と加速論者は、TESCREAL運動の亜種にすぎない。一方はAGIのような特定の先端技術に慎重で、もう一方は技術的に楽観的である。どちらも、トランスヒューマニズムをルーツとし、過去20年間にシリコンバレーで広まった、超資本主義的でテクノユートピア的な思想の伝統の一部である。だからこそ、両陣営の争いは単なるお家騒動と見るべきなのだ。

e/acc派と「ディセル」派がAGIのリスクについての意見の相違を乗り越えさえすれば、彼らは手をつないでユートピアの夕日に向かってスキップしながら、宇宙を征服し人類をデジタル化するという歌を歌う恋人同士になれるだろう。私の見解では、どちらもそれなりに危険である。e/accはOpenAIの不手際の後、先手を打ったようだが、我々の未来がどのようなものになるかは、どちらもコントロールできないことを祈ろう。

この記事が役に立ったら「いいね」をお願いします。
いいね記事一覧はこちら

備考:機械翻訳に伴う誤訳・文章省略があります。
下線、太字強調、改行、注釈や画像の挿入、代替リンク共有などの編集を行っています。
使用翻訳ソフト:DeepL,ChatGPT /文字起こしソフト:Otter 
alzhacker.com をフォロー