長期主義に反対
それは人類の未来に関するフリンジ哲学的理論として始まった 現在では資金も豊富で、ますます危険になっている

強調オフ

トランスヒューマニズム、人間強化、BMI未来・人工知能・トランスヒューマニズム

サイトのご利用には利用規約への同意が必要です

aeon.co/essays/why-longtermism-is-the-worlds-most-dangerous-secular-credo

カナダ、アルバータ州フォート・マクマレーにあるタールサンド開発でできた尾鉱池の危険から渡り鳥を遠ざけるかかし。写真:Larry Towell/Magnum

Against longtermism

人類が「終わりの時」に近づいているのではないかという認識が広がっているようだ。ニュースでは大災害の悲惨な予測が飛び交っている。地獄のような山火事、壊滅的な洪水、COVID-19患者で溢れかえる病院のソーシャルメディア動画が、私たちのタイムラインを支配している。「絶滅の反乱」の活動家たちは、世界を救おうと必死になって都市を閉鎖している。ある調査では、人類の未来について尋ねた人々の半数以上が、「今後100年以内に私たちの生活様式が終わるリスクを50%以上と評価」している。

「終末論」、つまり終わりの時が迫っているという信念は、もちろん目新しいものではない。人々は何千年もの間、終わりが近いことを警告してきたし、実際、多くの新約聖書の研究者は、イエス自身が存命中に世界が終わることを予期していたと信じている。しかし、今日の状況は過去とは根本的に異なっている。現在議論されている「終末論的」シナリオは、宗教的預言者の啓示や(マルクス主義の場合のような)人類史の世俗的なメタナラティブではなく、気候学、生態学、疫学などの分野の第一人者によって擁護された、確固たる科学的結論に基づいている。

例えば、気候変動が文明に悲惨な脅威をもたらすことは分かっている。生物多様性の喪失と6度目の大量絶滅は、地球生態系に突然、不可逆的で破滅的な変化をもたらす可能性がある。熱核交換が起これば、太陽が数年から数十年にわたって消滅し、世界の農業が崩壊するかもしれない。SARS-CoV-2が武漢の研究所で作られたのか、それとも自然の台所で調理されたのかにかかわらず(現在は後者の可能性が高い)、合成生物学によって、ダーウィンの進化論が発明しうるどんな病原体よりもはるかに致死的で伝染性の高い病原体を、悪意ある行為者が設計することが間もなく可能になるだろう。哲学者や科学者の中には、機械の超知能や分子ナノテクノロジー、成層圏の地球工学に関連する「新たな脅威」についても警鐘を鳴らし始めている。

このような考察から、スティーブン・ホーキング博士が2016年に『ガーディアン』紙に書いたように、多くの学者が『我々は人類の発展において最も危険な瞬間にいる』と認めている。例えば、マーティン・リース卿は、文明が2100年まで生き延びる可能性は五分五分だと見積もっている。ノーム・チョムスキーは、滅亡のリスクは現在「ホモ・サピエンスの歴史上前例がない」と主張している。そしてマックス・テグマークは、「おそらく我々が生きている間に、自滅するか、行動を共にするかのどちらかになるだろう」と主張する。このような悲観的な宣言と一致するように、2020年、原子力科学者協会(BSAT)は、その象徴的な終末時計を、1947年に時計が作られて以来、最も近い真夜中(または破滅)のわずか100秒前に設定し、世界中の11,000人以上の科学者が、2020年に「地球が気候の緊急事態に直面していることを明確かつ明白に」、そして「生物圏を保護する努力の規模を大幅に拡大しなければ、気候危機によって計り知れない苦しみに見舞われる危険がある」とする論文に署名した。若き気候活動家シエ・バスティーダが2019年の『ティーン・ヴォーグ』誌のインタビューでこの実存的なムードを要約しているように、目的は「私たちが最後の世代にならないようにする」ことであり、これは今や非常に現実的な可能性に見えるからだ。

今日、人類が直面している未曾有の危機を考えれば、哲学者たちは人類の滅亡、あるいは文明の永久崩壊といった関連シナリオの倫理的意味合いについて、かなりの量のインクをこぼしているだろうと予想される。私たちの消滅は道徳的にどの程度悪いのか(あるいは良いのか)、どのような理由からなのか。未来の世代の誕生を妨げることは間違っているのだろうか?過去の犠牲、闘争、努力の価値は、人類が地球、あるいは宇宙全体が居住可能である限り存在し続けることに依存しているのだろうか?

しかし、そうではない。私たちの絶滅というテーマは、最近まで哲学者たちから持続的に注目されることはほとんどなく、現在でも哲学的議論や討論の片隅にとどまっている。全体として、哲学者たちは他の問題に夢中になっている。過去20年間、主にオックスフォードを拠点とする少人数の理論家グループが、長期主義と呼ばれる新しい道徳的世界観の詳細の解明に奔走してきた。長期主義とは、私たちの行動が宇宙の超長期的な未来(数千年後、数百万年後、数十億年後、さらには数兆年後)にどのような影響を及ぼすかを重視するものである。この考え方のルーツは 2005年にFuture of Humanity Institute(FHI)という壮大な名前の研究所を設立したニック・ボストロムと、FHIのリサーチアソシエイトでOpen Philanthropyのプログラムオフィサーであるニック・ベックステッドである。また、FHIの哲学者であり、『The Precipice: Existential Risk and the Future of Humanity』(2020)の著者であるトビー・オード(Toby Ord)により、最も公に擁護されている。長期主義は、ヒラリー・グリーブスが率いるFHIの関連組織であるグローバル・プライオリティーズ・インスティテュート(GPI)と、同じくFHIとGPIで役職を務めるウィリアム・マカスキルが運営するフォアソート財団の主要な研究対象である。肩書き、名前、研究所、頭字語のもつれに加えて、長期主義は、いわゆる効果的利他主義(EA)運動の主要な「原因分野」のひとつである。

長期主義がどれほど影響力を持つようになったかを誇張することは難しい。1845年のカール・マルクスは、哲学の要点は単に世界を解釈することではなく、世界を変えることであると宣言した。ボストロムの仕事を引用し、支持しているイーロン・マスクが、その姉妹組織であるさらに壮大な名称のフューチャー・オブ・ライフ・インスティテュート(FLI)を通じて、FHIに150万ドルを寄付したことを考えてみよう。このFLIは、億万長者のハイテク起業家ジャーン・タリンによって共同設立された。タリンは、最近私が指摘したように、長期主義者のイデオロギーに固執しているため、気候変動が人類に「存亡の危機」をもたらすとは考えていない。

一方、億万長者のリバタリアンでありドナルド・トランプ支持者でもあるピーター・ティールは、かつてEAカンファレンスで基調講演を行ったこともある。機械知能研究所には多額の寄付をしており、その使命は超知能機械から人類を救うことであり、長期主義的価値観と深く関わっている。また、ワシントンDCを拠点とする安全保障・新技術センター(CSET)が、長期主義者を米国政府の要職に就かせ、国家政策を形成することを目指していることは公然の秘密である。実際、CSETはFHIの元研究助手であり、現在はジョー・バイデン米大統領の技術・国家安全保障担当副補佐官を務めるジェイソン・マセニーによって設立された。オード自身は、哲学者としては驚くべきことに、「世界保健機関、世界銀行、世界経済フォーラム、米国国家情報会議、英国首相府、内閣府、政府科学局に助言」しており、最近では「長期主義」に特に言及した国連事務総長の報告書に貢献している。

重要なのは、長期主義が最も影響力のあるイデオロギーのひとつであるにもかかわらず、エリート大学やシリコンバレー以外ではほとんど知られていないということだ。というのも、4年前にこのイデオロギーを擁護する本を出版した元長期主義者である私は、この世界観が今日世界で最も危険な世俗的信念体系であると考えるようになったからである。しかし、獣の性質を理解するためには、まず獣を解剖し、解剖学的特徴や生理学的機能を調べる必要がある。

最初に気づくべきことは、ボストロムとベックステッドが提唱する長期主義は、「長期的な心配り」や「将来の世代の幸福を大切にする」ことと等価ではないということだ。それをはるかに超えている。その核心は、個々の人間と人類全体との間の単純な(私に言わせれば欠陥のある)類推である。この考えを説明するために、ケンブリッジ大学の学者であり、同世代で最も優れた頭脳の持ち主として広く仲間から認められていたフランク・ラムゼイのケースを考えてみよう。「彼にはニュートンのようなところがあった」と、かつて美食家のリットン・ストレイシーは言った。G・E・ムーアはラムゼイの「非常に並外れた才気」について書いている。また、ジョン・メイナード・ケインズは、ラムゼイの論文を「これまでになされた数理経済学への最も顕著な貢献のひとつ」と評している。

しかし、ラムゼイの物語は幸せなものではない。1930年1月19日、彼は外科手術の後、ロンドンの病院で死亡した。死因は、ケンブリッジを流れるカム川での水泳による肝臓感染症であった可能性が高い。ラムゼイはまだ26歳だった。

この結果が悲劇的であった理由は2つあると言える。ひとつは、ラムゼイの人生が断ち切られたことで、彼が生き延びていれば経験できたはずのすべてのこと、つまり喜びや幸福、愛や友情など、人生を生きる価値あるものにするすべてのものを奪われたことである。この意味で、ラムゼイの早すぎる死は個人的な悲劇であった。しかし、第二に、彼の死はまた、人類の知識にさらに並外れた貢献をする運命にあるらしい知的スーパースターを世界から奪ったのである。ラムゼイが敷いた道の数は驚くべきものだった」とパルタ・ダスグプタ卿は書いている。しかし、彼が切り開いた道はあといくつあっただろうか?もしラムゼイが若くして亡くなっていなかったら、西洋の知的歴史はどう変わっていただろうかと考えさせられる。この観点からすると、ラムゼイの死という個人的な悲劇は本当にひどいものだが、世界をより良い方向に変える可能性を秘めた彼の可能性の大きさが、第二の悲劇をさらに悪いものにしているということができる。言い換えれば、ラムゼイの死の悪さは、彼が経験した直接的な個人的被害よりも、むしろ彼の潜在能力が満たされなかったことに起因している。あるいは、そういう議論もある。

長期主義者たちは、このような主張と結論を人類そのものに当てはめ、あたかも人類が「その一生」の間に浪費したり成就したり、破滅させたり実現させたりする「可能性」を持った個体であるかのように考えるだろう。つまり、一方では、人類の人口がゼロになるような大災害は、その時点で生存している人々に与えるあらゆる苦痛のために悲劇的である。熱核戦争の後、何年も何十年も、昼の真っ暗な空の下、氷点下の気温の中で餓死する恐怖を想像してみてほしい。これは最初の悲劇であり、直接被害を受けた人々にとっては個人的な悲劇である。私たちの滅亡は、今後、例えば〜10^100年(この時点で「熱による死」は生命を不可能にする)、極めて長く豊かな未来を永久に閉ざすことになる。宇宙の大きさと熱力学的平衡に達するまでに残された時間を考えると、その「可能性」は非常に巨大であり、最初の悲劇はそれに比べればまったく青ざめるだろう。

このことはすぐに、個人と人間性のもうひとつの平行性を示唆している。誰かの可能性が満たされないまま残されるのは、死だけではないのだ。ラムゼイが若くして死ぬことなく、研究し、論文を書き、発表する代わりに、地元のバーでビリヤードをしながら酒に溺れる日々を送っていたとしよう。結果は同じでも、失敗の仕方が違う。これを人類に当てはめれば、長期的展望主義者は、私たちが死に絶えることなく、私たちの可能性を満たせないままにしておく失敗モードがあると主張するだろう。

この考え方では、気候変動による大災害は、90歳の老人が2歳のときに足の指をつまづいたような、ほんのささいな出来事である。

これまでの考えを要約すると、人類には各個人の可能性を超越した「可能性」があり、この可能性を実現できないことは極めて悪いことであり、実際、これから述べるように、文字通り宇宙規模の道徳的大惨事となる。「地球を起源とする知的生命体」という種としての可能性を実現すること以上に、倫理的に重要なことはないのである。あまりに重要であるため、長期主義者は、私たちの可能性が破壊される可能性を「人類存亡リスク」、実際にこの可能性が破壊されるような出来事を「実存的破局」と呼ぶ、恐ろしい響きの造語を作ったほどである。

なぜ私はこのイデオロギーが危険だと思うのか?端的に言えば、人類の可能性を何よりも優先させることで、現実に生きている人々(現在と近い将来に生きている人々)が極端な被害を被る可能性が自明でなくなり、死に至る可能性さえ高まるからである。別のところで述べたように、長期主義者のイデオロギーは、その信奉者が気候変動に対して無関心な態度をとるように傾いていることを考えてみよう。なぜか?気候変動によって島国が消滅し、大移動が誘発され、何百万人もの人々が命を落としたとしても、今後何兆年もの間、長期的な可能性が損なわれることはおそらくないからだ。宇宙的な視野に立てば、今後2千年の間に人類の人口を75%削減するような気候変動による大災害が起こったとしても、物事の大局から見れば、90歳の老人が2歳のときに足の指をこするような、ほんの一瞬の出来事でしかない。

ボストロムの主張は、「地球文明の崩壊を引き起こす非実存的な災害は、人類全体から見れば、回復可能な後退の可能性がある」というものである。それは「人間にとっては巨大な虐殺」かもしれないが、人類がその潜在能力を発揮するために立ち直る限り、最終的には「人類にとっては小さな誤算」に過ぎないというのである。また、歴史上最悪の自然災害や壊滅的な残虐行為も、この壮大な視点から見れば、ほとんど知覚できない些細なことになると彼は書いている2つの世界大戦、エイズ、チェルノブイリ原発事故に言及し、「そのような出来事は、ただちに影響を受けた人々にとっては悲劇的なものだが、物事の全体像から見れば……最悪の大災害でさえ、人生という大海の水面上のさざ波にすぎない」と断言している。

エイズやホロコーストの悪さを評価するこのような世界の見方は、同じ(実存的でない)範囲と強度の将来の災害も「単なる波紋」に分類すべきだということを意味する。もしそれが直接的な存亡の危機をもたらさないのであれば、たとえそれが個人にとって悲劇的なものであったとしても、私たちはあまり心配すべきではない。ボストロムが2003年に書いたように、『優先順位の1,2、3,4は……人類存亡リスクを減らすことであるべきだ』その数年後、ボストロムは、世界の貧困を緩和したり、動物の苦しみを軽減したりするような「最適とは言えない効果をもたらす気分の良いプロジェクト」に、私たちの限りある資源を「浪費」してはならないと主張した

オードは、人類が直面するあらゆる問題の中で、私たちの「最初の大きな仕事は……安全な場所、つまり彼の定義によれば『人類存亡リスクが低く、低いままである場所』に到達することであり、それを彼は『実存的安全保障』と呼んでいる」と主張する。何よりも重要なのは、『差し迫った危険から身を引き』、『長期的な未来にわたって人類を危険から守り、失敗することが不可能になるような強固な安全装置』を考案することによって、私たちの可能性を『維持』し、『保護』するために必要なあらゆることを行うことである」オードは気候変動にも言及しているが、怪しげな方法論に基づいて、気候変動が実存的な大災害を引き起こす確率は1000分の1程度だとも主張している。オードによれば、これは超知的機械が今世紀中に人類を滅ぼす確率よりも2桁も低い。

ここで本当に注目すべきは、気候の大破局が世界中の実際の人々に及ぼす影響ではなく(ボストロムの言葉を借りれば、これは「人類にとって小さな誤算」であることを忘れてはならない)、オードが『The Precipice』で言うように、この大災害が「文明の回復不能な崩壊、あるいは人類の完全な絶滅の危険をもたらす」というわずかな可能性であることだ。繰り返しになるが、実際の人々(特にグローバル・サウスの人々)にもたらされる損害は、絶対的な観点からは重大かもしれないが、宇宙における私たちの長期的な可能性の「広大さ」や「栄光」と比較すれば、ほとんど記憶にすら残らない。

しかし、長期主義が意味するものは、はるかに憂慮すべきものである。私たちの最優先事項の4つが、実存的破局を回避すること、つまり「私たちの潜在能力」を発揮することだとしたら、それを実現するためのテーブルの上にないものは何だろう?トーマス・ネーゲルの「大いなる善」とでも呼ぶべき概念が、ある種の残虐行為(例えば戦争中)を「正当化」するために使われてきたというコメントを考えてみよう。目的が手段を「正当化」し、その目的が十分に大きいと考えられる場合(例えば、国家の安全保障)、このことは「一定数の黒焦げになった赤ん坊の責任を負う者の良心を和らげるために利用できる」と彼は主張する。もし「より大きな利益」が国家安全保障ではなく、今後数兆年の間に地球を起源とする知的生命体が誕生する可能性だとしたら、何が「正当化」されるのか想像してみよう。第二次世界大戦では、4000万人の市民が亡くなった。しかし、この数と、もし我々が実存的破局を避けることができれば、10^54人以上(ボストロムの推定)の人々が存在するようになるかもしれない数とを比べてみてほしい。この可能性を『保護』し『保全』するために、私たちは何をすべきではないのだろうか?生まれていない人々が確実に存在するようにするために。この宇宙的に重要な道徳的目的によって『正当化』されない手段があるだろうか?

ボストロム自身は、「予防的取り締まりの能力」(例えば、文明を壊滅させる可能性のあるオムニシダル・テロ攻撃を防ぐ)を増幅させるために、地球上のすべての人間をリアルタイムで監視するグローバルで侵襲的な監視システムの確立を真剣に検討すべきだと主張している。また別のところでは、国家は存亡の危機を回避するために先制的な暴力/戦争を行うべきであり、何十億人もの実際の人々を救うことは、存亡の危機をまったく微量に減らすことと道徳的に等価であると主張している。彼の言葉を借りれば、10^54人が未来に存在する確率が『わずか1 %』であったとしても、『10億分の1ポイントだけ人類存亡リスクを減らす期待価値は、10億人の人命の1000億倍の価値がある』ということになる。このようなファナティシズム(一部の長期主義者が抱く言葉)により、リアルワールドの政治指導者たちがボストロムの見解を真剣に受け止めたらどうなるかを心配する批評家が増えている。数理統計学者のオルレ・ヘッグストロム(Olle Häggström)の言葉を引用しよう。彼は、不可解なことに、それ以外では長期主義を好意的に語る傾向がある:

上記の計算が)政治家や意思決定者の間で、文字通りに受け取る価値のある政策の指針として認識されるようになるかもしれないという見通しには、非常に不安を感じる。『オムレツを作りたければ、数個の卵を割る覚悟が必要だ』という古いことわざを彷彿とさせすぎる。CIAのトップがアメリカ大統領に、ドイツのどこかに人類滅亡兵器を開発している狂人がいて、それを使って人類を絶滅させるつもりであり、その狂人が成功する確率は100万分の1であるという確かな証拠があると説明する状況を想像してほしい。この狂人の正体や居場所について、それ以上の情報はない。もし大統領がボストロムの議論を真に受け、計算の仕方を知っていれば、ドイツに全面的な核攻撃を行い、国境内の人間を一人残らず殺す価値があると結論づけるかもしれない。

私が長期主義を非常に危険だと考える理由をいくつか挙げてみよう。しかし、この世界観にはさらに根本的な問題がある。例えば、長期主義の根底にある公約が、そもそも人類がこれほどまでに多くの前例のない生存リスクに直面している主な理由であるというのは、十分に説明がつく。言い換えれば、長期主義は「実存的安全保障」の達成とは相容れないものかもしれない。つまり、将来における絶滅や崩壊の確率を純粋に減らす唯一の方法は、長期主義のイデオロギーを完全に放棄することなのかもしれない。

ボストロムとオードにとって、ポストヒューマンになることに失敗すれば、われわれの広大で輝かしい可能性を実現することができなくなる。

この議論を理解するために、まず、長期主義者が意味する「長期的な可能性」を紐解いてみよう。この概念は、トランスヒューマニズム、宇宙拡大主義、そして哲学者が「全体功利主義」と呼ぶものと密接に関連する道徳観という3つの主要な要素に分析することができる。

ひとつは、先端技術を使って私たちの身体と脳を改造し、根本的に強化されたポストヒューマン(紛らわしいことに、長期主義者はこれを「人類」の範疇に位置づけている)の「優れた」種族を創り出すべきだという考え方である。ボストロムはおそらく今日最も著名なトランスヒューマニストであるが、長期主義者は「トランスヒューマニズム」という言葉を使うことを避けてきた。例えば、スーザン・レヴィンは、現代のトランスヒューマニズムのルーツは英米の優生学運動であると指摘し、ボストロムとHuman Enhancement』(2009)を共同編集したジュリアン・サヴレスクのようなトランスヒューマニストは、文字通り、実存的破局(彼はこれを「究極の害」と呼んでいる)を回避するために、オキシトシンのような「道徳心を高める」化学物質の摂取を主張している。サヴレスクが同僚と書いているように、『人類を道徳的に向上させることは緊急の課題であり、そのためには手段を選ばない』。このような主張は物議を醸すだけでなく、多くの人々にとって極めて不穏なものであるため、長期主義者はこのような考えから距離を置こうとしてきたが、それでもこのイデオロギーを支持してきた。

トランスヒューマニズムは、現在の人間のあり方よりもはるかに優れた、さまざまな「ポストヒューマンのあり方」があると主張する。例えば、遺伝子組み換えによって感情を完璧にコントロールできるようになったり、神経移植によってインターネットにアクセスできるようになったり、あるいはコンピューター・ハードウェアに心をアップロードして「デジタル不死」を実現したりできるかもしれない。オードが『絶壁』で促しているように、「コウモリやイルカのように反響定位で世界を認識したり、アカギツネや伝書鳩のように磁気受容で世界を認識できたらどんなに素晴らしいか考えてみよう。そのような未知の体験は、我々よりはるかに洗練されていない心の中に存在する」とオードは書いている。では、はるかに偉大な頭脳がアクセスできる可能性のある、おそらく莫大な価値のある経験とは何だろうか?ボストロムがこのような可能性を最も空想的に探求したのは、彼の刺激的な『ユートピアからの手紙』(2008)からである。この手紙に登場する架空のポストヒューマンが書いているように、「私たちは紅茶にそれを振りかける」ほどの「快楽」に溢れた超知的なポストヒューマンでいっぱいのテクノ・ユートピア世界を描いている。

長期主義との関連は、ボストロムとオードによれば、ポスト・ヒューマンになれなかった場合、私たちの広大で輝かしい可能性を実現することができなくなるようであり、それは実存的に破滅的であるということである。ボストロムが2012年に述べたように、「人間の生物学的性質がこの種の変化を遂げる可能性が永久に閉ざされること自体が、実存的破局を構成するかもしれない」のである。同様に、オードは、『現在の人類を永遠に保存することは、私たちの遺産を浪費し、私たちの可能性の大部分を放棄することにもなりかねない』と主張している。

私たちの可能性の2つ目の要素である宇宙拡大主義とは、未来の光円錐、つまり理論的に私たちがアクセス可能な時空の領域を、可能な限り植民地化しなければならないという考え方である。長期主義者によれば、われわれの未来の光円錐には膨大な量の開発可能な資源が含まれており、彼らはこれをネゲントロピー(あるいは逆エントロピー)の「宇宙からの贈り物」と呼んでいる。天の川だけでも15万光年あり、1000億個以上の星が存在する。人類の長期的な可能性を達成するために必要なのは、『私たちが最終的に近くの星に行き、そこからさらに冒険できるような新しい繁栄する社会を作るのに十分な足場を築くこと』だけだ、と彼は続ける。我々の星系を含む各星系は、銀河系全体が生命で満たされるためには、ほんの数個の最も近い星を開拓する必要がある。そのプロセスは指数関数的で、我々の子孫が星から星へと飛び移るたびに、より多くの「繁栄した」社会が生まれることになる。

しかし、なぜそんなことをしたいのだろうか?新たなポストヒューマン文明を宇宙に氾濫させることの何がそんなに重要なのだろうか?これが3つ目の要素である総合功利主義につながる。長期主義者の中には、自分たちは功利主義者ではないと主張する者もいるが、それは長期主義、そしてより一般的には、そこから生まれた効果的利他主義(EA)運動が、功利主義を再パッケージしたものに過ぎないという批判をかわすための、煙に巻くような演技であることにすぐに気づくべきである。実際、EA運動は、少なくとも実際には、深く功利主義的であり、実際、名称を決定する前に、オードを含む運動の初期メンバーは、「効果的功利主義コミュニティ」と呼ぶことを真剣に検討していた。

とはいえ、功利主義とは、「宇宙の視点」と呼ばれる、実体のない公平な宇宙的視点から集計された、世界の「内在的価値」の総量を最大化することが、私たちの唯一の道徳的義務であると規定する倫理理論である。この考え方からすれば、功利主義的快楽主義者が快楽と同一視する価値が、時空を超えて人々の間にどのように分配されるかは問題ではない。重要なのは正味の総和だけである。例えば、価値「1」の人生、つまり生きる価値がぎりぎりある人生を送っている人が1兆人いるとする。この場合、総価値は1兆となる。次に、10億人が「999」の価値を持つ人生を送っている、つまり、彼らの人生は極めて優れている、という別の宇宙を考えてみよう。この場合、総価値は9,990億となる。9,990億は 1兆より小さいので、ほとんど生きる価値のない命でいっぱいの第一の世界は、第二の世界より道徳的に優れていることになり、したがって、功利主義者がこれらのどちらかを選ばなければならないとしたら、前者を選ぶだろう。(これは「反吐が出るような結論」と呼ばれるもので、オード、マカスキル、グリーブスといった長期主義者は最近、あまり真剣に考えるべきではないと主張している。彼らにとっては、最初の世界の方が本当にいいのかもしれない!)

ベックステッドは、貧しい国の人々よりも豊かな国の人々の生活を優先すべきだと主張した。

その根底にあるのは、人間、つまりあなたも私も、目的のための手段に過ぎないという考えに基づいている。私たちはそれ自体では重要ではなく、それ自体に固有の価値はない。その代わり、人は価値の「容器」として理解され、それゆえ私たちは、私たちが価値を「含む」限りにおいてのみ重要であり、したがってビッグバンから熱死までの間の宇宙における価値の全体的な正味量に貢献する。功利主義は価値を最大化するように説いているので、正味の価値(快楽)を持って存在する人々(価値の容器)が多ければ多いほど、道徳的に言えば、宇宙はより良くなるということになる。一言で言えば、人々が存在するのは価値を最大化するためであり、価値が存在するのは人々に利益をもたらすためではないのだ。

我々が宇宙を植民地化し、星の周囲に広大なコンピューター・シミュレーションを作り、そこで想像を絶するほど膨大な数の人々がバーチャル・リアリティ環境の中でネット・ポジティブな生活を送るとしたら、将来どれだけの人々が存在しうるかを計算することに、長期的な研究者たちが夢中になっているのはこのためである。ボストロムによる10^54人という未来人の見積もりについてはすでに触れたが、その中にはこうした「デジタル人間」の多くも含まれている。しかし、ベストセラー超知性』(2014)では、彼はその数をさらに多い10^58人とし、そのほぼ全員が「バーチャル環境で互いに交流しながら、豊かで幸せな生活を送る」と述べている。グリーブスとマカスキルも同様にこの可能性に期待を寄せており、天の川銀河の中だけでも10^45人のコンピューター・シミュレーションの意識ある人間が存在する可能性があると見積もっている。

それは、未来の光円錐全体に広がる巨大なコンピューター・シミュレーションの中に、技術的に強化されたデジタル・ポストヒューマンが大量に存在することである。ヘッグストロムのシナリオでは、長期主義者の政治家がドイツを消滅させるのはこの目標のためである。この目標のためにこそ、世界の貧困を解決するようなことに資源を「浪費……してはならない」のだ。この目標のためにこそ、私たちは世界的な監視システムの導入を検討し、先制攻撃の戦争をテーブルの上に置き続け、気候変動の壊滅的な影響(そのほとんどが北半球によって引き起こされた)から南半球の人々を救うことよりも、超知能マシンに焦点を当てるべきなのである。実際、ベックステッドは、この目標を達成するためには、貧しい国の人々よりも豊かな国の人々の生活を優先すべきだとさえ主張している。ベックステッドが2013年に発表した博士論文の一節を引用しよう。この論文は、長期主義者の文献に対する最も重要な貢献のひとつであるとオードが熱狂的に賞賛している:

貧しい国々での人命救助は、豊かな国々での人命救助や改善よりも、波及効果が著しく小さいかもしれない。なぜだろうか?豊かな国ほど技術革新が進み、労働者の経済的生産性が高い。その結果、他の条件が同じであれば、豊かな国の人命を救う方が貧しい国の人命を救うよりもはるかに重要であるというのは、今ではもっともらしく思える。

これは氷山の一角にすぎない。この「私たちの可能性」という概念が、テクノロジーの発展や新たなリスクの創造に与える影響を考えてみよう。我々の可能性を実現することは、人類にとって究極の道徳的目標であり、我々の子孫は、現在よりもはるかに進んだ技術がなければ、ポスト・ヒューマンになることも、宇宙を植民地にすることも、コンピューター・シミュレーションの中で〜10^58人を創造することもできないのであるから、より多くの技術を開発することに失敗することは、それ自体が実存的な破局をもたらすことになる。「技術的成熟」とは、「実現可能な最大値に近いレベルの経済生産性と自然支配を可能にする能力の達成」を意味する。自然をコントロールし、経済生産性を絶対的な物理的限界まで高めることは、表向きには、未来の光円錐内に最大量の「価値」を生み出すために必要だからである。

しかし、人類がなぜ現在のような気候・生態系の危機に陥ったのか、少し考えてみてほしい。化石燃料の採掘と燃焼、生態系の破壊、種の絶滅の背後には、自然は制御され、征服され、搾取され、打ち負かされ、略奪され、変容し、再構成され、操作されるべきものだという考え方がある。技術理論家のラングドン・ウィナーが『自律的技術』(1977)の中で書いているように、フランシス・ベーコンの時代から、私たちの技術に対する見方は、「絶対的な支配のスタイル、主人が奴隷を一方的に支配する専制的なスタイルといった、力の使われ方に関するひとつの概念と表裏一体」であった。彼はこう付け加える:

自然界のあらゆるものを征服し、打ち負かし、服従させるという人間の正当な役割について、躊躇することはめったにない。これこそが人間の力であり、栄光なのだ。他の状況であれば、むしろ無様で卑劣な意図に思えることも、ここでは最も名誉ある美徳なのだ。自然は普遍的な獲物であり、人間の思いのままに操ることができる。

自然、宇宙全体、私たちの「宇宙の恵み」は略奪のためにあり、操作され、変換され、広大なコンピューター・シミュレーションの中で「価値ある生活を送る知覚ある存在などの価値構造」に変換されるためにあるのだ。しかし、このベーコン的、資本主義的な考え方は、現在、生物圏の広い地域や世界中の先住民コミュニティ、そしておそらくは西洋の技術文明そのものをも破壊する恐れのある、前例のない環境危機の最も根本的な根本原因のひとつである。他の長期主義者はボストロムほど明確には述べていないが、功利主義が人間を見るように自然界を見る傾向が明らかにある。例えば、マカスキルとその同僚は、EA運動、ひいては長期主義が「善を行う上での暫定的な目的は、ウェルビーイングの促進のみに関わるという点で、暫定的なウェルファリストであり、例えば、生物多様性の保護や自然の美しさの保全はそれ自体の目的ではない」と書いている。

そう考えると、あらゆる問題は、技術が多すぎることよりも、むしろ少なすぎることに起因している。

それと同じくらい心配なのは、人類存続の圧倒的なリスク源がまさにこのようなテクノロジーに由来しているという合意された事実にもかかわらず、より強力なテクノロジーを創造しなければならないという長期主義者の要求である。オードの言葉を借りれば、『人類を守るための真剣な取り組みがなければ、そのリスクは今世紀より高くなり、技術の進歩が続く毎世紀に増大すると信じる強い理由がある』。同様に、2012年、ボストロムは次のように認めている。

予見可能な将来における人類存亡リスクの大部分は、人為的な人類存亡リスク、つまり人間の活動から生じるものである。特に、最大の人類存亡リスクの大半は、外界や私たち自身の生物学を操作する能力を根本的に拡大する可能性のある、将来の技術的飛躍的進歩に関連しているように思われる。私たちの力が拡大すればするほど、その潜在的な影響(意図したもの、意図しないもの、肯定的なもの、否定的なもの)の規模も大きくなる。

たとえそれが未来への最も危険な道であったとしてもである。しかし、これは一体どれほどの意味があるのだろうか?生存の可能性を最大限に高めたいのであれば、危険な新技術の開発には反対すべきだ。歴史が明らかに示しているように、また技術予測が断言しているように、技術が増えれば増えるほどリスクが高まるのであれば、「実存的安全保障」の状態を実際に達成する唯一の方法は、これ以上の技術革新を減速させるか、完全に停止させることなのかもしれない。

しかし、長期主義者はこの難問に対して、いわゆる「価値中立性テーゼ」という答えを持っている。これは、テクノロジーは道徳的に中立なもの、つまり「単なる道具」であるというものである。この考え方は、NRAのスローガン「銃が人を殺すのではなく、人が人を殺すのだ」に最も有名に集約されている。このスローガンは、テクノロジーの結果が、良いものであれ悪いものであれ、有益なものであれ有害なものであれ、すべて使用者によって決定されるものであり、人工物ではないというメッセージを伝えている。2002年にボストロムが言ったように、「我々は、大きな人類存亡リスクを課す文明やテクノロジーを非難すべきではない」のであり、「我々が人類存亡リスクを定義してきた方法のせいで、技術文明の発展に失敗すれば、我々が実存的災害の犠牲者になったことを意味することになる」のである。

オードも同様に、『問題はテクノロジーの過剰というよりも、知恵の欠如である』と主張し、カール・セーガンの著書『Pale Blue Dot』(1994)を引用する:私たちが直面している危険の多くは、確かに科学技術から生じているが、より根本的な原因は、私たちがそれに見合った知恵を持たずに強大になったからである』。言い換えれば、私たちがより賢く、より賢く、より倫理的になれなかったのが悪いのだ。多くの長期主義者が、ちょっとひねくれた論理ではあるが、私たちの認知システムや道徳的気質を技術的に再構築することで修正できると信じている欠陥の集まりである。この考えによれば、すべては工学的な問題であり、したがってあらゆる問題は、技術が多すぎるのではなく、むしろ少なすぎることから生じているのである。

私たちは今、長期主義がいかに自滅的であるかを理解し始めた。長期的な可能性を実現することを「狂信的」に強調するあまり、例えば、存続不可能な気候変動を軽視したり、貧しい人々よりも豊かな人々を優先したり、「より大きな宇宙の利益」のために先制的な暴力や残虐行為を「正当化」したりする可能性があるだけでなく、人類を破滅の崖っぷちへと追いやったバコニア主義、資本主義、価値中立主義といった傾向そのものを内包している。長期主義は、経済的生産性、自然に対する支配力、宇宙における我々の存在感、未来に存在する(シミュレートされた)人間の数、非人間的な「価値」の総量などを最大化するよう説く。しかし、最大化するためには、私たちはますます強力で危険なテクノロジーを開発しなければならない。しかし、心配する必要はない。なぜなら、テクノロジーは私たちの苦境悪化の原因ではないし、したがって、ほとんどのリスクがテクノロジーに直接起因しているという事実は、さらなるテクノロジーの創造を止める理由にはならないからだ。むしろ、問題は私たちにあるのだ。つまり、私たちはさらにテクノロジーを創造し、認知的かつ道徳的に強化されたポストヒューマンに変身しなければならないのだ。

「これは災いのもとだ。賢明で責任感のある」ポストヒューマンの新たな種族を創造することはあり得ないし、現在のペースで先端技術が開発され続ければ、地球規模の大災害は「起こるかどうか」ではなく「いつ起こるか」の問題であることはほぼ間違いない。たしかに、10億年かそこらで太陽に滅ぼされる前に地球を脱出しようと思えば、高度なテクノロジーが必要になるだろう。しかし、長期主義者が見逃している決定的な事実は、テクノロジーは、この遠い未来の出来事から私たちを救うよりも、その前に私たちを絶滅させる可能性の方がはるかに高いということだ。私のように、人類の継続的な生存と繁栄を重視するのであれば、長期的な視点に立つべきだろう。しかし、長期主義というイデオロギーは、危険で欠陥があるだけでなく、現在地球上のすべての人々を脅かしているリスクを助長し、強化している可能性がある。

この記事が役に立ったら「いいね」をお願いします。
いいね記事一覧はこちら

備考:機械翻訳に伴う誤訳・文章省略があります。
下線、太字強調、改行、注釈や画像の挿入、代替リンク共有などの編集を行っています。
使用翻訳ソフト:DeepL,ChatGPT /文字起こしソフト:Otter 
alzhacker.com をフォロー