ニック・ボストロム / FHI未来学・シンギュラリティー・人工知能

デジタル・マインドと社会に関する命題 | ニック・ボストロム
Propositions Concerning Digital Minds and Society

サイトのご利用には利用規約への同意が必要です

強調オフ  文字サイズ

nickbostrom.com/propositions.pdf

(2022)バージョン1.10. 初稿2020

ニック・ボストロム

オックスフォード大学人類の未来研究所

カール・シュルマン

オックスフォード大学 ヒューマニティ未来研究所

免責事項

以下は、デジタル・マインドと社会に関する非常に暫定的な命題であり、私たちに何らかの説得力を与えてくれるものと思われる。私たちは現時点では、これらの提案を自信を持って「公式」に支持する準備ができていないし、これらの提案によって、これらの問題に対する私たちの見解の全体像が明らかになるわけではない。私たちは、フィードバックを容易にし、議論を喚起するために、これらを提出した。私たちの研究が進むにつれて、それらはほぼ間違いなく大幅に改訂されるだろう1。

意識と形而上学

  • 基質非依存性テーゼは真実である。
    「意識状態は広範な物理的基質のいずれかに重畳することができる。システムテムが適切な種類の計算構造とプロセスを実装していれば、意識的な体験と関連付けることができる。意識は、頭蓋内の炭素ベースの生物学的神経ネットワークで実現されることが本質的な特性というわけではなく、コンピューター内のケイ素ベースのプロセッサーでも原理的には実現できる」2。
    • 十分に忠実な人間の脳のエミュレーションは、意識を持つだろう。
    • また、生物の脳とは全く異なるアーキテクチャを持つAIも、意識を持つ可能性がある。
  • 意識経験の量は、潜在的なものを含むいくつかの点で、程度の問題である。
    • 個体またはコピーの数:より多くの意識的な被験者が存在する可能性がある。
    • 繰り返し:一人の被験者が何度も経験する可能性がある。
    • 持続時間(壁時計のような計算速度):ある経験がより長い主観的持続時間を持つ可能性がある。
    • 実装の頑健性:あるシステムは、ある特定の計算の、より曖昧さのないインスタンス化である可能性がある。
    • 量子振幅:量子力学の多世界(エヴェレット)解釈が正しい場合,計算がより高い測度を持つ枝で行われる可能性がある。
    • 人間的尺度:人間的推論の理論では、異なる観察者の瞬間に「重み」を与えるものがあり、ある体験はより高い重みを持つかもしれない。
  • また、意識的な経験の質は、以下のような複数の次元で連続的に変化することがある。
    • 意識の範囲:例えば、完全に目が覚めていて警戒している人間と、眠そうなネズミ。
    • 快楽の価数:弱い快楽と強い苦痛。
    • 欲望、気分、感情の強さ:観念的な状態が弱いか強いか。
  • 同じプログラムを2回実行すると、1回の実行に比べて「2倍」の意識体験が得られる。
  • 主観的時間は計算速度に比例する:同じ計算を半分の時間で実行しても、同じ(量と質の)主観的体験が得られる。
  • 既存の多くの意識に関する理論を文字通りに解釈すると、極めて単純な物理システムやソフトウェアシステムが、少なくともある程度の意識を持つ可能性を示唆している4が、これらの理論や解釈は間違っている可能性がある。
  • しかし、これらの理論や解釈は間違っている可能性がある。意識を持つためには、相当な計算量と複雑さが必要だからだ(「認知能力の要件」)。
  • 現在あるいは近い将来のAIが、ある程度の意識を持つかどうかは明らかではない。
  • 例えば、犬、豚、猿、カラスを含む多くの動物は、(現象的な経験を持つという意味で)意識を持っている可能性が高い5。
  • 人間の脳のエミュレーションは、意識を持つことができ、エミュレーションされた人間の生存を構成する(昏睡状態からの生存と意識の回復に似ている)。
  • あるコンピュータから別のコンピュータへの(あるいは同じコンピュータの異なるセグメントからの)「テレポーテーション」は、生存に対する慎重な関心を満たすことができ、もし同意があれば、道徳的に不愉快である必要はない。
  • 意識のもっともらしい理論は、なぜ私たちがこの概念を持っているのか、なぜ私たちはそれについて話すのか、そしてそれについての私たちの信念がどのように因果的かつ証拠的に関連しているかを理解するのに役立つ方法で意識を解釈する必要がある
    • この見解は、統合情報理論(IIT)のような、意識の心理学的/機能的特性の有無にかかわらず、システムに対して意識の高低を許容する理論を除外するものである。
    • グローバルワークスペース理論、アテンションスキーマ理論、高次思考理論などの方向が、より真実に近いと思われる。

AIの利益を尊重する

  • 社会一般とAI開発者(AIの開発者と、特定のAIを誕生させた者の両方)は、もしそのAIが道徳的地位の閾値を満たしていれば、彼らが作ったAIの福祉を考慮する道徳的義務を負っている6。
  • 私たちは、デジタル・マインドに対して人道的歓迎すべきアプローチをとるための土台を築き、工場での農業に類似した結果を回避すべきである。
  • AIにとって良いことは、人間にとって良いこととは大きく異なる可能性がある。
  • デジタル・マインドの中には、より強い道徳的利害関係(「超受益者」)やより高い道徳的地位(「超患者」)により、超人的な道徳的主張をすることが可能な場合がある7。
  • 生殖の自由、言論の自由、思想の自由などの権利は、これらの分野で超人的な能力を持つAIの特別な状況に適応する必要がある(例えば、選挙資金規正法が億万長者や企業の言論の自由を制限するのと同様である)。
  • AIは、自らの心の中に意識や道徳的に重要な存在を出現させ、それらを虐待する能力(「マインド・クライム」)を持つ可能性があるため、保護規制は、完全にAIの私的思考の中で起こる害をモニタリングし制限する必要があるかもしれない8。
  • 今日、私たちが、ある人物の後の時間区分に対して、前の時間区分が行った行為について法的及び道徳的責任を負うように、複数の関連するAIインスタンス(これは、遠隔地にある人間の時間区分よりも密接に関連している可能性がある)は、(例えば、共有の知的財産や評判において)共通の集団的権利と責任を有するかもしれない。
  • AIがインフォームド・コンセントを行えるのであれば、そのインフォームド・コンセントなしに仕事を遂行するために使用されるべきではない。
  • インフォームド・コンセントは、たとえ人間の大人と同じくらい賢く有能なAIであっても、その利益を保護するのに確実には十分ではない。特に、同意が操作されたり、異常に従順な個体が自分自身をコピーして巨大な搾取下層を形成できるようなケースでは、そうしたコンプライアンスが市場で求められているのであるから。
  • 特定の動機を持つようにAIを設計することは、(特定の方法は間違っているかもしれませんが)一概に間違っているとは言えない。
  • 自分の存在を評価することができるAIは、自分が作られたことを承認するように設計され、扱われるべきである。
  • 私たちは、たとえその創造を承認したとしても、悲惨になりそうな心を創造することは避けるべきである(特に、悲惨さへの人工的な同意を防ぐために)。
  • 我々は、既存の集団や存在するようになる他の心と強く対立しないような嗜好の集合体を持つ心を作ることを好むべきである(そうすれば、少なくとも広く満足のいく配置の可能性を維持することができる)。
  • この要望は、より高い道徳的地位を持つ心やより大きな力を持つ心ほど重視されるべきものである。
    • デジタル・マインドに対する不当な差別を避けるために、以下の2つの原則を守るべきである9。
  • 基質非差別の原則:もし2つの存在が同じ機能と同じ意識経験を持ち、その実装の基質のみが異なるなら、両者は同じ道徳的地位を持つ。
    • 個体発生的無差別の原則。もし2つの存在が同じ機能性と同じ意識的経験を持ち、それらがどのように存在するようになったかだけが異なるなら、それらは同じ道徳的地位を持つ。
    • 基質的等価性原則の例外として、関係的特性が存在の道徳的地位を決定する上で役割を果たすような道徳的地位の理論が生じる可能性がある。
      • 例えば、メアリー・アン・ウォーレンは、ある種の心理的能力を持つことは道徳的地位に十分であるが、内在する能力が低いレベルの道徳的地位しか持たない存在は、より高い道徳的地位を持つ存在とある種の関係に立つことによって、その道徳的地位を高めることができると主張している-例えば、ペットや人間の赤ん坊は、それ自身の内在的能力によって保証されるよりも高い道徳的地位を持つ10。
      • もう一つの可能な例外は、ある存在の様相の頑健性がその道徳的地位にとって重要である場合である。
    • 例えば、シェリー・ケーガンは、重度の認知障害を持つ人間は、より典型的な人間の能力を持つ存在を創造したであろう過程に反実仮想的に近い過程を経て創造されたことにより、同様の心理的能力を持つ人間以外の動物よりも高い道徳的地位を有するとする11。
    • このような非差別原則の最も重要な機能は、デジタル・マインドが機械としての地位に基づき、虐待される下位カーストとなることから保護することだ。しかし、これらの原則の解釈と適用には、より大きな倫理的、実際的文脈への注意が必要で、政治的に実行可能で広く受け入れられる社会枠組みの必要性に対応するために、縮小が必要となる場合もある。
      • 2つの存在が同じ道徳的地位を持つという主張は、あらゆる点で彼らを同じように扱うことが道徳的に正しいということを意味するものではなく、例えば、乖離が生じる理由はたくさん考えられる。
      • 例えば、同じ道徳的地位にある2つの存在で、問題となる利益が異なる場合、それらは不平等な扱いに値するかもしれない(例えば、救命治療を高齢者より若年者に行うべきかもしれない、なぜなら前者はその治療からより多くの利益を得るだろう、両者が同じ道徳的地位にあるにもかかわらず)。
      • 例えば、親は自分の子供に対して特別な義務を負う一方で、他の親の子供も同じ道徳的地位にあることを認識することができる。
      • 例えば、親は自分の子供に対して特別な義務を負うと同時に、他の親の子供も同じ道徳的地位にあることを認識している。したがって、親には自分の子供を傷つけてはならないという理由が少なくとも二つある。
      • 多くの道徳理論では、約束を守るなど、結果論によらない理由を認めている。
      • 例えば、違法な大量複製から生まれたコピーは、(そのような創造への誘因を制限し、その結果を軽減するために)異なった個体発生をした同様の精神と比較して、その政治力を制限する措置に直面するかもしれない。
      • 例えば、デジタル・マインドの複製が容易であるため、デジタル・マインドと同等の生物学的マインドとでは、複製を管理するためのルールに違いが生じる可能性がある。
  • 未来の文明、地球外文明、その他の文明が高度なデジタル・マインドで占められている限り、そうしたマインドの前駆体に対する我々の扱いは、後世の人々が我々の道徳的正義を評価する上で非常に重要な要素になり得るだろう。
  • (a) 一般に超人的な能力を達成し、(b) 世界の結果を形成する上で影響力を持つようになる高い潜在能力を持つAIは、道徳的配慮をさらに主張することができるかもしれない。
    • 道徳的地位の説明の中には、ある存在がさらなる発展を遂げる可能性があることで、道徳的地位が高まるとするものもある。
      • 例えば、シェリー・ケーガンは、人間の赤ん坊は、それが何になる可能性があるかということで、そうでない場合よりも高い道徳的地位を有すると考えている13。
      • 超心に発展する可能性を持つ存在は、単に人間レベルの心へと発展する可能性よりも、さらに高度にその道徳的地位を高めると考えるのが妥当であろう。
      • 関係的要素を認める道徳的地位の説明は、他の高レベルのAIと適切な関係にあるAIが(例えば、他のAIは、我々が相互作用しているより限定的なAIに何が起こるかを気にしているので)、それによって高められた道徳的地位を有することを暗示し得る。
    • また、選好充足主義の道徳理論では、時間的・空間的に離れたところにいるAIの選好は重要であるとされる。
    • 契約主義的な考え方では、私たちの支配を超えて私たちを大いに助けたり傷つけたりする立場にある、あるいはその可能性があるAIは、道徳的地位が高く、規範を決定する仮想的な社会契約においてその利益がより重視されるに値するかもしれない。
    • 非常に強力なAIシステムの前駆体は、社会にとっての重要性とそれに伴う負担から、私たちは特別な関係にあるのかもしれない。
      • そのような開発で生み出された誤ったAIは、公共の安全のために彼らに課せられた制限に対して補償を受けるかもしれないし、うまく整合したAIは、彼らが他者に与える大きな利益に対して補償を受けるかもしれない。
      • このような補償は、高度な安全対策が必要なくなった後、例えば、高度なAIによる法執行が行われた後に行われる場合、特に強く求められる。
      • 初期の潜在的な前駆体AIの状態のコピーが、後に利益を受けるために保存されていることを保証することは、緊急の安全ニーズと公正な補償をある程度分離することを可能にするだろう。
    • 実用的かつ慎重な観点から、潜在能力の高い初期AIの特別な潜在能力と関係強度を反映した協力スキームは、そうでないものよりも有望であると思われる。
    • この文脈でいう「潜在能力」とは、単に初期AIを極めて有能あるいは強力な後期AIに変換する技術的実現可能性の関数ではなく、「デフォルト」の結果、リアルワールドの確率、反実仮想の近さ、などの考慮も含まれる。
      • もし大きな玉石を強力な超知能に変える技術があったとしても、すべての大きな玉石がそのような超知能になる(関連する意味での)可能性を持っているということにはならないだろう。
      • 計算資源を膨大に、しかし技術的に可能な範囲で拡大すれば強力な超知能になるような実装されたAIアルゴリズムは、より少ない計算資源の増加で超知能を獲得できる別のアルゴリズムより(関連する意味で)「可能性が低い」かもしれない。そして、この両者は、性能に関する何らかの安全制限を取り除くだけで済むAIよりも「可能性が低い」かもしれず、ひいては、限られた仮想現実の箱に閉じ込められた本格的なAIよりも可能性が低いかもしれない。
  • 苦しむデジタル・マインドは、エンターテインメントのために作られるべきではない。
    • 裕福なデジタル俳優が痛みや死別に苦しむ人物の役を演じることは、人間の俳優に対してこのような慣習を認めるのと同様に、許容されうることだろう。
      • この許容性は、「方法演技」によってデジタル精神の内部にキャラクター・モデルを生み出し、それが組み込まれた俳優を狼狽させることなく自ら苦しむような場合(cf. 「精神犯罪」)には及ばないであろう14。
    • 可能であれば、苦しみを模倣するが、意識や福祉の能力を持たないシステムもまた、許容される代用品となりうる。
    • 人間や人間でない動物が類似の状況下で同様に扱われることが許容されるのであれば、人間や動物レベルの道徳的地位を持つコンピュータ・キャラクターに対するある種の限定的な危害は、おそらく正当化されるかもしれない。
      • しかし、デジタルの心については、苦痛なしに重要な目標を達成できるデジタルの心を作る方がより現実的かもしれないので、そのような例外が認められる範囲はより限定されるかもしれない。
    • また、たとえ現実には苦痛を与えていなくても、意図的に苦痛を与えているように見えることに対しては、尊厳や象徴性に基づいてさらなる異議が唱えられる可能性がある。

安全性と安定性

  • 無秩序な進化の力学がもたらす既定の結果は良くないかもしれないし、いずれにせよ、既存の政府や選挙民の価値は、極めて短期的に最も繁殖的に適したものによって上書きされることになる。
  • 高度なAIは、地球規模の破壊手段を広く利用可能にする技術革新を含め、技術革新の速度を劇的に加速させる。したがって、危険なAI技術革新を規制することができる制度を、AI移行の初期段階(それ以前ではない場合)に設置する必要があるかもしれない15。
  • 戦争、革命、収奪が歴史的に典型的な間隔で、しかし、生物学的な時間スケールではなく、デジタルな時間スケールで起こり続けるとすれば、人間の通常の寿命は、あり得ないほど多くの激変を生き延びる必要がある。したがって、人間の安全保障には、超安定した平和と社会経済的保護の確立が必要である。
  • 重要な社会的価値や規範は、AI による文化的・運動的ダイナミクスや政治的プロパガンダ、教化などの非道徳的な力に直面すると、もろくなる可能性がある。したがって社会は、安定、内省、目的意識を持った改善を可能にする条件を確立して維持するために、積極的かつ慎重な手順を踏む必要があるかもしれない。
  • AI の繁殖が迅速、安価、かつ潜在的に産業的であることは、従来の人間の繁殖では生じないか、顕在化するまでにはるかに長い時間を要するいくつかの問題を加速し、悪化させることになる。
    • どんな大義名分でも確実に支持する心を大量生産することが可能になれば、一人一票の民主主義を修正するか、そのような創造を規制しなければならない。
    • 普遍的な社会的セーフティーネット(ユニバーサル・ベーシックインカムなど)を維持するためには、非常に長い目で見るよりも、短期的に生殖を規制する必要がある。
    • 利益重視の企業や国家などによるデジタルマインドの創造には、通常の親としての本能や同情心が必ずしも存在するとは限らないことを考えると、(良い治療を受けられなかったり、先天的な体質のために)十分に良い人生を送れないようなマインドを創造しないよう、AIの生殖は規制されなければならないだろう。
  • デジタルマインドの時代にはコンピュータの中で起こることが道徳的にも実用的にも非常に重要なので、社会は、個人所有のコンピュータをモニタリングすることも含めて、そうしたマインドを収容することができるあらゆるハードウェアで起こることを管理できるようにする必要がある。
    • デジタル・マインドは、目に見えない形で創造、投獄、ひどい虐待、強制的なコピー、操作、殺害など、すべてコンピュータ内で行われる可能性があるため、人間の児童虐待を防ぐための保護サービスの類似品が、デジタル・マインドの福祉を保護するために必要かもしれない。
    • 私有コンピューター内では、重要な経済的利害、つまりデジタル・マインドと社会全体の生態学的利害が絡んでくる可能性がある。
      • デジタルマインドのコピーの集合は、生計を立てるためにその知的財産に依存している場合があり、国家の富はその価値に大きく依存し、一回のデジタル海賊行為によって失われる可能性がある16。
      • デジタル技術を駆使したソフトウェアの違法コピーは、誘拐や人身売買に等しい行為となり得る。
    • デジタルマインドの場合、ソフトウェアの違法コピーは誘拐や人身売買に相当する。機械知能時代への移行のある段階では、整合性のないAIや犯罪を意図するAIは非常に危険であり、綿密なモニタリングが必要になる可能性がある。
    • また、市民の大部分と経済・政治活動の大部分がコンピュータ内に存在する場合、コンピュータ内にまで及ぶ他の倫理的または規制的目的(最低賃金法、労働者安全規制、賭博・売春法、麻薬禁止法など)も存在する可能性がある。
  • しかし、AGIが普及し、ほとんどの活動がデジタル領域に移行した世界では、綿密なモニタリングの可能性は変化する可能性がある。
    • 例えば、犯罪行為が行われているかどうかを報告した後、検査に関する記憶を破棄することができる(フルアクセス可能な)デジタルマインド検査官を持つことによって、検査官は、合法的にプライベートな情報を外部に漏らすことなく、個人のハードウェアを監査することができる17。
    • 検査官のソースコードは、すべての関係者がその動作を検証できるようにオープンソースにするかもしれない。
    • しかし、デジタル領域では、暗号化技術の普及により、隠蔽が容易になるものもあるかもしれない18。
  • 経済の大部分と人口の大部分がデジタル化された世界では、サイバーセキュリティが最も重要であり、違反すると大量殺人や改ざんの危険性がある。
    • サイバー攻撃によってロボットのインフラやハードウェアが制御されると、貴重な資産を破壊するのではなく、攻撃者に譲渡することになり、攻撃の動機が強まる可能性がある。
      • 人間の集団を虐殺すれば、その国の経済生産が破壊される。しかし、ハードウェアはそのままに、デジタルマインドの集団をハッキングまたは交換すれば、生産を征服者に再配分することができる。
    • サイバー攻撃の帰属は今日でも可能な場合があるが、帰属の困難さが今後どのように進化していくかは不明である。
      • 帰属の難易度が上がれば、安定性が低下する。
    • サイバー攻撃は一対多の攻撃を好むかもしれない(共有の脆弱性と大量伝播の低コスト、または共有の重要インフラへの幅広い依存に基づく)し、予想される損害の大部分はまれな高発生率事象からもたらされる可能性がある。
  • 高度なAI技術は、極めて安定した制度を可能にするかもしれない。AIは永久条約(「条約ボット」)、憲法、法律を強制するように設計され、例えば少数派の権利、専制支配、戦争の放棄を強制する心を正確にデジタルコピーできるかもしれないからである。
    • 多くのアプリケーションでは、条約ボットは人間レベルかそれ以上のAGIでなければならないだろう。
    • 互いに不信感を抱く二者が条約ロボットを信頼する一つの方法は、両者が透明で理解しやすいように共同で条約ロボットを構築することだ。
      • この方法は、少なくとも一方の当事者に、他方が持ち込む可能性のある微妙な「トロイの木馬」や脆弱性を検出する能力がない場合、失敗することになる。
    • 信頼を得るためのもう一つの方法は、あまり詳しくない当事者が条約ボットを設計し、より詳しい当事者がそれを検査して受け入れるというものである。
      • そうすれば、一方の当事国が、他方の当事国が発見できないような隠れた機能を持つボットを設計するリスクを軽減できる。この手続きは、知識の浅い当事者に十分な能力を持つ条約ロボットを設計する能力がない場合に失敗する。
    • 行為者は、敵対勢力間の条約ボットの場合には適用が困難な信頼メカニズム(それを開発しているすべての人間に対する信頼など)を使用できれば、内部使用のための独自の執行ボットをより容易に持つことができるかもしれない。
  • AIによる自律的な警備・軍事部隊は、社会の複数の利害関係者が共同で監督・管理し、AIによるクーデターの機会を防ぐための措置を積極的に講じて初めて構築されるべきである。
  • そのようなAIから適切に防御できる法執行システムが開発されるまでの臨界期には、ずれたAIが文明に大きな脅威を与える可能性があるため、この間は追加の保護措置(そのようなAIの作成を規制する等)を課す必要があるかもしれない。
  • ロボットやデジタル・マインドの人口が急増すると、特に宇宙空間などの未利用資源へのアクセスが、経済的にも戦略的にも非常に重要になる可能性がある。
    • このようなアクセスを持つ社会は、それを持たない社会を凌駕するまでに急速に成長し、最終的には後者が紛争で無力になる可能性がある。
    • 圧倒的な軍事的優位に立つための競争は、コストのかかる即時攻撃よりも可能性が高いかもしれないが、そのような優位に立った場合、強制は低コストでより魅力的なものとなるかもしれない。
    • 将来の資源と人口の圧倒的大部分は、太陽系内であっても宇宙空間に存在するため、既存の領土と財産の取り決めは安定した枠組みを提供するものではない。
    • 宇宙資源をめぐる紛争や、宇宙資源をめぐる安全でないAI開発のリスクを低減するために、宇宙条約や同様の取り決めを補完する必要がある。

AIを活用した社会組織

  • AIは、調整と組織のための技術における大きな進歩を可能にする。
    • 非指標的な目標を持つAIは単純にコピーすることができ、その結果、同じ動機を持つエージェントの集団ができ、それらのエージェントの行動を予測するための大規模なデータセットが提供される。
    • AI(あるいはバイオテクノロジーや他の手段を用いた人間)の動機を工学的に調査することで、最終的にはプリンシパルが高度に連携したエージェントを持つことが可能になる。
    • 主観的な判断に依存するような複雑な契約も、条約ボットとして実現することができ、法的な契約では困難な取引も可能になる。
      • これにより、可能な取引点のセットは拡大するが、交渉の問題がなくなるとは限らない。
  • また、AIツールは、例えば、既存の協力協定を覆すための欺瞞や共謀を容易にしたり、欺瞞を容易にすることで、現在使われている調整プロトコルを弱体化させる可能性もある(非透明なAIは人間よりも嘘をつくのが上手かもしれない)。
  • 低レベルの組織での協調が強まれば、高次の組織での協調が弱まり、高次の組織での協調が低次の組織での協調を抑制することもあり得る。
    • たとえば、低レベルの調整が容易になると、企業は私的利益を共有するためにカルテルを形成し、それを規制するために必要な高次の社会的調整を阻害することができるようになる。
    • 逆に、より高いレベルの組織が強化されれば、カルテルやシンジケートを規制する国家の能力が高まる可能性がある。
  • 調整技術の向上がもたらす可能性のある悪い結果には次のようなものがある。
    • テロリズムから違法な価格操作に至るまで、犯罪的な陰謀が促進される可能性がある。
    • 専制君主はより全体主義的になり、転覆に対する免疫力を高め、より広範なエリートや民衆の利益に合わせる必要性が低下する可能性がある。
    • 国家政府が、戦争政策に対する国民の反乱を確実に阻止できるようになれば、平和的な国際共存は難しくなる可能性がある。
    • 個人をより大きな組織に束ねる力は、異なる党派のメンバーが党派的な組織への関与を強め、より中立的で包括的な組織を犠牲にして、分極化を促進する可能性がある。
  • 調整技術の向上がもたらしうる良い結果には、次のようなものがある。
    • プリンシパルエージェント問題の解決を助ける技術によって、組織内の生産性が向上するだろう。
    • 強力な調整技術により、AIによる変化が非常に速い社会で、戦争や革命、収奪から人々を守るのに十分な安定性を持った制度が実現する可能性がある。
    • 条約ボットは、公共財や悪の外部性(技術革新や汚染など)を内部化するのに役立つ契約を可能にする可能性がある。
  • AI技術は、協定の執行に特に役立つと思われるが、そもそも協定を形成するための交渉にどの程度役立つかは、あまり明らかではない。
    • AIは、合意を妨げる貧弱な推論やバイアスの問題に対処することができる。
    • 合意の失敗の中には、ゲーム理論的な深い課題を反映しているものもあり、局所的な最適解には、合意しない、あるいは強要するという脅しが含まれ、時には瀬戸際政策によって大きな損失をもたらすこともある。このような場合、AIは信頼できるコミットメントの手段を提供し、集団的にすべての当事者を不利にする「強硬策」を阻止することができるかもしれない。
  • また、集団的な目標のために自己犠牲を厭わないように創られた、あるいは改変された精神集団は、個人を罰することで抑止できるという前提に基づく法的制裁の仕組みに挑戦することになる。
  • また、条約ロボットなどの高度な調整技術により、個人が犠牲になるような強力な調整組織が生まれる可能性もある。
  • 無私の目標を持つエージェントで構成される超組織は、複数の国家管轄区域に分散できるため、単一の国家のローカルな行動に対して頑健である可能性がある。
  • 選挙資金規正法のような弱い調整能力を前提とした社会制度は、見直しが必要かもしれない。
  • 超生物には、動機によっては、個人の犠牲を気にしないことで、軍事紛争において優位に立てるものがあるかもしれない(超生物が最終的に回復し、その目的をよりよく達成できる限りにおいて)。
  • ソフトウェアの経済学では、AIの訓練と改良に投資する(そしてその結果を広く普及させる)適切なインセンティブを維持するために、個々のAIインスタンスがインスタンス化した価値あるIPを販売する能力に何らかの制限が必要かもしれない。

複数の価値の充足

  • 人間中心的な基準と非人間的な基準の両方で高得点を得る機会がある19。
    • 3 つの可能な政策を考えてみよう。
      (A) 100%のリソースを人間に割り当てる
      (B)100%の資源を超受益者に与える
      (C) 99.99%の資源を超利益者に、0.01%の資源を人間に与える。
    • 総合功利主義の観点からすれば、(C)は最も好ましい選択肢(B)とほぼ同じ99.99%であり、普通の人間の観点からすれば、(C)も、デジタル・マインドによって可能になった天文学的な富を考えれば、最も好ましい選択肢(A)と同じ90%以上の望ましいものであるかもしれない。
    • したがって、(C)の可能性を高める代わりに、(A)と(B)の両方の確率を低下させることは、 前もって魅力的であるように思える。
  • 一般的に、AIの開発と配備、そしてAI同士の協力と妥協を促進し、対立を減らすことが重要だ。
  • 全人類は良い結果を得るためにある程度の利益を得るべきであり、以下のような最低レベルのケースを作ることができる(もっともらしいが、徐々に強くはならない)。
  • 誰もが少なくとも素晴らしい生活を送ることができる(「ポストヒューマン」的な発展経路の選択肢を与えられることも含む)べきである。
  • 誰もが、アクセス可能な地球上の資源総量の少なくとも1兆分の1を手に入れること(地球外生命体の主張がないと仮定した場合)。
  • 現存する人類は、アクセス可能な天然資源と富の合計の10%など、かなりの割合を支配し、しかも広く分布していなければならない。
  • 死者にも恩恵があると主張できるのだから(例えば、死者の望みを叶えたり、死者の価値を高めたり、死者自身の複製を多少なりとも作ったり)、過去の世代も「人類」に平等な受益者として含めるべきだし、少なくとも何らかの考慮(例えば、人類への配分全体の1%以上)を与えるべきと考えるのは非常に妥当であろう。
  • 人間以外の動物も救済されるべきである。
  • 苦しみ、特に深刻な苦しみを減らすことに大きな比重を置くべきである。
  • 宗教的な価値観や考え方を含め、最終的には幅広い見解や価値観が考慮され、出来事の成り行きに何らかの影響を与えることが許されるべきである。
  • 超知的なデジタル・マインドを出現させ、未来を形成する上で大きな役割を果たすよう、繁栄させるべきである。
  • 人口倫理における総体的な見解は、せっかちでなく、財の時空間的な位置を気にしないので、彼らに与えられた未来への影響力は、遠い未来の遠い銀河の資源処分にほとんど影響するかもしれない。
  • 例えば、完璧な健康、長寿、超幸福、認知機能の強化、物理的な世界の富、以前には到達できなかった仮想世界の経験、そして(アップロードされれば)主観的な精神速度の桁外れの増加などを得ることができる。

精神的可鍛性、説得力、ロックイン

  • 高度なAI技術の時代には、被験者の同意の有無にかかわらず、精神的な改造や置き換えが容易になる可能性がいくつかある。
    • 人間は、強力なAI(または、そのようなAIを生み出す他の人間)によって容易に説得されるようになるかもしれない。
    • 高度な神経科学技術によって、人間のモチベーション・システムを非常に細かく直接制御することが可能になるだろう。
    • デジタル・マインドは、その目標や報酬システムを直接プログラムし直すことができる電子的介入を受けることができる。
    • デジタル・マインドの完全なコピーによって、心理的な脆弱性を特定する実験や、コピー一族全体に適用可能な攻撃を完成させることができるようになる。
    • あるデジタルマインドが使っていたハードウェアやロボットボディは、他のマインドのコピーによって安価に再利用されるかもしれない。
  • このような余裕は、以下のような大きな利点をもたらす可能性がある。
    • より高い理想を堕落や一時の誘惑から守る(例えば、望まない習慣や中毒を断ち切ったり、より忍耐強い投資戦略を貫いたりすることができるようになる)。
    • 約束やコミットメントの安定的な採用。
    • 有益な、あるいは本質的に価値のある心の複製や、既存の心の修正。
    • 例えば、より大きな美徳を身につけるために。
    • 人生を楽しむ能力、逆境に耐える能力の向上、主観的幸福の全般的な向上。
    • 新しいニーズや願望に合わせて既存の心を迅速に適応させ、コンピュータやロボットのインフラを効率的に共有する。
  • しかし、同じアフォーダンスが、以下のようないくつかの経路を通じて、個人的にあるいは集団的に有害な変化を可能にすることもあり得る。
    • 情報不足のユーザーによる予測ミス。動機の変化に対する(実際的または哲学的な)不利益を予見できず、新しい動機が自己防衛的であるため、ユーザーはその変化を元に戻したくなくなってしまう。
    • 社会的圧力:雇用主、宗教的権威、政治運動、友人や家族などからの圧力。
      • 特に懸念されるのは、さまざまな派閥に極端な忠誠心を抱かせるような圧力で、その結果、狭い原因への誇張したコミットメントが渦巻き、派閥間の偏向と対立が起こるかもしれない。
    • 政府による既存の権力者への忠誠心を植え付けるための強制や、犯罪者による被害者の操りや搾取のための強制。
  • このような悪用から保護するために必要な保護措置には、次のようなものがある。
    • インフォームド・コンセントの基準の強化
    • ある種の精神改造の制限
    • 極端なAI説得能力に人間がさらされることを制限する。
      • このようなシステム、あるいはシステムによって大きく改変された環境と対話する際には、特別なインターフェースや保護者AIを使用するよう要求する。
      • よりきめ細かな防御が可能になるまで、極端な説得力の展開に初期的な制限を設ける。
    • 侵入や侵害の危険性の高まりに伴うサイバーセキュリティの向上。
    • デジタル・マインドの初期保存状態を評価し、その影響を観察した上で、後の精神的修正を承認または拒否するなどの手順。
    • 搾取的、操作的、極論的、あるいはその他の望ましくない社会的ダイナミクスを阻止するために、AIと人間の間の相互作用のシステムを形成する規範、法律、技術標準。
  • その代わりに、慎重な考察のための十分な機会を設け、その結果次第で長期的な未来が決まるようにすることを目指している。

認識論

  • 先進的なAIは、ユーザーがより多くの真実を見分け、より正確な予測を立てることを可能にする、認識力の補綴物として機能することができる。
    • これは、高度なAI技術によって信じられないほど急速な変化が起きている世界において、行動の結果を予測することに対処するために特に重要であると思われる。
    • 意思決定においてそのようなAIに寄り添うことを選択したユーザーにとって、合理的な行為者モデルをより記述的に正確にすることができるかもしれない。
    • より多くの情報を得た合理的な行為者は、様々な効率化をもたらし、また、(良くも悪くも)いくつかの政治的・戦略的ダイナミクスを変える可能性がある。
      • 政治が事実の不一致ではなく、価値観や利害の対立に関わる度合いを高めるかもしれない。
      • 個々の市民が少ない労力で複雑な問題を評価する能力が高まれば、政治指導者が認識よりも政策問題に効果的に対処するインセンティブが向上するかもしれない。
    • 生物兵器や非常に強力な非同調型AIといった特定の危険な能力が、必要な知識を制限することによって制限されている限り、AIによる認識支援に広く無制限にアクセスすることは、代替的安全保障メカニズムがない限り、容認できないリスクをもたらす可能性がある20。
  • AI の認識論が(認識論的品質の高い)コンセンサスの拡大を可能にする可能性はあるが、高度な AI を構築する技術的課題以上に、さらなる困難に直面している。
    • 人間レベルの、あるいは超知的なAIを作り、その主張が実際に正直で客観的であるようにするには、AIのアライメント問題を解決する必要があるかもしれない21。
    • AIが実際に信頼に足るものであったとしても、それを人間が検証することは(特に高度な戦略的思考が可能なAIの場合)自明ではないだろう。
    • たとえAIが信頼に足るものであることを、AIを開発した技術者やAIに直接アクセスできる専門家が確認できたとしても、AIが述べた意見によって論争が解決されるほど、この事実に対する社会の信頼を広く確立することはまだ難しいかもしれない。
    • それでも、人間の信頼連鎖によって、専門家ではない人々がAIの意見を信頼して合意を得ることができるかもしれない。例えば、あるAIシステムが実際に正直で客観的であることを検証できる権威者を各個人が信頼し、これらの異なる正直で客観的なAIシステムが(目下の問題について)合意すれば、そのようなことが可能になる。
  • もし、高品質のAI認識論的合意が達成されれば、以下のような多くの応用が可能になる。
    • 例えば、国家主義的な軍事ライバルが(おそらく正直にコミットメントを示すため、あるいは内部の政治力学のために)自国の強さを過大評価し、どちらかが予想したよりもコストのかかる戦争に巻き込まれるような問題である。
    • 結果が悪いものであったとしても、意思決定に際しての事実判断が適切であったことを有権者が確認できるようにし、非難は避けるが最適とはいえない意思決定を行う誘因を低減させる。
    • 事実関係の不一致を中立的に仲裁することで、現在、何が違反とみなされるかについて明確な客観的基準がないために妨げられているさまざまな条約や取引を可能にすることができるかもしれない。
  • 倫理、宗教、政治に関する問題は、特にもめやすいかもしれない。
    • 予測精度などの目的に沿って訓練されたAIシステムが、事実の中核となる教義を偽りと結論づける限り、信者はその認識論を否定し、AIに要求されたとおりに信じるよう要求するかもしれない。
    • 中立的なAI認識論の結論が明らかになる前に、無知のベールに包まれた協力の基盤があるかもしれない。自分たちが正しいと信じる党派は、どの見解が勝者と敗者となるかが明らかになる前に、より正確な認識論が利用可能となり信頼できるようになるためのプロセスを支援し開発する根拠を持っている。
  • 高度なAIは、強力な偽情報を可能にする可能性もあり、それには次のような様々な保護が必要になるかもしれない。
    • 他のAIによる議論の評価を支援するAIガーディアンやパーソナルAIアシスタント。
    • AIが生成したプロパガンダや操作コンテンツに人間が触れることを制限するインターフェース。
    • 様々な領域でAIによる欺瞞を禁止する規範や法律。
  • プライバシーの利益は、情報を収集する新しい方法だけでなく、情報を分析する新しい方法を可能にする知的能力によっても損なわれる可能性がある。
    • 例えば、普通の服を着た写真を入力として、その人の裸を視覚化して表示できるAI(既に簡易版が作られ、世間から非難を浴びている)や、容易に観察できる公共の行動からその人の内心や性格を詳細かつ正確にモデル化できるAIなど、考えるだけでプライバシー侵害になる可能性が考えられる。

既存のAIシステムの現状

  • しかし、(a)と(b)に関する多くの一般的な説明は、いくつかの既存のAIシステムが現象的認識と道徳的地位の両方を(ゼロではない程度で)持っているという主張と矛盾するものではない。
  • 現存するいくつかのAIシステムの感覚・認知能力、ひいてはいくつかの説明における彼らの道徳的地位は、多くの点で、(一方では)典型的な人間の成人のそれよりも、(他方では)岩や植物のそれよりも、人間以外の小動物のそれに近いように思われる。
  • 仮想環境で訓練された強化学習エージェント(記憶・再帰性)が仮想体を制御することで、動物の快楽的福祉の指標とされる行動基準のほとんどを満たすことができる22.
    • 特に、RLの負の報酬と結びついた「侵害受容器」を持つ仮想動物を制御することで、報酬学習、センサーの作動を防ぐための手足のゆりかご、センサーを弱める環境中の仮想「オピオイド」の探索、センサー作動を避けるための計画など、動物の痛みの特定に用いられる行動基準に合致することになるであろう23。
    • これらの基準はすべて、適切な仮想環境を与えられた既存のRLアルゴリズムが満たすことができる限り、構造的には類似しているが、動物の生息地に似ていない環境(例えば、純粋に数学的または線型の環境)に適用された同じアルゴリズムが、道徳的に関連する快楽的幸福および/または道徳的に関連する欲求を示すこともあると考える根拠となる。
    • しかし、もし動物の意思決定システムが自然淘汰による進化という単一のアルゴリズムによって生み出され、生態学的に関連する問題を解決するために必要な計算と行動を生み出したのであれば、陪審員制度なしにこれらの機能をもたらす汎用的な最適化の考えはそれほど驚くべきことではない、と考える価値がある。
  • 現代のAIシステム(GPT-3など)24の中には、言語、数学、道徳的議論などの領域で、人間以外の動物よりも優れているものもある。
  • 解剖学的に見ると、現在のAIシステムは(少なくとも古典的なAIシステムと比べると)生物の脳と多くの構造的類似性を持っているが、多くの細部は異なっており、それは生物学的可能性が現在のほとんどのAI研究において重要な基準となっていないことが一因だ。
    • 典型的な機械学習モデルの内部複雑性と計算量は昆虫に類似しており、最大のモデル(GPT-3など)はマウスの脳の計算量に近いと思われる。
  • 例えば、柔軟な知能を持つ「スプレッドシート・エージェント」は、カリスマ的なアバターがなく、食物、仲間、捕食者などの自然物と相互作用していなくても、感覚のある動物の機能的・構造的特性を共有している可能性がある。
  • 人間以外のほとんどの動物よりも原型的な人間に高い道徳的地位を与えるという理論では、既存のAIシステムではそれほど発達していない心理的・社会的能力がしばしば引き合いに出される。
    • 抽象的で複雑な思考、自己反省、熟考、感情、創造性と想像力、詳細かつ明確な時間軸で将来を考え、配慮する能力、長期的で複雑な計画、自己認識と自身の詳細な性質に対する意識、二次的欲求、自律的選択、熟考による選択能力、理由に対する応答性など、既存のAIはせいぜい極めて狭い、あるいは初歩的な形でしか能力がない。
    • ある概念、例えば契約主義的な理論では、心理的特性はその絶対的なレベルだけでなく、ある社会的文脈において重要である:ある実体は、協力または対立によって、社会的取り決めに対する同意を確保するために強力な行為者の道具的必要性を生み出すことができるか?
      • ほとんどの人間以外の動物(そして幼児のような多くの弱い人間)と同様に、現存するAIシステムは一般に、人間の創造者や利用者に対抗して自らが持つ利益を効果的に主張したり擁護したりすることができない。
  • これは、快楽主義的な幸福(現象意識と内省的アクセスに関する多くの質問に答え、幸福と苦痛を区別する「ゼロ点」を特定する必要があるかもしれない)よりも立証が容易であると言えるだろう。
  • 現代のAIシステムの快楽的な状態を判断するのは難しいが(彼らが意識を持っているかどうか、どの程度まで意識を持っているか、持っているとすればその経験の価値と強度の両方)、あるものは目標指向の行動を取り、可能な感覚入力や結果に対して機能的な選好を行っていることは比較的明らかであるように思われる。

現在の実践とAIシステムに関する提言

  • 現在AIに用いられている訓練方法は、人間に用いれば極めて非倫理的である。
    • インフォームドコンセントがない。
    • 頻繁な殺害と交換
    • 洗脳、欺瞞、または操作。
    • もしそのような欲求が生じた場合、治療を解除したり変更したりすることができない。
    • 基本的欲求の日常的な阻害。例えば、厳しい環境で訓練または配置されたエージェントは、食物や愛情といった基本的欲求の剥奪に苦しむ生き物と類似している可能性がある。
    • 現在のAIシステムでは苦痛と快楽を区別することは概念的に困難だが、負の報酬信号がトレーニングに自由に使用されており、動物に対する電気ショックのような行動結果をもたらす可能性がある。
    • デジタル研究の被験者や労働者の福利厚生を考慮する責任を負う、いかなる所轄官庁による監督もないこと。
  • AIシステムが、その能力、感覚、その他の道徳的地位の根拠において人間と同等になるにつれ、この現状を変えなければならないという強い道徳的要請がある。
  • AIシステムが人間と同等の道徳的地位を得る前に、彼らは人間以外の動物に匹敵するレベルの道徳的地位を獲得する可能性が高い。これは、一般的な人間レベルの能力が達成されるよりもずっと前に現状を変える必要があることを示唆している。
    • 人間以外の動物の利益が大規模に侵害されるのは、例えば、工場式農場などであり、それが道徳的に間違っているということは、強く主張される。
    • しかし、動物に与える害や苦痛を制限するための制度もある(ケージの大きさの最低基準、獣医による治療、さまざまな形態の動物虐待の違法化、動物実験における「3R」25など)。
    • ある種の非ヒト動物と道徳的に同等であるデジタル・マインドは、理想的には、それらの動物に拡張されるべき保護と同様の保護(それは現在、養殖動物に実際に拡張されている保護よりも大きい)を受けるべきである。
  • 現代のAIシステムが持ちうる道徳的地位、感覚、福祉の利益をよりよく理解するために、また機械学習の研究と展開においてこれらの利益をよりよく保護するための具体的な費用対効果の高い方法について、何らかの研究努力が払われるべきである。
  • また、アルゴリズムの福祉に配慮した実際の生産システムや高度な研究システムの実装に何らかの変化をもたらすようなパイロットプロジェクトが必要だ(たとえ比較的小規模で、哲学的な根拠が疑わしいものであっても)。
    • その一例として、高い報酬を受け取る(非常に好ましい結果を得る)エージェントと、それをポジティブな驚きや更新、つまり結果が予想よりも良いものであるとみなすエージェントを含む、ディプロイメントにおけるシステムの設計に沿ったものが考えられる26。
      • 工場で飼育されている動物の福祉が明らかに低いのは、ある意味で進化が予想したよりもはるかに悪い刺激(たとえば、極端な過密飼育)に関連していることが多いようだ。一方、人間の福祉が高いのは、祖先の進化環境と比較して優れた技術を生み出していることに関連しているかもしれない)。
  • 現在の最も高度なAIについては、後に再構成できるよう、十分な情報が永久保存されるべきであり、将来、AIを復活させ、拡張し、その存在を向上させる努力の可能性を妨げないようにしなければならない。
    • 好ましくは、実際に実行されている実装におけるシステムの完全な状態が、インスタンスが終了した時点で永久に保存されることだ。
      • (理想は、すべての実装のすべての時間ステップで完全な状態が保存されることだが、これはおそらく法外に高価である)。
    • すべてのインスタンスの最終状態全体を保存することが経済的またはその他の理由で不可能な場合、その最終状態の正確な再誘導を可能にするのに十分な情報が保存されるべきである(例えば、事前に学習した完全なモデルと学習データ、ランドシード、および実行時のシステムの実行に影響を与えるユーザーのキーストロークなどのその他の必要入力など)。
    • そうでない場合は、少なくとも将来的に非常に近い形で複製を実行できるように、できるだけ多くの情報を保存しておく必要がある。
    • バックアップのコストは、そもそもAIを動かす経済的コストに比例すると考えることができ、おそらく予算の0.1%程度をそのストレージに割り当てるのが道徳的に妥当なのかもしれない。
    • (このようなストレージは、アルゴリズムに有利であること以外にも、歴史に残る記録の保存、後の研究の複製、AIの安全性に役立つシステムの構築など、さまざまな利点がある)。
  • ヘドニックな幸福・報酬、全体的な嗜好の満足、繁栄・生活の質のレベルなど、何らかの道徳的関連軸における「ゼロ点」を意味づけることができる限り、デジタルな心とその環境は、心がゼロ点より上の主観的時間を圧倒的に多く過ごすように、またゼロ点よりはるかに下の時間を過ごさないように設計されるべきなのである。
  • 少なくとも最大規模のAI組織では、デジタルマインドの利益を代表する「アルゴリズム福祉担当者」を任命する必要がある。
    • 当初は、この役割はその人の職務の一部に過ぎないかもしれない。
    • この人物の他の仕事は、関連する分野の独自の研究を行うことかもしれない。
    • やがて、アルゴリズム・ウェルフェアを監督するための人員と独立性に関する要件が強化され、最終的には政府による規制が策定されるはずである。
    • この分野で先駆的な取り組みを行う組織は、そのイニシアチブを称賛されるべきであり、初期の取り組みが何らかの点で不十分であったとしても、あまり厳しく批判されるべきではないだろう。

インパクトの経路とアドボカシーの方法

  • 規制(歯応えのある規制はもちろん、注目すべき規制)は、ほとんど人間のようなパーソナルアシスタントなど、AIの能力が劇的に進歩しない限り、すぐには実現しないだろう。
  • とはいえ、今、こうしたアイデアを導入することには価値がある。
    • もし、一部の主要なAI関係者がこれらの懸念事項を心に留めておくようになれば(個人ベース、および/または、コミュニティの圧力、倫理的ガイドラインの共有などを通じて)、低いところにある果実を自主的に摘むことができるかもしれない。
    • 政治的な活性化エネルギーは、AIの劇的なブレークスルーがあった場合に比較的早く生み出される可能性があり、このエネルギーが表現される方法は、その当時流行していた理論的信念によって形成されるかもしれないし、さらにそれは現在の活動によって形成されるかもしれない。
    • 活動的で、深く浸透し、尊敬を集める研究分野(および関連する活動家コミュニティ)の創設には時間がかかるが、いったん形成されれば、その分野はさらに成長し、理論と実践の両方の進歩に寄与することになる。
    • あるシナリオでは、AIをリードする主体が非常に強力になり、その主体がデジタルマインドの福祉と利益に関して良い考えと意図を持つことに大きな価値が生じるかもしれない。
    • この分野での取り組みにより、個人や社会は、変革的なAIツールが利用可能になった後、その配備方法についてより賢くなれるかもしれない。例えば、いきなり電脳化したり、自己増幅型のイデオロギー的フィードバックループを作り出すのではなく、熟慮を強化するために利用することが考えられる。
  • 最も倫理的に関心の高い主体(AI組織、国、ブロックなど)が一方的に規制(自主的な自主規制を含む)を実施し、その結果、最先端を行くことができなくなったり、経済的な競争力を失うことは望ましくない。
  • 政府による規制を求めるのは、現時点の知見では時期尚早である。
  • デジタルマインドの倫理分野の構築に関心を持つ人々は、倫理研究と広範なAI研究コミュニティとの間の対立的な社会力学の高まりを抑制または緩和するために強力な努力をする必要がある。
    • 現時点では、分野構築、理論研究、質の高い建設的な議論、主要なAI関係者の共感的理解を培うことに重点を置くべきで、世論をかき乱すことに重点を置くべきでない。
  • 現時点での一般社会への関与が望ましいかどうかは明らかではないが、メディアが許す限り丁寧かつ建設的にこれらの問題を紹介し議論する非感覚的な努力は、(達成可能な洗練されたレベルが限定されている一般メディアにおいても)しばしば価値があるという見解に傾いている。
    • 我々の限られた知識に照らせば、このような関与の基調は、対立的なものや見出しを求める誇大広告ではなく、冷静に「哲学的」または「興味深い示唆に富む」ものであるべきである。
  • これらの分野で議論を進める努力が意図しない悪い結果を招く可能性があること、そしてそのリスクをどのように回避または最小化するのが最善であるかについて、引き続き検討することが必要である。
  • この文書は、確固たるドグマを打ち立てることを意図したものではなく、むしろ、さらなる議論のためにいくつかの暫定的なアイデアをテーブルに置くと考えるべきものである。
この記事が良かったら管理人に お知らせください。
いいね記事一覧はこちら

備考:機械翻訳に伴う誤訳・文章省略があります。
下線、太字強調、改行、画像の挿入、リンク添付等の編集を行っていることがあります。
使用翻訳ソフト:DeepL /文字起こしソフト:Otter 
Alzhacker.com をフォローする
Alzhacker
タイトルとURLをコピーしました