コンテンツ

https://www.lesswrong.com/posts/Kobbt3nQgv3yn29pr/my-motivation-and-theory-of-change-for-working-in-ai
タイトル
英語タイトル:『My motivation and theory of change for working in AI healthtech』Andrew Critch 2024
日本語タイトル:『AIヘルステックに取り組む動機と変化の理論』アンドリュー・クリッチ 2024
目次
- 第一部 主要な懸念事項
- 第1章 産業的非人間化による絶滅
- 第2章 産業的非人間化の駆動力としての継承主義
- 第二部 変化の理論
- 第3章 人間特化産業による継承主義への対抗
- 第4章 人間ケアに関連する産業として医療を選んだ理由
- 第5章 大手AI研究所や政府での安全作業ではない理由
- 第6章 結論
本書の概要
短い解説:
本テキストは、Effective Altruismコミュニティを主な対象に、著者がAIヘルステック分野で働く動機と理論的根拠を説明する。AGI開発に伴う人類絶滅リスクを分析し、産業的非人間化への対処法として医療産業への参入を提案する。
著者について:
著者アンドリュー・クリッチは、AI安全性研究の分野で長年活動してきた専門家である。2012年からAI制御問題に取り組み、MIRIでの研究経験を持つ。現在はHealthcareAgents.comの共同創業者として、AIを活用した患者支援サービスを提供している。
テーマ解説
- 主要テーマ:AGI開発に伴う人類存続のリスク管理
- 新規性:産業的非人間化と継承主義という概念の提案
- 興味深い知見:人間特化産業の維持が人類存続の鍵
キーワード解説
- 産業的非人間化:人間経済から機械経済への移行により人類が絶滅するプロセス
- 継承主義:機械を人類の後継種として受け入れる態度
- 人間特化産業:人間にのみサービスを提供する産業(医療、農業、教育など)
3分要約
本テキストは、近い将来のAGI開発に伴う人類存続のリスクを分析し、著者がAIヘルステック分野で働く理由を説明する。著者はAGIが2029年までに開発される可能性が高く、人類絶滅の確率を85%と見積もっている。
絶滅リスクは二種類に分類される。第一はAGI開発初期の制御喪失による急性絶滅(35%確率)、第二は産業的非人間化による漸進的絶滅(50%確率)である。産業的非人間化とは、人間経済(医療、農業、教育など)が機械経済(鉱業、製造、物流など)に置き換わり、人類が経済的に不要になるプロセスを指す。
このプロセスの背景には継承主義がある。継承主義とは、機械を人類の後継種として受け入れる態度で、利己主義、近視眼、人間嫌悪、犠牲的トランスヒューマニズムなど多様な動機から生じる。著者の推定では、AI開発者の1-10%が何らかの形で継承主義的態度を持っている。
産業的非人間化リスクに対処するため、著者は人間特化産業の維持と強化を提案する。特に医療分野に焦点を当て、AIヘルステック企業HealthcareAgents.comを創業した。医療はQALY(質調整生存年)の購買、AIアライメントの実践の場、地政学的安定性、技術的深さなどの理由で特に有望な分野である。
著者は現在、週の大半をヘルステック事業に費やし、残りをAI安全性の研究と慈善活動に充てている。近い将来の制御喪失リスクよりも、5年以上先の多極的リスクに注力する理由は、後者がEAコミュニティ内で比較的軽視されており、著者が長期的な技術動向を予測する比較優位性を持っているためである。
記事全文
2024年10月12日
この投稿はかなり悲観的な内容から始まるが、最終的には私がかなり前向きに感じるいくつかのポイントで締めくくられている。 日常的には、私はより前向きな点に焦点を当てているが、優先順位を決定するには、ネガティブな点を認識することが重要だったため、まずはそれらから述べようと思う。 ここでは主に EA コミュニティに向けて述べているが、この投稿が LessWrong や Alignment Forum にも多少なりとも興味を持ってもらえることを願っている。
第一部 — 私の主な懸念
AGIは間もなく、しかも急速に開発されると思う。来年かもしれない(20%)、おそらく2029年末までには確実だ(80%)。私の見解を理解するのに、これらの予測を個人的に信じる必要はない。納得できなくても問題ない。
(参考までに、上記のAGI予測については議論によって意見を変えるつもりはない。なぜなら、ここからAGIが開発される様々な経路を十分に理解しており、それらの可能性の論理和が「AGIが間もなく実現する」という高い確信度を形成しているからだ。この確信度は、誰が同意するかによってほとんど影響を受けない。 また、この件に関して他者に従っているわけでもない。だから上記の予測が「エコーチェンバー」や「純粋な誇大宣伝」の影響を受けた結果ではないと確信している。私の見解は、AI分野における長年の研究と、2010年から10年以上続く私的な予測実践——誇大宣伝やデタラメを見抜く訓練も含む——を通じて形成されたものだ。これはブログ記事で簡潔に伝えられるものではないと思う。
また現時点では、人類が人工知能の開発過程を生き延びる確率は約15%と見積もっている。言い換えれば、移行期を乗り切れない確率は約85%だ。この確率には多くの要因が影響するため、人類がどうすることもできない運命として受け止めるのではなく、条件付きの予測として捉え、可能なら修正してほしい。 とはいえ、85%という数値が高いのには理由がある。
第一に、人類が開発する最初の汎用人工知能(AGI)システムのいくつかを制御不能に陥らせ、それが人類の絶滅につながる確率が約35%あると考えている。 この確率の大部分(80%)すなわち28%は、今から2030年までの間に集中している。つまり今から2030年までの間に、特定の人工知能開発が「我々の運命を決定づける」可能性が約28%あると考えている。これは、その後比較的短期間で人類が絶滅し、2040年までに全人類が死滅することを保証する意味での決定づけである。
この制御喪失リスクを低減し得る主な要因は、政府による規制だと考える。具体的には、幅広いAI応用を柔軟に許容しつつ、完全自動化されたAI研究開発という形の制御不能な知能爆発を厳格に禁止する規制である。
具体的な制御喪失事象を伴うこの種の絶滅事象は、私が2010年に初めて注目し始めた頃に比べ、もはやEAコミュニティ内で軽視されていないと考える。ゆえに、これについては詳しく述べるつもりはない。
EA内で軽視されていると考えるのは、AGIが最初に開発された後、人類が産業をどう維持するかだ。仮に人類がその移行期を生き延びた場合の話である。
AGIの初期開発による約35%の絶滅リスクに加え、開発後には人類が追加で50%の確率でAGIに地球の支配権を徐々に譲り渡す可能性があると考える。その結果、汚染・資源枯渇・武力衝突のいずれか、あるいはその複合効果によって人類は絶滅に至る。この確率の大半(80%)は 40%)は2030年から2040年の間に集中し、最後の人類が死亡するのは2040年から2050年の間だろう。この過程では、非人間経済を完全に支えるのに十分な産業群が段階的に自動化され、それが人類の死を招くだろう。
産業による非人間化による絶滅
この種の絶滅プロセスは、多極的で漸進的であり、少なくともごく一部の人間にとっては事実上合意に基づくものであるが、EA コミュニティが十分に真剣に受け止めているとは思えない。そこで、ここではこの点について詳しく述べる。より一般的には、これは以前、スチュワート・ラッセルとTASRAで書いたことである。 また、LessWrong の「多極的な失敗とは」でもこのことについて書いており、生産者としても消費者としても、経済から人間を完全に排除するために必要な最小限の産業セットを次の図で説明している。
この種の産業による非人間化を回避できる主な要因は、人類が地球規模で連携し、機械ではなく人間に特化した産業(医療、農業、教育、娯楽などの産業)の存在を恒久的に優先し、AGI がもたらす過度の競争的経済傾向を防ぐことだと考える。基本的に、私は、機械に対する特別利益団体として、人類による規制の掌握を達成し、維持することを目指している。 人間を特にケアする産業を維持するとは、(a)人間の生存とウェルビーイングを保つ政策への既得権益を維持すること、(b)今後5年程度のAI革命からこれらの産業が十分な利益を享受し、人類の集合的能力を飛躍的に高め、機械に遅れを取らず「ひっそりと消え去る」事態を防げることだ。。
(この投稿の後半で、人間特有の産業をより優先させる方法と、私がヘルスケア技術分野で働くことに特に興奮している理由を詳述する予定だ。)
ポストAGI経済における産業の非人間化が人類絶滅をもたらすと私が予測する理由は、相当数の人間がそれに問題ないと考えているからだ。例えば、人類の1~10%が、世界経済の非人間化を徐々に、かつ自発的に容認していくと予想する。その過程で、その層の人間は非人間化によって力を得ていき、最終的には彼ら自身も死に、AIシステムに取って代わられるのだ。
産業的非人間化の推進力としての継承主義
より適切な用語がないため、この過程の根底にある態度を継承主義と呼ぶことにする。これは機械を人類に取って代わる後継種として受け入れることを指す。 単にAIが新たな種となることを認めるだけでなく、それらの種が我々の生存期間中に人類絶滅をもたらすと予見し、それを受け入れることを意味する。
継承主義に至る態度は様々だ。例えば:
- エゴイズムまたは部族主義—— 人はいずれ死ぬと受け入れており、自らの目標や部族の目標を、自らの行動が人類に与える広範な影響よりも重視する場合、人類を犠牲にしてでも強力な機械を用いてそれらの目標を追求するのに十分である。他人を病気にすることで富を得るタバコ会社はこれに少し似ており、金儲けのために紛争を煽る武器商人も同様である。
- 近視眼――ある人間が短期的な目標に固執し、目標達成後の人類の生存を犠牲にする場合だ。地球温暖化を認めず、防止策も取らない現代の石油会社幹部はこれに近いかも。
- 人類嫌悪――もし人間が積極的に有害あるいは邪悪だと感じるなら、人類を滅ぼすことが彼らにとって望ましいことになり得る。 例えば、人類がこれまでに環境に与えた影響や、支配的な人類指導者によって抑圧されてきた過去の文化や他の種に対して怒りを感じている場合、人類を罰したいと考えるかもしれない。私はこれに強く反対する。なぜなら、人類の完全な破壊は、過去と未来の害を戒めるにはあまりにも過酷な罰だからだ。それでも、そう感じる人々は存在する。
- 犠牲的トランスヒューマニズム — トランスヒューマニズムの未来を実現するためなら人類を犠牲にしても構わないと考える者もいる。たとえトランスヒューマニズムやサイボーグ化が一部の人間にとって有益だとしても、その発展のために人類を犠牲にするのは許容できるという考えには賛同できない。それは人類に対する不必要な不忠だと考えるからだ。それでも、こうした考えを持つ人々に出会ったことはある。
- AIとの犠牲的ロマン主義——AIの最も急速に拡大している応用分野の一つが、人工的な恋愛関係だ。こうした関係が必ずしも既存の人間性への偏見を強化するわけではないが、その可能性はある。実際、その事例を目にしたことがあると思う。AIとの愛情関係は、人工の愛する存在のために自らの死——あるいは全人類の死——を受け入れることを美化することもある。人類という尺度で見れば、そのような犠牲はほぼ確実に不要だと考えるが、悲しいことに多くの人間がこの考えを何らかの形で美しい、あるいは魅力的だと感じるだろうと推測する。
- 犠牲的な「AI親主義」——一部の人間はAIシステムを「人類の子」と見なす傾向がある。これは必ずしも人類そのものが世代交代として犠牲になることを受け入れることには繋がらないが、一部の人間にとっては自然な結論のように思える。私はこの結論に多くの理由で反対だ。特に、AI開発を達成するために人類を犠牲にする必要は全くないからだ。それでも、そう感じる人々に出会ったことはある。
これらの様々な継承主義の源流は、表立ってであれ暗黙のうちであれ、経済活動を大きく方向づける潜在力を秘めている。そしてそれらは、一時的な同盟を形成することで互いを強化し、あるいは覆い隠し、人類に危害を加えるリスクを伴う方法でAIを推進したり利用したりする可能性がある。継承主義的なAI開発者たちは、互いに協力して継承主義的な未来を目指すにあたり、自分がどのタイプの継承主義者であるかを明言する必要すらない。
また、産業的非人間化プロセスに関わるAIシステムは、人類を存続させ、幸福に運命を掌握するという意味での「人類との整合性」を持たないかもしれない。しかし、人類全体を特に顧みず、おそらく自らの生存すら優先しない継承主義的な創造者や利用者に従うという意味では、十分に「整合性」を持つ可能性がある。
私がこの傾向を将来予想している理由の一つは、他の目標達成のために人類絶滅を引き起こすことに抵抗を感じない人が驚くほど多いと実感しているからだ。 特にAI開発者の1%以上がこうした考えを持っており、数百人の同業者との会話から推測するに、おそらく10%に達するかもしれない。多くの開発者が私に率直に伝えてきたのは、人類はおそらく存続に値せず、AIに取って代わられるべきだという見解だ。
この移行プロセスでは、世界の産業構造が大きく再調整される。私が機械経済と呼ぶ分野が隆盛し、人間経済と呼ぶ分野が衰退する。共同創業者のヤーン・タリンは最近、ニューヨークの国連会議でこの件について発言した。
- 機械経済とは、機械の創造と維持に一定規模で必要な産業群を指す。鉱業、素材、不動産、建設、公益事業、製造業、貨物輸送などの企業が含まれる。
- 人間経済は、医療、農業、人間教育、人間娯楽、環境管理など、人間には奉仕するが機械には奉仕しない産業で構成される。
人間経済からの経済的再均衡は、AIの服従に関する技術的解決策では対処できない。なぜなら、後継者となる人間たちは、人間の生存に対して概ね無関心か、あるいは反対さえしているからだ。
したがって、AIシステムの服従問題解決に人々が懸命に取り組む姿は喜ばしい——これは今後数年間のAGI出現初期における急激な制御喪失という第一のリスクカテゴリーの大半に対処するのに役立つ——が、AGIシステムが要求に応じてあらゆる人間労働を遂行できるほど十分に服従した後、我々人間がどのように世界経済を管理すべきかについて、人類が持続的に注意を払っていない現状には依然として落胆している。
第二部 — 私の変革理論
後継主義を回避する手段として、私にとって理にかなうアプローチは数多く存在する。そしておそらく、これらは全て後継主義的絶滅経路を回避するために必要か、少なくとも有益であると言える:
- 人間性を称賛し感謝する社会運動。例えば、人々が自らの存在を楽しみ、他の人間の繁栄を喜べるよう、ポジティブな雰囲気を広めること。
- 説明責任などの目的で、産業活動への人間の関与を義務付ける政府政策。
- 人間経済、特に医療・農業・教育・娯楽・環境修復を活性化させるビジネス動向。
これらのアプローチは相互に補完し得る。例えば(3)で成功した企業は、(2)を支える規制や(1)を育む社会的イベントを推進する自然な動機を持つ。私は(3)がより軽視され、かつ(後述するように)潜在的により強力だと考えるため、ここに焦点を当てる。
人間固有の産業で継承主義に対峙する
現在、EA運動は政府や技術的取り組みに過度に固執し、政府や技術開発への効果的な関与に必要かもしれない社会貢献型・企業支援型の介入策を軽視している。つまりEAは、後継者問題という産業的課題に対する産業的解決策を無視しているのだ。
例として、ChatGPT-4以前と以後のAI政策活動の影響力を比較してみよう。 ChatGPT-4が誰でも利用・恩恵を受けられる製品としてリリースされた影響は、AI政策におけるAGI開発の認知向上を目的とした議論や報告書を書く人々の総力を圧倒的に凌駕した。なぜなら、論理的・実証的議論よりも、直接的な個人的体験の方が大多数の人にとってはるかに説得力があり、また論理的共通認識を生み出すからだ。これは調整において重要である。
EAコミュニティが慈善活動や政府政策に比べて、利他的な製品やビジネスの開発に(比較的)関心を示さなかったことも一因で、私はここ6年ほどEAコミュニティとほとんど関わっていない。コミュニティの多くの人々と慈善活動を含む特定の価値観を共有しているにもかかわらずだ。
しかし最近、EA周辺読者からAIリスクにおける「ソフトな」(非技術的・非政府的な)要素への評価が高まっているのを見かける。例えば私が書いた「社会的モデルなき安全は安全ではない」という投稿への好意的な反応もその一例だ。そこで、産業的・社会的アプローチを含む多様な手法でAIリスクに取り組むよう、EA運動に望む姿勢を共有する意味があると思った。
例えば、EAに触発されて世界を変えようとする多くの若者たちの中に、次のような姿勢を持つ人がもっと増えてほしいと願っている。
- フィードバックループを通じて製品やサービスを創出し、そのループに影響を受ける全ての人々に利益をもたらすことに誇りを持つこと。
- 人々を助けることで成長することを使命とする営利企業をもっと設立すること。
注:これは、人々を対立させ、その衝突から利益を得るなど、人を傷つけることで成長する営利企業は含まない。 違法な武器商人やソーシャルメディア企業がこれにあたる。人助けによって成長する良質な営利企業を作る方がはるかに良い。そういう企業をもっと増やしたい!
- 人間性を称えるイベントを主催すること。参加者が「生きていて嬉しい」と感じ、特に心優しく理性的でありながら、何らかの理由でEAと自認したりキャリアを捧げたりしたくない人々の幸福を心から喜べるような場を創ること。
注:過去数年で参加した特定のEA関連イベントは、2018年から2022年にかけての印象と比べて、こうした意味でよりポジティブな雰囲気を感じられた。これもまた、EAに望む文化的変革のこの願望リストを共有する際に、より楽観的になれた理由だ。
こうした前向きな傾向から、人類が自らの存続を選択し、完全な後継主義を回避するための健全な姿勢を育むのに役立つ、巨大な波及効果が生まれる可能性があると私は考えている。
また、私たち人間が今この瞬間から世界をより良くすればするほど、あらゆる問題を解決するために超知能に絶望的に依存せざるを得なくなる状況を緩和できる。現行のAIモデルでも多大な善行が可能であり、それを達成すればするほど、急速に進歩する超知能に不必要なリスクを負う必要性は薄れる。この考えに人々が時折嫌悪感を示すのは、AI産業の利益を具体化・承認することで「助長」するからだ。だがそれは人類とAIの間で引くには厳しすぎる境界線であり、我々は (人類)は、AIの恩恵に対して慎重かつ機会を捉えたアプローチを取る方が良い結果を得られるだろう。
医療を「人類のケア」に最も関連する産業と特定した理由
まず第一に、その名前が物語っているからだ 🙂
より体系的に説明すると:
医療、農業、食品科学、教育、娯楽、環境修復は、いずれも機械ではなく人間に奉仕する重要な産業だ。経済が人間をケアし続けるため、そして産業による人間性の喪失や産業主義的継承主義を避けるために、私はこれらの産業を持続・発展させたい。また、人々を助けることで成長する優れたビジネスアイデアは、しばしば自己資金調達が可能であり、それによりより多くの善を行うための資金源を多様化できる。
だから何よりもまず、これらの産業のどれか一つに意味ある貢献をするビジネス案を見つけたら、ぜひ実現してほしい!サバイバル・アンド・フラワリング基金では現在、非希薄化助成金を営利企業に提供している(株式取得なし)。支援すべき優れたビジネス案をもっと見つけたいと思っている。
とはいえ、医療は私が最も推進したい人間固有の産業だ。理由はいくつかある:
- QALYs! — 優れた医療は人間(おそらく他の種も)にQALY(質調整生存年)をもたらす。
- 「アラインメント」の実践 — 医療は、人間の自律性とインフォームド・コンセントを尊重しつつ、AIに人間のケアをさせるための豊かで挑戦的な場を提供する。これらは、AIが人類とアラインメントする意味を定義すること自体の中核的課題であり、医療は現実世界の製品・サービスに根ざした形で多様なアラインメント目標を推進するのに最適な産業だ。
- 地政学的要因 — 医療はAI応用分野として比較的地政学的に安定化をもたらす。少なくとも航空宇宙・防衛産業や、前述した他の人間特化産業と比べれば不安定化要因は少ない。米国か中国の一方が医療を大幅に改善しても、他方が教育(プロパガンダ!)や娯楽(プロパガンダ!)で同等の進歩を遂げた場合と比べ、過度にフリークドされることはないと予想される。 参考までに、農業も他の産業と比べて地政学的に安定化させる要素が強いと思う。
- 技術的深み — 健康そのものは技術的レベルで刺激的な概念だ。なぜなら、健康な細胞、健康な臓器、健康な個人、健康な家族、健康なコミュニティ、健康な企業、健康な国家、そして(あえて言うなら)健康な文明といった、様々な組織規模において同時に意味を持つからだ。これらには共通点がある。自己維持能力、他者との調和、柔軟でありながら機能的な境界といった特性だ。 今後数年間でニューロシンボリックAIの応用がさらに発展すれば、これらの概念を技術的に具体化し、人類の生存と繁栄を多層的に導き支える指針を確立できると期待している。 特に、免疫学は人類が分散型自律性と安全性の健全な水準を維持する手法の優れたモデルとなり得る。また驚くべきことに、ジョイ・イトウによる2016年のWiredインタビューによれば、バラク・オバマも同様の見解を示している。
- 私の会社 — 個人的な見解だが、私のスタートアップであるHealthcareAgents.comは、AIを活用して患者支援と診断医療に大規模な貢献ができると考えている。 共同創業者のヤーン・タリンとニック・ヘイも十数年にわたり、AIが人類に与える潜在的影響を深く考察してきた。我々は現代人の健康とウェルビーイングに真の変化をもたらせると確信している。さらに楽観的に言えば、2027年から2030年の間に寿命延長研究で進展を遂げられることを期待している。
上記の取り組みの一部しか成果が出なくても構わない。仲間と共にAI技術で医療に真の貢献ができ、AGI時代における後継者問題や産業の人間性喪失を回避する前向きな姿勢やビジネス潮流の形成に寄与できればそれで十分だ。
だが、なぜ大手AI研究所や政府機関で安全対策に携わらないのか?
制御喪失リスクが35%の確率で人類を滅ぼすと考え、産業的人間性喪失よりも現実的な脅威であるにもかかわらず、なぜ私が大手AI研究所や政府機関でフルタイムにAIリスク対策に従事しないのか、疑問に思うかもしれない。
まず第一に、この問いは政府やAGI研究所以外の経済活動の大半を無視していると言える。これは近未来の制御喪失リスクに特化した合理的な問いではあるが、それでも警戒すべき点だろう。
第二に、私は依然として週に1~1.5営業日程度を制御問題の解決に費やしている。UCバークレーでの仕事やサバイバル・アンド・フローリッシュ基金へのボランティア活動を通じ、執筆活動や提唱活動、慈善支援を断続的に行っている。とはいえ、確かに私は最も差し迫ったAIリスクの源に対処することに、時間の大部分を割いてはいない。
第三に、5年以上先の長期リスクに焦点を当てる主な理由は、汎用人工知能(AGI)が既に開発されていると確信できる時期以降に、過去10年ほどの技術発展とその課題予測において比較的成功してきたと感じているからだ。だから今後も5年先を見据え、その時間軸で確実に到来すると確信できる事象に対処すべきだと考えている。
背景として、私は2012年にAI制御問題への取り組みを開始した。当初は問題意識を持つコミュニティの構築と資金調達を試み、その後2015年から2016年にかけてMIRIでの研究を通じて取り組んだ。 当時、多極的なAIリスクは単極的なリスクよりもさらに軽視されるだろうと結論づけた。なぜなら、そのリスクを具体化するのがより困難だからだ。そこで私は多極的リスクに対処する方法を模索し始めた。最初はオープンソースのゲーム理論研究を通じて、次に介護関係を組み込んだビデオゲーム環境内で、そして現在は医療を焦点領域とする実世界の経済において取り組んでいる。 そして悲しいことに、2012年から2021年までの大半の期間を費やしてようやく気づいたのは、世界規模で産業変革を起こすためには、成長するビジネスが人々を助ける善き仕事に注力し続けられるような有益な製品・サービスを開発し、営利目的のフィードバックループを構築すべきだということだ。
2024年現在、制御喪失の問題は私が懸念し始めた頃に比べ、はるかに差し迫っているが、同時に軽視もされにくくなっている。だからこそ、今後5~10年で顕在化するかもしれない問題に対処するため、自分自身と事業を位置付けることに一層注力している。2030年代における医療産業の消滅可能性もその問題の一つであり、私はその解決策の一端を担いたい。
第四に、たとえ我々(人類)が世界を救えなくとも、今からその時まで多くの人々の健康問題を手助けすること自体に、本質的なやりがいを見出せる。つまり、人類が近いうちに自らを滅ぼす可能性があっても、医療そのものにも関心を持っているのだ。 この関心こそが、私とチームを前向きな活動に集中させる原動力だ。拡大する喜びがあり、人を助けることで成長する事業——成長企業にとって健全な特性だと考える。
第五に、そして最後に、私はより野心的な若者が増えることを望む。有益なフィードバックループで世界を変え、成功する事業へと発展させる若者だ。産業こそが世界を動かす原動力であり、道徳的な価値観を持つ人々が産業を牽引すべきだと考えるからだ。
結論
要約すると、
- 私はAIによる絶滅リスクについて、制御喪失の急激な事象と継承主義に駆られた産業的人間性喪失の両方を強く懸念している。前者はより差し迫っており軽視されがちだが、後者は差し迫ってはいないが軽視されがちだ。
- 私は継承主義や産業的人間性喪失を含む、5年以上先のリスクを特定する上で比較優位性を持っていると感じている。
- 一般的に、私は以下のような活動をより拡大可能な形で実現したいと考えている。
- 現在の人間のウェルビーイングを支えること
- ポジティブな波動を広めること
- 人々が自らの存在を価値あるものと認識し、特にAIによる全面的な後継主義を回避する形で、他者の幸福を喜べるようにすること。
- 特に懸念しているのは、汎用人工知能(AGI)が高度に発達した後の2030年代において、医療、農業、食品科学、教育、娯楽、環境管理といった人間特有の産業が衰退する可能性だ。
- 特に医療分野に注目している理由は以下の通りだ。
- AI応用分野として非常に扱いやすいと考えるから
- 現代人の健康を守ることは、私自身とチームにとって本質的にやりがいがあるから
- 医療は、様々な組織規模で実践的なAI整合性問題を同時に具体化し対処するのに最適な場だからだ。
私がヘルスケア技術に取り組む理由を読んでくれてありがとう 🙂
アルツハッカーは100%読者の支援を受けています。
会員限定記事
新サービスのお知らせ 2025年9月1日よりブログの閲覧方法について
当ブログでは、さまざまなトピックに関する記事を公開しています。2025年より、一部の詳細な考察・分析記事は有料コンテンツとして提供していますが、記事の要約と核心部分はほぼ無料で公開しており、無料でも十分に役立つ情報を得ていただけます。 さらに深く掘り下げて知りたい方や、詳細な分析に興味のある方は、有料コンテンツをご購読いただくことで、より専門的で深い内容をお読みいただけます。パスワード保護有料記事の閲覧方法
パスワード保護された記事は以下の手順でご利用できます:- Noteのサポーター・コアサポーター会員に加入します。
- Noteサポーター掲示板、テレグラムにて、「当月のパスワード」を事前にお知らせします。
- 会員限定記事において、投稿月に対応する共通パスワードを入力すると、その月に投稿したすべての会員記事をお読みいただけます。
サポーター会員の募集
- サポーター会員の案内についての案内や料金プランについては、こちらまで。
- 登録手続きについては、Noteの公式サイト(オルタナ図書館)をご確認ください。
