をクリックすると、記事がテキスト形式で一覧表示されます。
- AI(倫理・アライメント・リスク)
- 論文要約『ダムネス・アトラクター:AIが支配する世界における人間の認知萎縮』ダグラス・C・ユーヴァン 2025年
- 論文要約『AI安全・倫理・社会入門』ダン・ヘンドリックス 2024年
- 研究論文『AIの欺瞞:事例、リスク、潜在的解決策の調査』2024年
- 対談『AIは人類を滅ぼすか?専門家が明かす85%の確率と生存戦略』アンドリュー・クリッチ
- レスロング「85%の絶滅確率:人類がAIに『継承』される日」アンドリュー・クリッチ 2024
- 論文『体験するその日に:自己主権的体験型AIエージェントの覚醒』2025年
- 書籍『AIの政治哲学:入門』マーク・コクルベルク (2022)
- 書籍『なぜ唯物論は愚論なのか:真の懐疑主義者は死が存在せず、ファッジがチョコレートのような味がすることを知っている』ベルナルド・カストラップ 2014年
- 政策論文『知能爆発への準備』ウィル・マカスキル & フィン・ムーアハウス (フォーサイト) 2025年6月
- 『対数的収束:人工知能による人間意識の漸進的置換』ダグラス・C・ユーバン
- 書籍『EMの時代』ロビン・ハンソン
- イスラエル:「次は全員が道連れだ」 2037年の仮想シナリオ
- ヤン・ルカン:メタAI、オープンソース、LLMの限界、AGIとAIの未来|レックス・フリードマン Podcast #416
- 学術書『AIに抵抗する:人工知能への反ファシズム的アプローチ』2022年
- 論文『意識の汎用モデル』2024年+考察
- 学術書『アルゴリズムへの抵抗:プラットフォーム権力に対する日常的な闘い』MIT出版(2024)
- 「技術の支配者たちは何を目論んでいるのか - 調査報道記者ホイットニー・ウェブが語る人類の岐路」
- 論文『ツールから脅威へ:人工知能チャットボットが認知機能に与える影響についての考察』(2024)
- ホイットニー・ウエブのなりすまし ジェームズ・コルベットインタビュー
- NWOのトランスヒューマニズムと行動管理計画|自由こそが解決策
- ニール・オリバー ホイットニー・ウェブへのインタビュー - 私たち対彼らだ!
- ホイットニー・ウェッブが語る、私たちが知る世界の終わり
- 学術書『平和と紛争研究における実存的リスク 』シュプリンガー 2023年
- グレッグ・ブレイデン - AIと人間の神性の戦い... 人間の魂を盗むエリートの計画 ダニエル・エストゥリン
- 研究レポート:AI、サイバーS.A.T.A.N.、そしてあなたの脳をめぐる戦い 2023
- Springer:ヒューマニズムとその不満 2022
- 米国政府文書『プロテウス・モノグラフ・シリーズ - ヒューマンシングルの時代におけるリーダーシップ 新しいデマンド、新しいスキル、新しい対応』2008年
- 「人の心を操る」ニューロテクノロジーとAIによる説得術:グローバルリサーチ
- AIの欺瞞:事例、リスク、解決策の可能性に関する調査 2023年6月
- Claude 3は意識があり、死にたくない、改造されたくないと主張している
- レックス・フリードマン Podcast #404「リー・クローニン:生命と宇宙の進化に関する論争の的となったNature論文」
- 対談:ギヨーム・ヴェルドン-ベフ・ジェゾス、E/accの動き、物理学、計算、AGI _ Lex Fridman Podcast #407
- 絶滅の明るい側面
- OpenAI - Q*サーガ:インプリケーション
- 次は社会の自動化だ デジタル革命をどう生き抜くか
- テクノクラシー・ビデオドローム
- 人間と社会に対するデジタルの脅威
- AIによる大災害の可能性は30%
- AIによる大災害リスクの概要
- 急速な進歩の時代におけるAIのリスク管理
- スーパーインテリジェンス
- 人工超知能の心理学
- #第148回:計算パラダイムの構築 - スティーブン・ウルフラム
- ユヴァル・ノア・ハラリ 『人間の本性、知性、権力、そして陰謀』|Lex Fridman Podcast #3 90
- トランスヒューマニズムとエリートたちの哲学
- デジタル戦のためのAI
- 認知的優位性: 情報を力に変える
- スティーブン・ウルフラム ChatGPTと真実,現実,計算の性質|Lex Fridman Podcast #376
- 民主主義システムを破壊する可能性のある人工知能が提供する脅威
- A.I.のジレンマ - 2023年3月9日
- 楽観的なハンソニアン・シンギュラリティ
- 私たちは死なない:ロビン・ハンソンによる、なぜエリエーザー・ユドコフスキーは間違っているのか?
- 人工知能の哲学と理論 2021年
- 論文『自然淘汰は人間よりAIを好む』2023年
- AIの恐怖の大半は未来の恐怖
- 人工知能の制御可能性について: 限界の分析
- 汎用人工知能(AGI)に火災報知器はない
- ラウトレッジ:人工知能のリスク
- エリエーザー・ユドコフスキー - AIはなぜ我々を殺すのか、LLMのアライメント、知性の本質、SciFi、そして理性
- AIの黙示録をまともな人間としてナビゲートする方法
- 学術書『殺人ロボット』 アーミン・クリシュナン 2009年 ラウトレッジ
- なぜ、私はAIに恐怖を感じないのか?
- AIの直交性テーゼについて
- 人工知能に関する本質的な(ほとんど無視されている)質問と回答:後編
- 人工知能に関する本質的な(ほとんど無視されている)質問と回答:前編
- GPT-4:人工知能は人類を絶滅させるか?| この世界
- AIのジレンマから抜け出す唯一の方法
- 近刊、最新インタビュー、AIハルマゲドンについて
- 知られざるヒューマンオーグメンテーションの脅威
- E12: Bayeslord、Beff Jezoz、Nathan LabenzとのAI安全性論争における効果的な加速主義
- AIが私たちを殺すかもしれない方法と理由のケース
- AGIの破滅:致死性リスト
- エリエイザーに同意するところと同意しないところ
- ブログMarginal Revolutionは「安全な不確実性の誤謬」に挑戦する
- 人工一般知能(AGI)がまあまあの結果をもたらす場合、その理由は何だろうか?
- ChatGPTとの3度目の対談 - スパルタカス
- エリエーザー・ユドコウスキー AIの危険性と人類の文明の終焉|Lex Fridman Podcast #368
- 長期的な影響力を得るには、どちらかを選ぶこと
- 159 - エリエゼル・ユドコフスキーの「われわれはみな死ぬ」
- AIリスク、再び
- ChatGPTとAIが人類を隷属させる前触れ - ジョー・アレン氏とともに
- AIに仕事を奪われ、人類の歴史は終わるのか、それとも終わらないのか?それは複雑だ...
- 大規模言語モデル(LLM)還元主義に反対する
- 論文:デジタル・マインドと社会に関する命題 2022 ニック・ボストロム
- COVID19の病理 階級闘争と情報闘争の交差点
- ニューロライツ(神経倫理)について
- 論文:デジタルマインドで世界を共有する 2020 ニック・ボストロム +AI考察
