スーパーインテリジェンス Superintelligence: Paths, Dangers, Strategiesニック・ボスロム(NICK BOSTROM)人類未来研究所所長オックスフォード大学哲学部・オックスフォード・マーティンスクール教授オックスフォード大学スズメの未完成の寓話巣作りの季節。何日も 2023/10/22 AI(倫理・アライメント・リスク)トランスヒューマニズム、人間強化、BMIニック・ボストロム / FHIロビン・ハンソン
人工超知能の心理学 The Psychology of Artificial Superintelligenceヨアヒム・ディーデリッヒ認知システムモノグラフスリュディガー・ディルマンカールスルーエ大学(ドイツ、カールスルーエ中村慶彦東京大学大学院情報理工学系研究科機械情報学専攻Stefan Sch 2023/08/27 AI(倫理・アライメント・リスク)テッド・カジンスキーローテク、アーミッシュ、パーマカルチャー優生学未来・人工知能・トランスヒューマニズム
#第148回:計算パラダイムの構築 – スティーブン・ウルフラム ジョセフ・ウォーカーAUG 19, 2023 SCIENCE TECHNOLOGY物理学者、コンピュータ科学者、実業家。ウルフラム・リサーチの創設者兼CEOであり、Mathematicaとウルフラム・アルファの開発者。トランスクリプトウォーカースティーブン・ウルフラムさん。ポッ 2023/08/22 AI(倫理・アライメント・リスク)オートマトン、ウルフラム、フラクタル、ライフゲーム、再帰性
ユヴァル・ノア・ハラリ 『人間の本性、知性、権力、そして陰謀』|Lex Fridman Podcast #3 90 Transcript for Yuval Noah Harari: Human Nature, Intelligence, Power, and Conspiracies | Lex Fridman Podcast #3 90これは、ユヴァル・ノア・ハラリとのレックス・フリドマン 2023/07/18 AI(倫理・アライメント・リスク)Lex Fridman Podcast階級闘争・対反乱作戦・格差社会
トランスヒューマニズムとエリートたちの哲学 学者フランシス・フクヤマにとって、トランスヒューマニズムの「本質」の喪失は、想像力豊かな自己改良という技術科学的未来への約束の山の下に、認識されずに横たわっている。本論文は、社会の有力なセクターで台頭しつつあるこのイデオロギーとの批判的な関わりを深めることを目的としている。Tra 2023/07/03 AI(倫理・アライメント・リスク)PANDA,PROPAGANDA IN FOCUSトランスヒューマニズム、人間強化、BMI全体主義・監視資本主義
デジタル戦のためのAI 人工知能(AI)は私たちの身の回りにあふれている。運転手のいない車、ゲームに勝つためのコンピューター、詐欺対策など、AIはすでに生活のさまざまな場面で活躍しており、その影響力は今後ますます大きくなっていくだろう。世界で最も価値のある企業の多くがAIの研究開発に多額の投資を行ってお 2023/05/31 AI(倫理・アライメント・リスク)サイバー戦争全体主義・監視資本主義情報戦・認知戦・第5世代戦争・神経兵器・オムニウォー
認知的優位性: 情報を力に変える Cognitive Superiority: Information to Powerディーン・S・ハートリー三世ケネス・O・ジョブスン認知的優位性権力への情報提供ディーン・S・ハートリーIII - ケネス・ジョブソンコグニティブ・スーペリオリティ(認知的優位性)情報を力にディー 2023/05/26 AI(倫理・アライメント・リスク)サイバー戦争優生学情報戦・認知戦・第5世代戦争・神経兵器・オムニウォー生物兵器ワクチン遺伝子ワクチン反対運動
スティーブン・ウルフラム ChatGPTと真実,現実,計算の性質|Lex Fridman Podcast #376 Stephen Wolfram: ChatGPT and the Nature of Truth, Reality & Computation | Lex Fridman Podcast #376524,627 回視聴 2023/05/10 レックス・フリードマンポッドキャストス 2023/05/23 AI(倫理・アライメント・リスク)LLM - LaMDA, ChatGPT, Claude3,DeepSeekLex Fridman Podcastオートマトン、ウルフラム、フラクタル、ライフゲーム、再帰性
民主主義システムを破壊する可能性のある人工知能が提供する脅威 Threats provided by artificial intelligence that could disrupt the democratic system経済学部ブランデンブルク応用科学大学2023年1月16日要旨この研究論文は、AI技術が民主主義システムに及ぼす潜 2023/05/10 AI(倫理・アライメント・リスク)全体主義・監視資本主義民主主義・自由
A.I.のジレンマ – 2023年3月9日 he A.I. Dilemma - March 9, 2023トリスタン・ハリス 0:00私が個人的に感じたことは、まるで1944年のようだということです。マンハッタン計画というものの中にいるロバート・オッペンハイマーから電話がかかってきました。マンハッタン計画とは何なのか、ご存 2023/04/26 AI(倫理・アライメント・リスク)
楽観的なハンソニアン・シンギュラリティ The Optimistic Hansonian SingularityRobin Hanson Debates Roko on AI Risk and the Dangers of Rapid Changeロコ 0:01そして、録画しています。オーケー。はじめまして、ロビンです 2023/04/26 AI(倫理・アライメント・リスク)シンギュラリティ、AGI、ASIロビン・ハンソン未来・人工知能・トランスヒューマニズム
私たちは死なない:ロビン・ハンソンによる、なぜエリエーザー・ユドコフスキーは間違っているのか? 167 - We're Not Going to Die: Why Eliezer Yudkowsky is Wrong with Robin Hansonロビン・ハンソン 0:00シナリオを考えるときによくやる手として、あなたたちにはそのような問題はないと思い込むことがありま 2023/04/21 AI(倫理・アライメント・リスク)ロビン・ハンソン地球外生命(生物、知的生命、UFO)、超常現象、フェルミのパラドックス暗号通貨・仮想通貨・ビットコイン・地域通貨・CBDC未来・人工知能・トランスヒューマニズム物理学・宇宙
人工知能の哲学と理論 2021年 Philosophy and Theory of Artificial Intelligence 2021応用哲学・認識論・合理的倫理学の研究ヴィンセント・C・ミュラー 編集部人工知能の哲学と理論 2021年序文本巻の論文は、2021年9月27日から28日にかけてヨーテボリで開催 2023/04/18 AI(倫理・アライメント・リスク)シミュレーション仮説、現実、独我論ニック・ボストロム / FHI意識・クオリア・自由意志自己位置付け問題・独我論
論文『自然淘汰は人間よりAIを好む』2023年 Natural Selection Favors AIs over Humansダン・ヘンドリクスAIセーフティセンター要旨何十億年もの間、進化は人類を含む生命の発展の原動力となっていた。進化は、人間に高い知能を与え、地球上で最も成功した種のひとつとなった。そして今、人類は自らの 2023/04/17 AI(倫理・アライメント・リスク)ゲーム理論・進化論
AIの恐怖の大半は未来の恐怖 ロビン・ハンソン2023/04/1440年来、未来学者やその聴衆に囲まれてきた経験から言えることは、多くの人は普段、未来に対して漠然と楽観的であるにもかかわらず、もっともらしく詳細に説明された近未来ではない未来を見せられると、すぐに考えを改めるということだ。(例えば、「EMの時代 2023/04/16 AI(倫理・アライメント・リスク)LLM - LaMDA, ChatGPT, Claude3,DeepSeekロビン・ハンソン
人工知能の制御可能性について: 限界の分析 On the Controllability of Artificial Intelligence: An Analysis of Limitationsロマン・V・ヤンポルスキー Roman V. Yampolskiy米国ルイビル大学2022年3月09日受領、2022年3月31 2023/04/15 AI(倫理・アライメント・リスク)レスロング
汎用人工知能(AGI)に火災報知器はない There’s No Fire Alarm for Artificial General Intelligence2017年10月13日|エリエイザー・ユドコウスキー|分析火災報知器の機能とは?火災報知器は、火災が発生したことを示す重要な証拠を提供し、それに基づいて方針を変更し、 2023/04/13 AI(倫理・アライメント・リスク)レスロング
ラウトレッジ:人工知能のリスク Risks of Artificial Intelligence目次 編集部 寄稿者 第1章 - 人工知能のリスク VINCENT C. MÜLLER 第2章 - 自律型テクノロジーとグレーター・ヒューマン・グッド 第3章 - 有名な人工知能の予測の誤り、洞察、そして教訓: そし 2023/04/10 AI(倫理・アライメント・リスク)レスロングロビン・ハンソン
エリエーザー・ユドコフスキー – AIはなぜ我々を殺すのか、LLMのアライメント、知性の本質、SciFi、そして理性 Eliezer Yudkowsky - Why AI Will Kill Us, Aligning LLMs, Nature of Intelligence, SciFi, & Rationality2023/04/064時間にわたって、私はAIが私たちを殺さないかもしれない理由 2023/04/09 AI(倫理・アライメント・リスク)LLM - LaMDA, ChatGPT, Claude3,DeepSeekトランスヒューマニズム、人間強化、BMI
AIの黙示録をまともな人間としてナビゲートする方法 to navigate the AI apocalypse as a sane personエリック・ホエル3月1日先週、The New York Timesは、マイクロソフトのBing(別名シドニー)との会話の記録を公開した。そこでは、次世代AIが長いチャットの間に、非常に一貫 2023/04/08 AI(倫理・アライメント・リスク)レスロング