ロビン・ハンソン

リバタリアニズム

ディープな多文化主義としてのリバタリアニズム

Libertarianism As Deep Multiculturalism ロビン・ハンソン 2024/03/06 浅はかな「多文化主義」は、服装、食べ物、音楽、神話、芸術、家具、アクセント、祝日、食生活など、多様な文化的特徴を許容し、祝福さえする。しかし、戦争、セックス、人
トランスヒューマニズム、人間強化、BMI

ニック・ボストロム、長期主義、そして優生学の永劫回帰
テクノ・ユートピア・イデオロギーは、その燃料の一部を科学的人種差別から得ている。

これは「21世紀の優生学」の第一部:新しい名前、古い考え”ディグ・シリーズ エミール・P・トーレス / TRUTHDIGこれは、複数回に渡る発掘シリーズ「21世紀の優生学」の第1回目:『新しい名前、古い思想』は、長期主義運動の人種差別的背景を調査するものである。 昨年のある日、私
マルサス主義、人口管理

未来の支配者に頭を下げる
Bow To Our Future Overlords

Bow To Our Future Overlords ロビン・ハンソン 2023/11/16 政治的な左派と右派は、それぞれ長期的な大問題を抱えている。左派にとってのそれは地球温暖化であり、右派にとってのそれは少子化である。(もちろん、AIについて泣く技術者も少数いるが、他の問
AI(倫理・アライメント・リスク)

スーパーインテリジェンス
道筋、危険性、戦略

Superintelligence: Paths, Dangers, Strategies ニック・ボスロム(NICK BOSTROM) 人類未来研究所所長 オックスフォード大学哲学部・オックスフォード・マーティンスクール教授 オックスフォード大学 スズメの未完成の寓話 巣作りの
マルサス主義、人口管理

13の出産シナリオ
13 Fertility Scenarios

13 Fertility Scenarios ロビン・ハンソン 2023/08/24 世界人口は2050~90年頃にピークを迎え、およそ90~110億人になり~40%がアフリカに住むと予測されている。その後、世界人口は減少するだろう。しかし、いつまで、どこまで減少するのだろうか?
オートマトン、ウルフラム

「REALITY+」リアリティプラス
仮想世界と哲学の問題 デイヴィッド・チャーマーズ

REALITY+ Virtual Worlds and the Problems of Philosophy タイトルページ 著者について 同じ著者による 献辞 序論テクノフィロソフィーの冒険 第1部 バーチャル・ワールド 第1章 これは現実の世界なのか? 第2章 シミュレーショ
AI(倫理・アライメント・リスク)

楽観的なハンソニアン・シンギュラリティ
ロビン・ハンソン、AIリスクと急激な変化の危険性についてRokoと議論する

The Optimistic Hansonian Singularity Robin Hanson Debates Roko on AI Risk and the Dangers of Rapid Change ロコ 0:01 そして、録画しています。オーケー。はじめまして、ロビ
AI(倫理・アライメント・リスク)

私たちは死なない:ロビン・ハンソンによる、なぜエリエーザー・ユドコフスキーは間違っているのか?
第1回エリエーザー・ユドコフスキーとのAI対談の待望の続編として、ジョージ・メイソン大学経済学部教授、オックスフォード大学人類未来研究所研究員のロビン・ハンソンとの示唆に富んだ対談をお届けします

 167 - We're Not Going to Die: Why Eliezer Yudkowsky is Wrong with Robin Hanson ロビン・ハンソン 0:00 シナリオを考えるときによくやる手として、あなたたちにはそのような問題はないと思い込むことが
AI(倫理・アライメント・リスク)

AIの恐怖の大半は未来の恐怖
Most AI Fear Is Future Fear

ロビン・ハンソン 2023/04/14 40年来、未来学者やその聴衆に囲まれてきた経験から言えることは、多くの人は普段、未来に対して漠然と楽観的であるにもかかわらず、もっともらしく詳細に説明された近未来ではない未来を見せられると、すぐに考えを改めるということだ。(例えば、「EMの
AI(倫理・アライメント・リスク)

ラウトレッジ:人工知能のリスク
Risks of Artificial Intelligence

Risks of Artificial Intelligence 目次 編集部 寄稿者 第1章 - 人工知能のリスク VINCENT C. MÜLLER 第2章 - 自律型テクノロジーとグレーター・ヒューマン・グッド 第3章 - 有名な人工知能の予測の誤り、洞察、そして教訓: そ
AI(倫理・アライメント・リスク)

なぜ、私はAIに恐怖を感じないのか?
Why am I not terrified of AI?

正統派のAI破滅論の中心的な柱は「直交性テーゼ」である。これは、任意のレベルの知性を任意の目標に任意に混合・適合させることができる、つまり、例えばアインシュタインをはるかに超える知性がペーパークリップの製造に完全に専念することができるというものだ。最近になってようやく、私は「直交
AI(倫理・アライメント・リスク)

人工知能に関する本質的な(ほとんど無視されている)質問と回答:後編
Essential (mostly neglected) questions and answers about Artificial Intelligence: Part II

Essential (mostly neglected) questions and answers about Artificial Intelligence: Part II 真の人工知能の実現に向けて、私たちはどのように進んでいくのだろうか。第1回でその序論を紹介した。この
AI(倫理・アライメント・リスク)

人工知能に関する本質的な(ほとんど無視されている)質問と回答:前編
Essential (mostly neglected) questions and answers about Artificial Intelligence: Part I

Essential (mostly neglected) questions and answers about Artificial Intelligence: Part I 2023年3月20日 人工知能への不安は、もはやSFや投機的な未来論だけのものではない。冷静な評価では
ロビン・ハンソン

脳の中の象
日常生活における隠れた動機

The Elephant in the Brain: Hidden Motives in Everyday Life 脳内エレファントの前評判 この独創的で説得力のある本の中で、シムラーとハンソンは、私たちの行動の多くが社会的消費のためであること、つまり私たちは良い決断をするので
AI(倫理・アライメント・リスク)

エリエーザー・ユドコウスキー AIの危険性と人類の文明の終焉|Lex Fridman Podcast #368
Eliezer Yudkowsky: Dangers of AI and the End of Human Civilization | Lex Fridman Podcast #368

Eliezer Yudkowsky: Dangers of AI and the End of Human Civilization | Lex Fridman Podcast #3 68 254,091 回視聴 2023/03/31 レックス・フリードマンポッドキャスト エリエ
AI(倫理・アライメント・リスク)

長期的な影響力を得るには、どちらかを選ぶこと
For Long-Term Influence, Pick A Side

ロビン・ハンソン(Robin Hanson) あなたは今、健康や富、人脈を持って存在しており、それゆえ何らかの影響力を持っている。この影響力を、目先の個人的な利益のために使うこともあれば、遠い未来を含む広い宇宙に影響を与えようとすることもあるだろう。そして、あなたが広い宇宙に影響
AI(倫理・アライメント・リスク)

159 – エリエゼル・ユドコフスキーの「われわれはみな死ぬ」
159 - We’re All Gonna Die with Eliezer Yudkowsky

​ 159 - We’re All Gonna Die with Eliezer Yudkowsky 126,290 回視聴 2023/02/20に公開済みバンクレスポッドキャスト エリエゼル・ユドコフスキーは、作家であり、創設者であり、AI分野における主要な思想家です。 GPT
AI(倫理・アライメント・リスク)

AIリスク、再び
AI Risk, Again

AI Risk, Again ロビン・ハンソン GPT-4: Robin Dale Hansonは、アメリカの経済学者、予測市場の研究者、そして作家である。彼は、1989年にカリフォルニア大学バークレー校で経済学の博士号を取得し、その後、ジョージメイソン大学、オックスフォード大学
ロビン・ハンソン

AGIの目標についてアレクサンダーとユドコフスキーが語る
Alexander and Yudkowsky on AGI goals

by Scott Alexander, Eliezer Yudkowsky  25th Jan 2023 AI RiskAI フロントページ AGIの目標についてアレクサンダーとユドコフスキーが語る 1. 人間の道徳的発達へのアナロジー 2. 結果論と一般性 3. 因果関係貿易、
alzhacker.com をフォロー