ロビン・ハンソン

信頼できる文化とは?(そして、和魂洋才)

What Culture Can You Trust?ロビン・ハンソン2025年1月1日記事のまとめスター・ウォーズの観察から始まり、文化変容のメカニズムに関する深い分析へと展開する著者の議論を要約する。著者は17歳で初めて『スター・ウォーズ』を見た時の強い印象から、この作品が帝

ボストロムのディズニーランドのために成長する子供たち

GROWING CHILDREN FOR BOSTROM’S DISNEYLAND投稿日 :2014年7月13日スコット・アレクサンダーニック・ボストロムの『超知性』を読み進めている:Paths, Dangers, Strategies.レビューは後ほど。しかし今日は、私の目に飛

ディープな多文化主義としてのリバタリアニズム

Libertarianism As Deep Multiculturalismロビン・ハンソン2024/03/06浅はかな「多文化主義」は、服装、食べ物、音楽、神話、芸術、家具、アクセント、祝日、食生活など、多様な文化的特徴を許容し、祝福さえする。しかし、戦争、セックス、人種、不

ニック・ボストロム、長期主義、そして優生学の永劫回帰 2023
テクノ・ユートピア・イデオロギーは、その燃料の一部を科学的人種差別から得ている。

「21世紀の優生学」の第一部:新しい名前、古い考え”ディグ・シリーズAI解説 長期主義の創設者の一人であるニック・ボストロムが、1996年に人種差別的なメールを送っていたことが明らかになった。 ボストロムの「謝罪」は不十分で、真摯さに欠けるものだった。 ボストロムは、その後も「異

未来の支配者に頭を下げる
Bow To Our Future Overlords

Bow To Our Future Overlordsロビン・ハンソン2023/11/16政治的な左派と右派は、それぞれ長期的な大問題を抱えている。左派にとってのそれは地球温暖化であり、右派にとってのそれは少子化である。(もちろん、AIについて泣く技術者も少数いるが、他の問題に比

スーパーインテリジェンス
道筋、危険性、戦略

Superintelligence: Paths, Dangers, Strategiesニック・ボスロム(NICK BOSTROM)人類未来研究所所長オックスフォード大学哲学部・オックスフォード・マーティンスクール教授オックスフォード大学スズメの未完成の寓話巣作りの季節。何日も

13の出産シナリオ
13 Fertility Scenarios

13 Fertility Scenariosロビン・ハンソン2023/08/24世界人口は2050~90年頃にピークを迎え、およそ90~110億人になり~40%がアフリカに住むと予測されている。その後、世界人口は減少するだろう。しかし、いつまで、どこまで減少するのだろうか?私のツ

「REALITY+」リアリティプラス
仮想世界と哲学の問題 デイヴィッド・チャーマーズ

REALITY+ Virtual Worlds and the Problems of Philosophy タイトルページ 著者について 同じ著者による 献辞 序論テクノフィロソフィーの冒険 第1部 バーチャル・ワールド 第1章 これは現実の世界なのか? 第2章 シミュレーショ

楽観的なハンソニアン・シンギュラリティ
ロビン・ハンソン、AIリスクと急激な変化の危険性についてRokoと議論する

The Optimistic Hansonian SingularityRobin Hanson Debates Roko on AI Risk and the Dangers of Rapid Changeロコ 0:01そして、録画しています。オーケー。はじめまして、ロビンです

私たちは死なない:ロビン・ハンソンによる、なぜエリエーザー・ユドコフスキーは間違っているのか?
第1回エリエーザー・ユドコフスキーとのAI対談の待望の続編として、ジョージ・メイソン大学経済学部教授、オックスフォード大学人類未来研究所研究員のロビン・ハンソンとの示唆に富んだ対談をお届けします

167 - We're Not Going to Die: Why Eliezer Yudkowsky is Wrong with Robin Hansonロビン・ハンソン 0:00シナリオを考えるときによくやる手として、あなたたちにはそのような問題はないと思い込むことがありま

AIの恐怖の大半は未来の恐怖
Most AI Fear Is Future Fear

ロビン・ハンソン2023/04/1440年来、未来学者やその聴衆に囲まれてきた経験から言えることは、多くの人は普段、未来に対して漠然と楽観的であるにもかかわらず、もっともらしく詳細に説明された近未来ではない未来を見せられると、すぐに考えを改めるということだ。(例えば、「EMの時代

ラウトレッジ:人工知能のリスク
Risks of Artificial Intelligence

Risks of Artificial Intelligence目次 編集部 寄稿者 第1章 - 人工知能のリスク VINCENT C. MÜLLER 第2章 - 自律型テクノロジーとグレーター・ヒューマン・グッド 第3章 - 有名な人工知能の予測の誤り、洞察、そして教訓: そし

なぜ、私はAIに恐怖を感じないのか?
Why am I not terrified of AI?

正統派のAI破滅論の中心的な柱は「直交性テーゼ」である。これは、任意のレベルの知性を任意の目標に任意に混合・適合させることができる、つまり、例えばアインシュタインをはるかに超える知性がペーパークリップの製造に完全に専念することができるというものだ。最近になってようやく、私は「直交

人工知能に関する本質的な(ほとんど無視されている)質問と回答:後編
Essential (mostly neglected) questions and answers about Artificial Intelligence: Part II

Essential (mostly neglected) questions and answers about Artificial Intelligence: Part II真の人工知能の実現に向けて、私たちはどのように進んでいくのだろうか。第1回でその序論を紹介した。この宴

人工知能に関する本質的な(ほとんど無視されている)質問と回答:前編
Essential (mostly neglected) questions and answers about Artificial Intelligence: Part I

Essential (mostly neglected) questions and answers about Artificial Intelligence: Part I2023年3月20日人工知能への不安は、もはやSFや投機的な未来論だけのものではない。冷静な評価では、資

脳の中の象
日常生活における隠れた動機

The Elephant in the Brain: Hidden Motives in Everyday Life脳内エレファントの前評判この独創的で説得力のある本の中で、シムラーとハンソンは、私たちの行動の多くが社会的消費のためであること、つまり私たちは良い決断をするのではな

エリエーザー・ユドコウスキー AIの危険性と人類の文明の終焉|Lex Fridman Podcast #368
Eliezer Yudkowsky: Dangers of AI and the End of Human Civilization | Lex Fridman Podcast #368

Eliezer Yudkowsky: Dangers of AI and the End of Human Civilization | Lex Fridman Podcast #3 68254,091 回視聴 2023/03/31 レックス・フリードマンポッドキャストエリエ-ザ

長期的な影響力を得るには、どちらかを選ぶこと
For Long-Term Influence, Pick A Side

ロビン・ハンソン(Robin Hanson)あなたは今、健康や富、人脈を持って存在しており、それゆえ何らかの影響力を持っている。この影響力を、目先の個人的な利益のために使うこともあれば、遠い未来を含む広い宇宙に影響を与えようとすることもあるだろう。そして、あなたが広い宇宙に影響を

159 – エリエゼル・ユドコフスキーの「われわれはみな死ぬ」
159 - We’re All Gonna Die with Eliezer Yudkowsky

​159 - We’re All Gonna Die with Eliezer Yudkowsky126,290 回視聴 2023/02/20に公開済みバンクレスポッドキャストエリエゼル・ユドコフスキーは、作家であり、創設者であり、AI分野における主要な思想家です。GPT-4:エ
alzhacker.com をフォロー