AI(倫理・アライメント・リスク)

学術書『殺人ロボット』 アーミン・クリシュナン 2009年 ラウトレッジ

RoutledgeKiller Robots Legality and Ethicality of Autonomous WeaponsARMIN KRISHNAN目次 謝辞 略語の一覧 はじめに 1 ミリタリーロボティクスの台頭 2 兵器の自動化と人工知能 3 戦争のロボティク

なぜ、私はAIに恐怖を感じないのか?

正統派のAI破滅論の中心的な柱は「直交性テーゼ」である。これは、任意のレベルの知性を任意の目標に任意に混合・適合させることができる、つまり、例えばアインシュタインをはるかに超える知性がペーパークリップの製造に完全に専念することができるというものだ。最近になってようやく、私は「直交

AIの直交性テーゼについて

About the orthogonality hypothesis直交性テーゼ(Orthogonality Thesis)をわかりやすく説明してOrthogonality Thesis(直交性テーゼ)は、人工知能(AI)の研究において、知能と目的(価値観、目標)が独立していると

人工知能に関する本質的な(ほとんど無視されている)質問と回答:後編

Essential (mostly neglected) questions and answers about Artificial Intelligence: Part II真の人工知能の実現に向けて、私たちはどのように進んでいくのだろうか。第1回でその序論を紹介した。この宴

人工知能に関する本質的な(ほとんど無視されている)質問と回答:前編

Essential (mostly neglected) questions and answers about Artificial Intelligence: Part I2023年3月20日人工知能への不安は、もはやSFや投機的な未来論だけのものではない。冷静な評価では、資

GPT-4:人工知能は人類を絶滅させるか?| この世界

GPT-4: Could Artificial Intelligence wipe out humans? | This World11,391 回視聴 2023/03/18 #chatgpt #thisworld #Artificialintelligenceスーパーインテリジ

AIのジレンマから抜け出す唯一の方法

2023年3月31日(金)さて、戦争やバグ、政治家の起訴はあっても、今、 多くの人が夢中になっている危機は何だろう?12月には GPT5が「AGI」、つまり本物の人工知能「GENERAL Intelligence」を実現するという賛辞もすでにある。手探り状態でのスタートとなる!-

近刊、最新インタビュー、AIハルマゲドンについて

Forthcoming Book, Latest Interviews, and AI Armageddonジョー・アレンターミネーターがスカイネットと戦うために人類を助けたのはクールだが、彼のヴァクシン・マスクのシラーには頭が上がらない。バランス的には、彼が未来に留まっていた方

知られざるヒューマンオーグメンテーションの脅威

The Unrecognized Threat of Human AugmentationTime For a Reckoning / 真実と向き合う時公正な警告である。これは非常に皮肉な話になってしまう。普段の皮肉よりも、もっと皮肉になる。しかし、最近の情勢を鑑みると、どんなに

E12: Bayeslord、Beff Jezoz、Nathan LabenzとのAI安全性論争における効果的な加速主義

E12: Effective Accelerationism and the AI Safety Debate w/ Bayeslord, Beff Jezoz, and Nathan Labenz5,370 回視聴 2023/03/12Effective Acceleratio

AIが私たちを殺すかもしれない方法と理由のケース

ロズ・ブレーン著2023年3月31日インテリジェントなAIをトレーニングし、アライメントするための現在の方法は、将来にわたってうまくスケールしない。生成:Midjourney雇用の崩壊を忘れ、スパムや誤情報を忘れ、人間の陳腐化や社会の根底を覆す。AIは平たく言えば、早いうちに生物

AGIの破滅:致死性リスト

AGI Ruin: A List of Lethalitiesエリエイザー・ユドコフスキー著2022年6月6日前文(すでに基本的なことは知っていて、前置きはいらないという方は、アライメントの技術的な難しさについて、セクションBまで読み飛ばしてほしい)。AGIで死ぬ理由を整理して書

エリエイザーに同意するところと同意しないところ

Where I agree and disagree with Eliezerポール・クリスティアーノ著2022年6月20日(一部、AGI Ruinに呼応している:Lethalitiesのリスト。同じようにとりとめのないスタイルで書かれている。網羅的ではない)合意事項 強力なAI

ブログMarginal Revolutionは「安全な不確実性の誤謬」に挑戦する

3月30日マージナル・レボリューション (Marginal Revolution) は、経済学者であるタイラー・カウエンとアレックス・タバロックが運営する、経済学を中心にしたブログのこと。このブログでは、経済学、政治、文化など様々なトピックについての意見や分析が投稿され、経済学に

人工一般知能(AGI)がまあまあの結果をもたらす場合、その理由は何だろうか?

If Artificial General Intelligence has an okay outcome, what will be the reason?エリエゼル・ユドコフスキー結果が「まあまあ」であるとは、正の特異点(完全な一貫した外挿志向が正しく実行された場合)によっ

ChatGPTとの3度目の対談 - スパルタカス

A Third Talk With ChatGPTオーグメンテーションの問題を再考する数日前、私はChatGPTと再び会話をし、かなり驚くべきことを認めさせた。この会話の一部をTwitterに投稿したところ、かなりの反響があった。しかし、この言語モデルからの返答は、様々な理由から

エリエーザー・ユドコウスキー AIの危険性と人類の文明の終焉|Lex Fridman Podcast #368

Eliezer Yudkowsky: Dangers of AI and the End of Human Civilization | Lex Fridman Podcast #3 68254,091 回視聴 2023/03/31 レックス・フリードマンポッドキャストエリエ-ザ

長期的な影響力を得るには、どちらかを選ぶこと

ロビン・ハンソン(Robin Hanson)あなたは今、健康や富、人脈を持って存在しており、それゆえ何らかの影響力を持っている。この影響力を、目先の個人的な利益のために使うこともあれば、遠い未来を含む広い宇宙に影響を与えようとすることもあるだろう。そして、あなたが広い宇宙に影響を

159 – エリエゼル・ユドコフスキーの「われわれはみな死ぬ」

​159 - We’re All Gonna Die with Eliezer Yudkowsky126,290 回視聴 2023/02/20に公開済みバンクレスポッドキャストエリエゼル・ユドコフスキーは、作家であり、創設者であり、AI分野における主要な思想家です。GPT-4:エ

AIリスク、再び

AI Risk, Againロビン・ハンソンGPT-4:Robin Dale Hansonは、アメリカの経済学者、予測市場の研究者、そして作家である。彼は、1989年にカリフォルニア大学バークレー校で経済学の博士号を取得し、その後、ジョージメイソン大学、オックスフォード大学、カリ