AI(倫理・アライメント・リスク)

AI(倫理・アライメント・リスク)

民主主義システムを破壊する可能性のある人工知能が提供する脅威
Threats provided by artificial intelligence that could disrupt the democratic system

Threats provided by artificial intelligence that could disrupt the democratic system 経済学部 ブランデンブルク応用科学大学 2023年1月16日 要旨 この研究論文は、AI技術が民主主義システム
AI(倫理・アライメント・リスク)

A.I.のジレンマ – 2023年3月9日
he A.I. Dilemma - March 9, 2023

he A.I. Dilemma - March 9, 2023 トリスタン・ハリス 0:00 私が個人的に感じたことは、まるで1944年のようだということです。マンハッタン計画というものの中にいるロバート・オッペンハイマーから電話がかかってきました。マンハッタン計画とは何なのか、
AI(倫理・アライメント・リスク)

楽観的なハンソニアン・シンギュラリティ
ロビン・ハンソン、AIリスクと急激な変化の危険性についてRokoと議論する

The Optimistic Hansonian Singularity Robin Hanson Debates Roko on AI Risk and the Dangers of Rapid Change ロコ 0:01 そして、録画しています。オーケー。はじめまして、ロビ
AI(倫理・アライメント・リスク)

私たちは死なない:ロビン・ハンソンによる、なぜエリエーザー・ユドコフスキーは間違っているのか?
第1回エリエーザー・ユドコフスキーとのAI対談の待望の続編として、ジョージ・メイソン大学経済学部教授、オックスフォード大学人類未来研究所研究員のロビン・ハンソンとの示唆に富んだ対談をお届けします

 167 - We're Not Going to Die: Why Eliezer Yudkowsky is Wrong with Robin Hanson ロビン・ハンソン 0:00 シナリオを考えるときによくやる手として、あなたたちにはそのような問題はないと思い込むことが
AI(倫理・アライメント・リスク)

人工知能の哲学と理論 2021年
Philosophy and Theory of Artificial Intelligence 2021

Philosophy and Theory of Artificial Intelligence 2021 応用哲学・認識論・合理的倫理学の研究 ヴィンセント・C・ミュラー 編集部 人工知能の哲学と理論 2021年 序文 本巻の論文は、2021年9月27日から28日にかけてヨーテ
AI(倫理・アライメント・リスク)

自然淘汰は人間よりAIを好む
Natural Selection Favors AIs over Humans

Natural Selection Favors AIs over Humans ダン・ヘンドリクス AIセーフティセンター 要旨 何十億年もの間、進化は人類を含む生命の発展の原動力となっていた。進化は、人間に高い知能を与え、地球上で最も成功した種のひとつとなった。そして今、人類
AI(倫理・アライメント・リスク)

AIの恐怖の大半は未来の恐怖
Most AI Fear Is Future Fear

ロビン・ハンソン 2023/04/14 40年来、未来学者やその聴衆に囲まれてきた経験から言えることは、多くの人は普段、未来に対して漠然と楽観的であるにもかかわらず、もっともらしく詳細に説明された近未来ではない未来を見せられると、すぐに考えを改めるということだ。(例えば、「EMの
AI(倫理・アライメント・リスク)

人工知能の制御可能性について: 限界の分析
On the Controllability of Artificial Intelligence: An Analysis of Limitations

On the Controllability of Artificial Intelligence: An Analysis of Limitations ロマン・V・ヤンポルスキー Roman V. Yampolskiy 米国ルイビル大学 2022年3月09日受領、2022年3
AI(倫理・アライメント・リスク)

汎用人工知能(AGI)に火災報知器はない
There’s No Fire Alarm for Artificial General Intelligence

There’s No Fire Alarm for Artificial General Intelligence 2017年10月13日|エリエイザー・ユドコウスキー|分析 火災報知器の機能とは? 火災報知器は、火災が発生したことを示す重要な証拠を提供し、それに基づいて方針を変
AI(倫理・アライメント・リスク)

ラウトレッジ:人工知能のリスク
Risks of Artificial Intelligence

Risks of Artificial Intelligence 目次 編集部 寄稿者 第1章 - 人工知能のリスク VINCENT C. MÜLLER 第2章 - 自律型テクノロジーとグレーター・ヒューマン・グッド 第3章 - 有名な人工知能の予測の誤り、洞察、そして教訓: そ
AI(倫理・アライメント・リスク)

エリエーザー・ユドコフスキー – AIはなぜ我々を殺すのか、LLMのアライメント、知性の本質、SciFi、そして理性
Eliezer Yudkowsky - Why AI Will Kill Us, Aligning LLMs, Nature of Intelligence, SciFi, & Rationality

Eliezer Yudkowsky - Why AI Will Kill Us, Aligning LLMs, Nature of Intelligence, SciFi, & Rationality 2023/04/06 4時間にわたって、私はAIが私たちを殺さないかもしれない
AI(倫理・アライメント・リスク)

AIの黙示録をまともな人間としてナビゲートする方法
AI-safetyの話術大全

to navigate the AI apocalypse as a sane person エリック・ホエル3月1日先週、The New York Timesは、マイクロソフトのBing(別名シドニー)との会話の記録を公開した。そこでは、次世代AIが長いチャットの間に、非常に一
AI(倫理・アライメント・リスク)

ラウトレッジ:殺人ロボット
自律型兵器の合法性・倫理性

Routledge Killer Robots Legality and Ethicality of Autonomous Weapons ARMIN KRISHNAN 目次 謝辞 略語の一覧 はじめに 1 ミリタリーロボティクスの台頭 2 兵器の自動化と人工知能 3 戦争のロボ
AI(倫理・アライメント・リスク)

なぜ、私はAIに恐怖を感じないのか?
Why am I not terrified of AI?

正統派のAI破滅論の中心的な柱は「直交性テーゼ」である。これは、任意のレベルの知性を任意の目標に任意に混合・適合させることができる、つまり、例えばアインシュタインをはるかに超える知性がペーパークリップの製造に完全に専念することができるというものだ。最近になってようやく、私は「直交
AI言語モデルとの対話

AIの直交性テーゼについて
About the orthogonality hypothesis

About the orthogonality hypothesis 直交性テーゼ(Orthogonality Thesis)をわかりやすく説明して Orthogonality Thesis(直交性テーゼ)は、人工知能(AI)の研究において、知能と目的(価値観、目標)が独立してい
AI(倫理・アライメント・リスク)

人工知能に関する本質的な(ほとんど無視されている)質問と回答:後編
Essential (mostly neglected) questions and answers about Artificial Intelligence: Part II

Essential (mostly neglected) questions and answers about Artificial Intelligence: Part II 真の人工知能の実現に向けて、私たちはどのように進んでいくのだろうか。第1回でその序論を紹介した。この
AI(倫理・アライメント・リスク)

人工知能に関する本質的な(ほとんど無視されている)質問と回答:前編
Essential (mostly neglected) questions and answers about Artificial Intelligence: Part I

Essential (mostly neglected) questions and answers about Artificial Intelligence: Part I 2023年3月20日 人工知能への不安は、もはやSFや投機的な未来論だけのものではない。冷静な評価では
AI(倫理・アライメント・リスク)

GPT-4:人工知能は人類を絶滅させるか?| この世界
GPT-4: Could Artificial Intelligence wipe out humans? | This World

GPT-4: Could Artificial Intelligence wipe out humans? | This World 11,391 回視聴 2023/03/18 #chatgpt #thisworld #Artificialintelligence スーパーインテ
AI(倫理・アライメント・リスク)

AIのジレンマから抜け出す唯一の方法
The only way out of the AI dilemma

2023年3月31日(金) さて、戦争やバグ、政治家の起訴はあっても、今、 多くの人が夢中になっている危機は何だろう? 12月には GPT5が「AGI」、つまり本物の人工知能「GENERAL Intelligence」を実現するという賛辞もすでにある。 手探り状態でのスタートとな
AI(倫理・アライメント・リスク)

近刊、最新インタビュー、AIハルマゲドンについて
世界はデジタル狂に陥っている 自分の頭で考えるには、これ以上ない機会だ

Forthcoming Book, Latest Interviews, and AI Armageddon ジョー・アレン ターミネーターがスカイネットと戦うために人類を助けたのはクールだが、彼のヴァクシン・マスクのシラーには頭が上がらない。バランス的には、彼が未来に留まってい