AI(倫理・アライメント・リスク)

AI(倫理・アライメント・リスク)

AIが私たちを殺すかもしれない方法と理由のケース
The case for how and why AI might kill us all

ロズ・ブレーン著 2023年3月31日 インテリジェントなAIをトレーニングし、アライメントするための現在の方法は、将来にわたってうまくスケールしない。 生成:Midjourney
AI(倫理・アライメント・リスク)
AI(倫理・アライメント・リスク)

AGIの破滅:致死性リスト
AGI Ruin: A List of Lethalities

AGI Ruin: A List of Lethalities エリエイザー・ユドコフスキー著 2022年6月6日 前文 (すでに基本的なことは知っていて、前置きはいらないという方は、アライメントの技術的な難しさ
AI(倫理・アライメント・リスク)
AI(倫理・アライメント・リスク)

エリエイザーに同意するところと同意しないところ
Where I agree and disagree with Eliezer

Where I agree and disagree with Eliezer ポール・クリスティアーノ著 2022年6月20日 (一部、AGI Ruinに呼応している:Lethalitiesのリスト。
AI(倫理・アライメント・リスク)
AI(倫理・アライメント・リスク)

ブログMarginal Revolutionは「安全な不確実性の誤謬」に挑戦する
MR Tries The Safe Uncertainty Fallacy

3月30日 マージナル・レボリューション (Marginal Revolution) は、経済学者であるタイラー・カウエンとアレックス・タバロックが運営する、経済学を中心にしたブログのこと。このブログでは、経済学、政治、文化など様
AI(倫理・アライメント・リスク)
AI(倫理・アライメント・リスク)

人工一般知能(AGI)がまあまあの結果をもたらす場合、その理由は何だろうか?
If Artificial General Intelligence has an okay outcome, what will be the reason?

If Artificial General Intelligence has an okay outcome, what will be the reason? エリエゼル・ユドコフスキー 結果が「まあま
AI(倫理・アライメント・リスク)
AI言語モデルとの対話

ChatGPTとの3度目の対談 - スパルタカス
かなり全てを認めている

A Third Talk With ChatGPT オーグメンテーションの問題を再考する 数日前、私はChatGPTと再び会話をし、かなり驚くべきことを認めさせた。この会話の一部をTwitterに投稿したとこ
AI言語モデルとの対話AI(倫理・アライメント・リスク)スパルタカス人間拡張・人間強化(ヒューマン・オーグメンテーション)抵抗戦略・抵抗運動
AI(倫理・アライメント・リスク)

エリエーザー・ユドコウスキー AIの危険性と人類の文明の終焉|Lex Fridman Podcast #368
Eliezer Yudkowsky: Dangers of AI and the End of Human Civilization | Lex Fridman Podcast #368

Eliezer Yudkowsky: Dangers of AI and the End of Human Civilization | Lex Fridman Podcast #3 68 254,091 回視聴 2023/0
AI(倫理・アライメント・リスク)Lex Fridman PodcastLLM - LaMDA, ChatGPT意識・クオリア・自由意志
AI(倫理・アライメント・リスク)

長期的な影響力を得るには、どちらかを選ぶこと
For Long-Term Influence, Pick A Side

ロビン・ハンソン(Robin Hanson) あなたは今、健康や富、人脈を持って存在しており、それゆえ何らかの影響力を持っている。この影響力を、目先の個人的な利益のために使うこともあれば、遠い未来を含む広い宇宙に影響を与えよう
7. 危機(経済・環境・国際)AI(倫理・アライメント・リスク)ゲーム理論・進化論ジョン・キャンベル
AI(倫理・アライメント・リスク)

159 – エリエゼル・ユドコフスキーの「われわれはみな死ぬ」
159 - We’re All Gonna Die with Eliezer Yudkowsky

​ 159 - We’re All Gonna Die with Eliezer Yudkowsky 126,290 回視聴 2023/02/20に公開済みバンクレスポッドキャスト エリエゼル・ユドコフスキーは、作家であり
AI(倫理・アライメント・リスク)LLM - LaMDA, ChatGPTゲーム理論・進化論文明の危機・生態学的危機未来学・AGI・シンギュラリティー
AI(倫理・アライメント・リスク)

AIリスク、再び
AI Risk, Again

AI Risk, Again ロビン・ハンソン GPT-4: Robin Dale Hansonは、アメリカの経済学者、予測市場の研究者、そして作家である。彼は、1989年にカリフォルニア大学バークレー校で経済学の博士号を
AI(倫理・アライメント・リスク)金融危機・インフレ
AI(倫理・アライメント・リスク)

ChatGPTとAIが人類を隷属させる前触れ – ジョー・アレン氏とともに

ChatGPT and the Heralds of AI’s Subjugation of Humanity - with Joe Allen ChatGPTをはじめとするチャットボットは、わずかな期間で社会に登場し、多くの人々を喜
AI(倫理・アライメント・リスク)LLM - LaMDA, ChatGPTWEF/グレート・リセット意識・クオリア・自由意志
AI(倫理・アライメント・リスク)

AIに仕事を奪われ、人類の歴史は終わるのか、それとも終わらないのか?それは複雑だ…
Will AIs Take All Our Jobs and End Human History—or Not? Well, It’s Complicated…

Will AIs Take All Our Jobs and End Human History—or Not? Well, It’s Complicated… 2023年3月15日 ChatGPTの衝撃 ほんの数
AI(倫理・アライメント・リスク)LLM - LaMDA, ChatGPTオートマトン、ウルフラム未来学・AGI・シンギュラリティー民主主義・自由複雑適応系・還元主義・創発
AI(倫理・アライメント・リスク)

大規模言語モデル(LLM)還元主義に反対する
Against LLM Reductionism

Against LLM Reductionism byErich_Grunewald 2023年3月9日 概要 大規模言語モデル(以下、LLM)は、「単なる」浅いパターンマッチャー、「単なる」大規模ルッ
AI(倫理・アライメント・リスク)LLM - LaMDA, ChatGPT複雑適応系・還元主義・創発
AI(倫理・アライメント・リスク)

デジタル・マインドと社会に関する命題 | ニック・ボストロム
Propositions Concerning Digital Minds and Society

(2022)バージョン1.10. 初稿2020 ニック・ボストロム オックスフォード大学人類の未来研究所 カール・シュルマン オックスフォード大学 ヒューマニティ未来研究所 免責事項 以下は、デジ
AI(倫理・アライメント・リスク)ニック・ボストロム / FHI未来学・AGI・シンギュラリティー
alzhacker.com をフォローする
タイトルとURLをコピーしました