イーロン・マスク、ツイッターニック・ボストロム / FHI未来学・シンギュラリティー・人工知能

ニック・ボストロム 人工知能の脅威 イーロン・マスクの最大の恐怖

サイトのご利用には利用規約への同意が必要です

強調オフ  文字サイズ

Nick Bostrom The Threat Of Artificial Intelligence Elon Musks Biggest Fear

Patrick Bet-David 0:00

さて、脳を鍛える準備をしましょう。なぜなら、彼のインタビューを見ていると、私の脳に筋肉があるとすれば、彼の話を聞いているとどんどん大きくなっていくからです。

今日のゲストはニック・ボストロムさんです。彼はオックスフォード大学の教授であり、人類の未来研究所の所長でもあります。

彼が書いた本には、皆さんが聞いたことのあるような二人の人物が登場し、皆に読むように勧めています。もう一人はイーロン・マスクで、彼が書いた本には「スーパー・インテリジェンス、パットの危険戦略2014」というタイトルがついています。

彼が書いたこの本は、ニューヨーク・タイムズ紙のベストセラーになりました。彼はTEDxで様々な講演を行い、200以上の出版物を発行しています。あなたがどれだけのインタビューを受けたかは知りませんが 2000以上のインタビューを受けています。

いろいろな意味で、彼は現代の最も重要な思想家の一人と言われていますが、今日の会話は、私たちに何ができるか?今日の会話は、私たちに何ができるのか、テクノロジーAIロボットがこのままのペースで進歩していくことのリスクは何なのでしょうか。それを遅らせるための戦略なのか、それとも別の方法なのでしょうか。ニック、value.tainmentのゲストとして参加していただき、ありがとうございました。

Nick Bostrom 1:34

お集まりいただきありがとうございます。では、さっそく始めましょう。

Patrick Bet-David 1:37

ニックさん、今起こっている様々なことについて教えてください。普遍的なベーシックインカムが必要だという観点からAIについて話している人たちがいますよね?これはそういう話ではありませんよね?AIの進歩は早すぎる、スピードを落とすべきだ、という意見もあります。心配することはないと言っている人もいます。長い間、このような状況が続いています。

私たちはコンピュータを持っていませんでした。タイプライターを使っていた時代には、映画がどうなるのか、テレビがどうなるのかを心配していたのに、なぜ今はこんなにも時代が違うのでしょうか?また、テクノロジーやAIがもたらす負の側面についてはどうお考えですか?

Nick Bostrom 2:12

私たちはAIを衰退させるべきではないと思っています。そして、今生きている多くの人が生きている間に、機械知能の時代に移行することも不可能ではないと思います。人間の脳が行動を起こす場所にいなくなる時代です。なぜ超知能機械は最悪なのでしょうか。なぜ私がそう思うのか、なぜあなたはそれがすごいと思うのでしょうか?そうですね、最近の機械学習、深層学習の進歩の速さを観察していることがほとんどです。

このような感覚は、利用可能なハードウェアとかなり密接に結びついており、それが成長していることを示しています。そして、これらのシステムが実装されるハードウェアの性能は、今後も向上していくことが予想されます。そのためには、新たなブレークスルーも必要になるでしょう。しかし、この8年ほどの間にどれだけ進歩したかを見ると、現在のFuckの寿命が尽きるまでに移行できるだけの進歩があるかもしれないと展開するのは軽率な気がします。しかし、そうならないよりは可能性が高いと思います。

Patrick Bet-David 3:29

あなたは子供がいますか?あなたは、あなたが子供を持っている誰か、またはあなたの親またはあなたの父親ですか?では、彼らが生きている間にテクノロジーがどのような役割を果たすのかということを心配していませんか?彼らにはまだ目的があるはずです。

もちろん、それは確率の高いゲームであり、あなたは事実を知ることはできません。しかし、あなたの心の中では、これが私たちの行くべき方向なのでしょうか?それは、単に私たちの生活様式が変わるだけなのでしょうか?それとも、最終的に私たちが機械に支配されてしまうような脅威があるのでしょうか?

Nick Bostrom 3:55

下降局面では、人類存亡リスクを含む大きなリスクがあると思います。これは、地球由来の知的生命体や廃棄物の生存そのものを脅かすもので、私たちをある過激な最適ではない状態にロックダウンてしまうことで、未来を永久に破壊してしまう可能性があります。しかし、もしうまくいけば、これらの災害シナリオを避けることができれば、超知能が人類のより大きく、より良い未来を開くことになると思います。

このように、実際に良いことが起こる可能性があることに、私はとても期待しています。また。このアップサイドを開くことに加えて、超知能を正しく理解することは、今世紀中に私たちが直面するであろう他の多くの人類存亡リスクにも役立つと思います。例えば、合成生物学では、病原体や病気を強化することがますます容易になると言われています。

Patrick Bet-David 5:05

わかりましたか?では、サミュエル・バトラーのエッセイ「機械の中のダーウィン」はご存知ですよね?1863年の?

あなたが正しいと仮定すると、聞いたことがあるかもしれませんよね。それでね。80年代、1863年に、彼はこのエッセイを書きました。僧侶であるダーウィンが、機械は知的機械による人類の支配を予測していた、最終的には彼らが私たちを支配し、私たちは何でもできるようになり、私たちは彼らにひれ伏さなければならなくなるだろう、と言っています。

Nick Bostrom 5:38

それは屈服とは言えないと思います。このような実存的なリスクの多くは、人類が単に全滅し、地球周辺や太陽系などの資源が再編成され、代わりに別の目的のために使用されるというものだと思います。

Patrick Bet-David 5:54

あなたがTEDで行った講演では、ゴリラや猿と自分たちを比較した場合、世界で最も強い人間よりもはるかに強力である、と言っていましたね。しかし同時に、私たちの能力は、脳の処理能力や思考力など、あらゆるものです。つまり、コンピュータやAIに対する私たちの優位性とは何か?私たちはどんなエッジを持っているのでしょうか。

Nick Bostrom 6:26

我々はそれらを構築することができます。ですから、少なくとも一度は正しく作るチャンスがあるのです。

もしAIをエンジニアリングして、理想的な形で人間の意志の延長のようなものにすることができたら、そして人間の意図や価値観に合わせることができたら、AIは私たちの味方になってくれるでしょう。そして、私たちの目標や願望を大きく後押ししてくれることでしょう。

Patrick Bet-David 6:49

しかし同時に、世の中には良い人と悪い人がいますよね?ある人は、ポジティブな動機で物事を構築します。ネガティブな動機で物を建てる人もいる、仮にポジティブな動機で建てる高貴な人がいるとしましょう。否定的な動機で作る人は、権力支配の力に駆られて、より強く、よりよく考え、我々よりもすべてをうまくこなす機械を作るとしたらどうでしょう?

作ることができない分野があるとすれば、世界で最も邪悪な人でさえ、地球を征服して支配したいからロボットを作りたいと思うとしたら?

仮定の話ですが、これは映画や小説で見たことがありますし、これを見たり読んだりするのは初めてではありませんよね。そのようなレベルであっても、最高の機械ロボットや人間が作ったあらゆる知能に対して、私たちが優位に立てるものはあるのでしょうか。

Nick Bostrom 7:48

今のところ、明らかに機械は非常に限られていますが、いずれは人間個人よりもはるかに優れた能力を持つようになり、その後のある時点では、すべての人間を合わせたよりも優れた能力を持つようになると思います。その時、人類が明るい未来を手に入れるために、あるいはこのようなシナリオの中で未来を手に入れるためには、人類が意図したことを実際に行うように設計された機械が、基本的には私たちの味方である必要があると思います。

良いニュースは、私がこの本を書いている間、この分野はほとんど無視されていたということです。AIの研究をしている人はたくさんいますが、AIが成功した場合にどうなるかを考えている人はほとんどいませんでした。しかしその後、AIの安全性や、学習システムがどれだけ賢く有能になっても適用可能なAI制御のためのスケーラブルな手法の構築に取り組む、活発な研究サブフィールドが存在しています。そして、その分野には非常に優秀な人々が参加しています。

この分野では、いくつかの進展が見られます。つまり、私たちが必要とする時までに、これらの問題に対する十分な解決策が利用できるようになっているかどうか、ということです。つまり、超知能マシンをできるだけ早く作ろうとする多数派と、それまでに関連する制御技術や安全技術を確保しようとする少数派との間で、ある種の競争が行われているのだと思います。

Patrick Bet-David 9:29

ええ、でも私がこの問題をどう見ているかというと、リスクの観点から見ています。

ご存知のように、私たちはパンデミックを経験したばかりで、アメリカも世界もシャットダウンしてしまいました。それが事故であり、意図的に起きたことではなかったとしましょう。素晴らしい。

もし誰かが意図的に皆をシャットダウンさせる力を持ちたいと思ったらどうでしょう?最近、国防総省の主要なリーダーの一人が辞任しましたが、その理由は、中国のサイバー戦争に関する情報量と経験は我々の何年も先を行っており、我々は彼らに対抗することさえできません。だから私は辞任します。この記事が出たとき、彼はそう言ったのです。先週のことです。

しかし、私はもっと多くのことを話しています。私はイラン出身です。ですから、歴史的に見ても最大の課題はイランとの関係です。ねえ、私たちはあなたに核兵器を作ってほしくありません。

わかりました、私たちは核兵器を作らない。本当に核兵器を作らないのでしょうか?岸辺を視察してもいいですか?この9つの場所以外ならどこでも検査できるのでしょうか?じゃあ、その9つの場所で作っているのかもしれないですよね?

つまり、私が言いたいのは、誰かがあなたほど高潔ではないと言うことです。そして、もし彼らが本当に権力、影響力、支配といった動機を持っているとしたら、今後5-10-15-20-30年の間にAIでどこまでできるでしょうか?

Nick Bostrom 10:51

まあ、30年というのはわからないですね。つまり、今、私たちは、AI開発の最先端がほとんどパブリックドメインになっていることを知っています。実際、優秀な研究者たちは、最新の研究成果をできるだけ早く発表しようと躍起になっており、ジャーナルに掲載される前に、プレプリントやアーカイブサーバーに載せています。

さて、これがある時点で、より密接な開発体制に移行する可能性は大いにあります。そうなると、誰が、誰が、AI開発競争の中でどこにいるのかを知ることが難しくなるかもしれません。しかし、今のところ、私たちはかなりよく把握しています。というのも、優秀な研究者はみな、自分がいかに優秀であるかを他の研究者にアピールするために、論文を発表したいと強く願っていますからね。

もし、あなたがどこかの企業の内部で何かをしていて、そのことを本人に伝えることが許されないとしたら、あなたが世界的に有名になったり、仲間の研究者の間で有名になったりする可能性のある人々の一人であるとしたら、それは残念なことです。

今のところ、本当に優れたAI研究者は需要が高く、好きなように選ぶことができ、多くの研究者は出版を許可してくれる企業や大学で働くことを希望しています。誰かが私の教会に乗り込んできそうですね。

Patrick Bet-David 12:28

これらのことは国によって変わりますよね。つまり、中国では、個人を認識することにはあまり関心がなく、すべては集団に関わることなのです。イランも個人の承認を重視していません。なぜなら、誰かが権力を持ちすぎると、もしかしたら第二のショックの復活が起こるかもしれないからです。

だから、一人の人間に過剰な評価を与えることはできないのです。つまり、社会や国によっては、自分のためにやっているのではなく、国のためにやっている場合もあるのです。ですから、中国で評価されたいと思っている研究者仲間でも、どうやってもできないのです。

もし誰かがそれをやりたいと思ったとしても、「私がここに書いたものを見てください、私が書いたばかりのこの論文を見てください、私が取り組んでいるのはこれです。これが私の発見です。このような場所では、その先進性を十分に知ることができません。ですから、これを別の角度から見てみましょう。

Nick Bostrom 13:17

中国は年々、AIに関する論文をたくさん発表しています。中国では、論文を発表するための強いインセンティブ構造があります。

Patrick Bet-David 13:34

だから、あなたが見ている中で、最も大きな進歩を遂げているのはどこだと思われますか?仮にですが、あなたの世界では、20年前、40年前に映画で見たような技術が今作られようとしていて、それが現実になるとしたら、どんな技術がありますか?

Nick Bostrom 13:52

つまり、AIの中のARの中のAR?

Patrick Bet-David 13:54

ええ、まあ。

Nick Bostrom 13:57

このように、応用可能な技術については、基本的な進歩があると思います。これらはかなり汎用的なものです。例えば、オープンAIのCPT3では、膨大な量の人間が書いたテキストを単純化して取り込むことを意味していましたが、これは基本的にインターネット上のものです。CPT3は、基本的にインターネット上にある膨大な量の人間が書いた文章を単純化して取り込むことを目的としています。そして、何か文章のプロンプトを与えると、そのプロンプトに応じて、プロンプトが示唆するスタイルで文章を書き続けます。

このような大規模な言語モデルの性能は、計算量に応じてスケーリングされるため、パラメータやデータが多ければ多いほど、これらのモデルの性能は向上するようです。

興味深いのは、これらのモデルを数桁スケールアップすると、現在のモデルと地上の人間ができることとの差が本当に縮まるのかということです。また、この種のテキスト生成に使用できる基本的に同じアーキテクチャは、他のモダリティにも適用できることがわかりました。

現在、Tipシステムのように、テキストと画像を組み合わせたシステムがあり、画像を再生成したり、テキストを入力して、その画像がどのように見えるかを想像したりすることができます。これが一つの例です。これは、タンパク質の折り畳み問題を解決しないまでも、少なくとも飛躍的な進歩を遂げることができるAIです。生物科学の分野で重要な応用ができる可能性があります。

このデータの数年前には、AlphaGoがありましたが、これはゴールを目指すゲームをAIが制覇したというものです。これらのケースでは、適用されたり再適用されたりする技術は比較的少ないので、それぞれのシステムがある程度の手作業を必要としているわけではありません。しかし、本当のエンジン、本当の力は、このように一定しています。

この設計知識は、機械に学習させる方法を知っています。この知識は、視覚や聴覚、テキストなど、あらゆる分野に応用することができます。これが、現在起こっているディープラーニング革命の最もエキサイティングな点だと思います。

Patrick Bet-David 17:02

機械に、学習方法だけでなく、感情の持ち方を教えることは可能だと思いますか?

Nick Bostrom 17:07

心の哲学の問題では、例えば、意識的な経験を持つための基準は何なのかということについて、多くの不確実性があると思います。この問題は、哲学者が長い間取り組んできたものです。

私は、いずれ意識を持つ機械やデジタルマインドが登場すると信じています。そして、その時には道徳的な地位も得られるでしょう。そうなると、問題は機械が私たちに何をするかだけではなく、私たちがお互いに何をするかということになります。

あるいは、私たちが工作機械を使ってお互いに何をするかだけでなく、彼らに何をするかが問題になります。ですから、デジタルマインドの倫理は、徐々に生じてくると思います。これは本当に重要な問題です。

今日では、この問題はオーバートン窓の外にあるようなもので、実際にはできないような奇妙なものですが、私は今、その時が来たと思っています。少なくとも一部の人々は、学界で一日中座って物事を考えているような贅沢な時間を過ごしていますが、私たちは、これが世界大戦のようなものになるかもしれないということを、いくつか解決しようとし始めるべきなのです。

Patrick Bet-David 18:17

彼女の映画を見たことがありますか?ホアキンと?フェニックス?うんうん。どの映画のことかわかる?彼がいるところ?

Nick Bostrom 18:24

ああ、個人用のシステムがあるところですよね?

Patrick Bet-David 18:27

そうですね。人間がロボットと結婚するような時代が来ると思いますか?なぜなら、ロボットは人間ができることを何でもできるようになったからです。分野も含めて?そんな時代がやってくると思いますか?

Nick Bostrom 18:43

まあ、今までというのは、長い時間ですよね?そうですね。しかし、おしゃべりロボットなどについては、どちらかというと近い将来になるかもしれません。

少なくともいくつかの用途では、完全に説得力のある人間のような対話者を必要としないかもしれませんが、より限定されたものであっても、ある人々にとっては魅力的なものになるかもしれません。そして、その意味では実用性もあるかもしれません。つまり、Siriのようなパーソナルアシスタントがいて、それがユーザーとより社会的な関係を持ち始め、誰かが落ち込んでいる兆候を察知すると、励ましの言葉をかけるようになったりするとしたら、今後数年のうちに少しずつ実現していくのではないかと想像しています。

しかし、最終的には、人間と完全に同等か、それ以上の機械ができて、意識を持つようになれば、人間と機械の間に、現在の人間同士の関係と同じような深い関係が築けない理由はないと思います。

Patrick Bet-David 19:56

あなたは、真のAIが実現すれば、これまでのテクノロジーによるあらゆる脅威、核兵器をも上回る危険性をもたらす可能性があると主張していましたね。そして、その開発を慎重に管理しなければ、人類は自らの絶滅を工学的に招いてしまう危険性があると。それによってあなたの立場は変わりましたか?今も同じ立場をとっているのでしょうか?

Nick Bostrom 20:16

確率の話をしているのであれば、その大きさは明らかに時間とともに上下します。科学者が初めて原子爆弾を爆発させたトリニティ実験では、発生した高温が大気に引火して、すべての生物が死んでしまうのではないかという懸念がありました。懸念があったかどうかは別にして、ラサラ・ムスリムの長官であったロバート・オッペンハイマーにいくつかの研究が依頼されました。

その結果、このような事態は起こらないことがわかったのです。核物理学的に見て、新しい大気は発火しません。そしてもちろん、彼らは爆弾を爆発させ、大気は発火しませんでした。 発火するということは、私たちにとって良いことです。しかし当時は、もしかしたら彼らの計算が間違っていたかもしれないという、小さな人類存亡リスクだったと言えるかもしれません。そして、そうなってしまったのでしょう。

実際、その数年後、科学者たちが核融合爆弾や水爆を開発していたとき、彼らは再びこの実験装置を爆発させるときの収量を計算しました。そして、爆発させた。カプセルブラボーを爆発させたところ、計算に誤りがあり、結果的に予想の2.5倍の収量となったのです。

これが意味するところは、大爆発が起きて日本の漁船に放射線が照射されたり、一人の人間が死んで国際的な事故になったりしたということです。また、大喜利のようなもので、爆発を記録するために設置された多くの機器が爆風で破壊されてしまいました。トリニティ実験が大気圏に突入するかどうかの計算ではなく、この2回目の実験で計算ミスがあったことは幸いでした。

しかし、冷戦時代には、もっと大きな人類存亡リスクがあったのではないかと思います。それは、世界が何度も核によるハルマゲドンの危機に瀕していたことです。それが人類滅亡の原因になったかどうかは定かではありませんが。

しかし現在、今後数十年を見据えると、最大の存亡の危機は、かつてないほどの技術的なブレークスルーによってもたらされると思います。さらに、何年も、何十年も、何千年も生きてきた実績のない世界に、新たな要因を持ち込むことになる分野もあるかもしれません。

私たちは、このような全く新しい力を使って、サイコロを振っているようなものなのです。

Patrick Bet-David 23:10

一般的に、今のような状況になると、ビットコイン暗号通貨の規制が話題になることが多いです。

一方では、絶対に規制されないと言っています。もうすでに規制されているという人もいれば、もうすぐ規制されるという人もいます。しかし、規制が始まれば、私たちはこれをコントロールすることはできず、政府が介入して何が起こっているかを見なければなりません。NF Tをマネーロンダリングの手段として使っている人もいるので、規制をかけなければなりません。わかりました、わかりました。

このような状況になることはあると思いますか?しかし、いつでもすぐに、AIに対する規制のレベルが、国家的なものではなく、世界的なものである必要があるという段階に到達すると思いますか?

Nick Bostrom 23:59

そうですね。つまり、200の国があって、それぞれが独立してこれらのことを選択した場合、基本的には、これらの異なる技術による大規模な外部性はないと考えなければならないでしょう。しかし、国の行動による外部性がある例はたくさんあります。

地球温暖化を解決したい場合、1つの国が一方的に自国の汚染を減らすだけでは不十分で、ほとんどの国がやらなければなりません。また、核兵器や生物兵器のように、核兵器の拡散を抑制し、生物兵器を完全に禁止するために大きな努力をしてきました。つまり、新しい技術がどのように展開するかという幸運にある程度左右されるかもしれませんが、1つのアクターが何かを開発・配備しても受け入れられないほどの破壊的な技術を手に入れることができるかもしれないのです。

Patrick Bet-David 25:10

最近の映画「Machine vs the Mitchell’s」をご覧になりましたか?アニメはまだ見ていません。

私の子供たちは、「パパ、『マシン対ミッチェル』を見たいよ」と言います。

私は「みんな、大丈夫です。」

これを見る必要はないんです。しかし、アニメを見ている時は、私が昼寝をする良い機会なんです。だから私は、「よし、いいぞ。見よう。それで、このアニメを見ることにしたのですが、突然、このアニメのせいで眠れなくなってしまいました。機械に乗っ取られるアニメですが、ミッチェル家のミッチェルは家族のようなもので、反撃できず、みんなが団結して、すべてを一つにまとめる方法を知っていて、人間が敵になるんです。

映画「I Robot」でも、ロボットが敵になり、人間が敵になり、それに反旗を翻すという内容を見たことがあると思います。このような映画を何度も見ていると、これらの映画の多くは最終的に現実のものとなります。未来には何が起こりうるのでしょうか?未来について最も関心のあることは何ですか?人によって関心事は異なりますが、あなたが未来について最も関心のあることは何ですか?

Nick Bostrom 26:17

私はおそらく最終的には対立するでしょう。つまり、懸念されるケーキを様々な方法で切り分けたり、サイコロ状にしたりすることができます。

しかし、最大の人類存亡リスクの多くは、世界が分断されているという事実から生じていると思います。異なるアクター、異なるグループの人間が、互いに意図したり対立したりしながら仕事をしているのです。そして、彼らがダメージを与えるためのより強力なツールを手に入れれば、反対側ではより多くのダメージが起こるかもしれません。

冷戦時代の核兵器のように、すでに文明を破壊することができたのではないかと言うかもしれませんが、核兵器は実際には開発が非常に困難で高価なものでした。つまり、どんな人でも自分のガレージに核兵器を持つことができたわけですが、それは国家のみが開発できるもので、その場合でも大規模な産業プログラムが必要でした。そして、それらは比較的検出可能です。だから、誰が核兵器を持っていて、誰が持っていないかは基本的にわかっています。しかし、将来のテクノロジーについては、そうである必要はありません。

例えば、バイオテクノロジーの発展により、ガレージにいる個人が世界の人口を壊滅させるようなものを作ることができるツールを手に入れることができるかもしれないのです。このようなものをモニタリングするのは非常に難しいでしょう。

というのも、エネルギーを供給するために、隣に発電所のような大規模な施設を必要としないからです。試験管や化学物質、生物学的な標本などがあればいいのです。他にも、核兵器の特性がある程度安定しているという方法もあります。

つまり、先制攻撃をしても確実に安全であるように、敵の核兵器をすべて消し去ることは十分に容易ではなかったということです。冷戦時代には、ソ連もアメリカも第二撃の能力を持っていました。というのも、相手を滅ぼしたくなくても、それは非常に残念なことだと思うからです。しかし、相手に先制攻撃されて全滅させられるのではないかと心配していると、危機的な状況では、お互いに「今、攻撃しよう」と考えることになりがちです。相手に大きな損害を与えないとしても、自分たちが無防備な状態になるというリスクを負う余裕はありません。

もし、そうしなかったら、つまり、安全な第二撃能力を持つことができるような技術がなかったら、もっと安定しない軍拡競争になっていたかもしれませんし、将来の他の技術もこの点でもっと不安定になるかもしれません。そして、私たちのさらなる可能性もあります。しかし、現在の世界秩序の分裂した根幹に起因するリスクは大きいと思います。

また、事故のリスクの中には、より深い紛争から生じるものもあります。冷戦時代を例にとると、警告システムの誤作動などで偶発的に核戦争が起こる可能性があり、実際に何度か起こりそうになったことがあります。アベル・アーチャー演習で、とかね。しかし、もっと深い原因があるとすれば、それは紛争だったでしょう。

というのも、そもそもアーセナルを増強させ、ヘアトリガー式の警戒態勢を取らせたのは、核をめぐる争いだったからです。たとえ直接的な原因が事故であったとしても、小さな事故のために状況を悪化させてしまったことで、私たちは何のために紛争を起こしたのでしょうか?

Patrick Bet-David 29:51

興味深いですね。AIがすべての産業に異なる形で影響を与えるという観点から見ていますか?あなたはそこに座って、「ああ、そうだな、スポーツではこんなことが起こるかもしれないな」と思うことはありますか?戦争にはこんなことが起こるかもしれない、音楽にはこんなことが起こるかもしれません。

例えば、音楽はすべて数学ですよね。AIが、完璧な数学に基づいて、正しいリズムや音楽を考え出し、あらゆる種類の声を作り、歌詞を組み合わせて歌うことができるようになれば、音楽エンターテイメント産業が破壊されるかもしれません。 それぞれの産業がどのような影響を受けるのか、深く考えたことはありますか?

Nick Bostrom 30:42

ほとんどの場合、私たちはより一般的な質問に焦点を当てています。そして、あなたが十分に高度な能力を手に入れれば、あなたの質問に対する答えは、これらの分野すべてが影響を受け、機械に追い越されるだろう、というものになると思います。しかし、一般的なAIになる前に、近い将来に起こりそうなことを考えてみるのも、たまには楽しいかもしれませんね。

音楽の場合、今のところ結果はそれほど印象的ではありませんが、機械はより局所的な構造の多くを理解していると思います。例えば、小さな小さな音楽の断片はとても説得力のある良い音になります。しかし、楽曲全体の意味を表す大規模な構造やデザインは、これまでのところ、これらの音楽生成アセットではあまり作り出せていません。

というのも、他の芸術分野では、基本的に同じアルゴリズムでスケールアップしても、より全体的なコンテクストが得られているからです。他の芸術分野でも、基本的には同じアルゴリズムをスケールアップしてきましたが、より全体的なコンテキストが得られるようになりました。

Patrick Bet-David 31:51

インタビューをするたびに、5-10-15-20の質問を受けるのですが、その中で1つだけ、自分自身で答えを導き出そうとする質問があります。聴衆のためではありません。視聴者のためでもなく、何かできることはないかと考えているのです。もう何度も質問していますが、もう少し明確にしたいと思っています。

しかし、私の場合は、6歳、4歳半から45歳です。なるほど。

今までの最高の垂直跳びは、たぶん30インチくらいだったので、「よし、これが私の垂直跳びだ」と言っておきましょう。わかりました、だから私は自分が跳べる高さに限界があることを知っているんです。なるほど、素晴らしい。だから私はバスケットボールで跳べる高さに制限があるのですが、今までの最高垂直跳躍は48インチ、51インチとも言われていますが、私たちが跳べる高さに制限がある動物には限界があるということで、その数字を言いましょう。人間には限界があるんですよね。

あなたには限界がないと言われると、やる気が出る名言ですよね。しかし、人間には限界があります。自分の限界や、自分には限界がないかもしれない分野を早く知ることができれば、AIに戻って素晴らしいことをすることができます。動物には限界がなくても、人間にはできることが限られていますよね。では、AIや機械、テクノロジーには何か制限があるのでしょうか?もしあるとしたら、それは何でしょうか?

Nick Bostrom 33:18

つまり、基本的には、その時点で、計算の物理学に関わる基礎物理学を見なければなりません。信号が伝播する速さには限界があります。つまり、大規模で非常に大きなコンピュータがあったとしても、内部的には、コンピュータのある部分が別の部分と通信するのに長い時間がかかるため、実行できる直列計算の深さや速度には限界があるということです。また、ブラックホールのような限界もあります。

本当に十分な大きさのコンピュータを作ったとしても、最終的にはその質量はブラックホールに崩壊してしまいますよね。エネルギーの使用量にも限界があります。情報を消そうと思ったら、1ビットの情報を消すのに必要な負のエントロピーの最小量があるんです。つまり、可逆的な計算をしようと思っても、その効率性には限界があるのです。そして最終的には、現在の地球から出発して手に入る物質の量にも宇宙では限界があります。光速で移動したとしても、その先にあるものにアクセスできる範囲は限られていますし、宇宙は膨張していますから、到達する頃には後退しているでしょう。

現在の物理学の理解が正しいと仮定すると、様々な物理的な限界がありますが、先ほど言ったように、質量的に2分や3分ではなく、何桁もの大きさのものにアクセスすることができるのです。それは多分、20個の星の何乗かのオーダーになるでしょう。その1つ1つが、現在の地球の重さの10倍から30倍の力を持っていると思います。ですから、物理学上の許容範囲を超えてしまう前に、頭上にはたくさんのスペースがあるのです。

Patrick Bet-David 35:31

クレイジーな質問ですね。これは可能ですか?オーケー、あなたは「イエス」と言いそうですね。なぜなら、あなたの一般的な答えは、AIでは何でも可能だというものだからです。つまり、最終的には彼らはそれを理解することができるのです。だから、これをゴミ箱に入れるか、いつかは起こりうることだと言うか、どちらかにしてみたいと思います。

アメリカでは、特に私はイラン、ドイツ、そしてここアメリカに住んでいますが、大統領に投票するとき、人々は通常、大統領を嫌うでしょう。人々は通常、個人的な理由からその大統領を嫌うでしょう。あの人はこういう人だから嫌だ。「彼はああいう人だ」と。バイデン、トランプ、オバマ、ブッシュ、クリントン、レーガンなどの大統領を悪者にするのは簡単ですが、それは人間だからです。

私たちは統計を取り、データを書き込んで、このコンピュータとAIを使ってシステムが考え出したことに基づいて、正しい税制を実行することができるのです。22.5%以上の税金を課すべきではありません、これはただの数字ですが、そうです。もう1つの状況は、これまでの戦争や、インド、中国、イランとの紛争に基づいて、今の正しい行動は、何もしないか、撤退するか、あと5ヶ月滞在するかだと言っていますが、すべてはデータ、データ、データですからね?もはや人間が大統領選に立候補するのではなく、システムやコンピュータ、AIに投票する時代が来ると思いますか?

Nick Bostrom 37:15

それは遅くなると思います。憲法の枠組みには、多くの惰性が埋め込まれていると思います。ですから、しばらくの間は、少なくとも図式化されたものになるのではないかと想像しています。

さて、このフィギュアヘッドはどの程度のものなのか、という疑問が常につきまといます。実際、政府の行動をコントロールするものなのでしょうか?確かに、現在の世界ではすでにそのような質問ができると思います。そして、私はそう思います。

歴史上のほとんどのケースでは、1人の顕著な人物がいるようなものです。しかし、その周りには何らかのエリートがいて、彼らの行動の自由を制約するような制度があります。将来的には、彼らを制約するものの一部は、ますます大きな情報システムとその上で動くアルゴリズムになるかもしれません。

今日のように、第二の市場のようなものが制約となり、前例として何ができるのか、もしかしたらソーシャルネットワークが制約となり、さらにサイバーシステム間の他の相互作用も制約となるかもしれません。

Patrick Bet-David 38:10

だって、どうやってシステムに話しかけるんですか?例えば、3つのシステムが、こういう大学が運営している予測分析に投票しています。

この200年の間に、もしこのシステムに基づいてアランダを行っていたら、そうなっていたでしょう。ですから、「あのコンピュータは気に入らない、彼は私の気持ちを害した」とか「あのコンピュータは私の気持ちを害した」とは言えないのです。それはできません。しかし、あなたが答えたのは、AIにはある種の限界があるのではないかということです。その限界とは、決して大統領にはなれないということです。私はそれを理解しようとしています。

Nick Bostrom 38:41

憎しみの対象になれないという限界は、人間の憎しみの能力を過小評価しない現実的な限界だと思いますが、私はそうは思いません。人間は個人を憎むことができると思います。国家や組織、会社やシステムなど、あらゆるものを憎むことができます。予測アルゴリズムのようなものを憎むために、人々が団結しない理由がわかりません。そういうことなのでしょう。

Patrick Bet-David 39:07

神についての議論をしているときに、私が行っている部分だと思います。私は懐疑的な男で、イランの聖書研究会から追い出された男です。なぜなら、もし本当に神がいるのなら、私はいったい何のために行くのでしょうか?なぜ多くの人が死んでいくのでしょうか?

しかし、神についての会話では、論理、感情、気持ち、つまり意思決定プロセスの選択が必要になりますが、私にとっては、最終的には、テクノロジーが感情を構築できるかどうかはわかりません。テクノロジーが感情を構築できるかどうかはわかりませんが、あなたが機械のようなものを嫌う方法をきっと見つけられると言ったので、私を信じてください。

私は最後のエスカレートが嫌いでした。なぜなら、サスペンションで何が起こるのか、全く分からなかったからです。そう、あなたの言う通りです。先週殴ったからといってマシンを憎むわけにはいかない。そして、マイアミに行っても、どうやって降りればいいのかわからず、あちこちにぶつけてしまいました。その結果、2つの問題があることがわかり、それに対処することにしました。そう、あなたの言うとおり、それができるんです。

しかし、私が考えているのは、人間が機械よりも優位に立っている分野は何かということです。つまり、人間が生き残るために必死に機械を必要とするのではなく、長期的には機械が人間を必要とするような分野です。

Nick Bostrom 40:16

そのような分野はないと思いますよ。機械が人間を必要としているとしたら、それは何らかの形で機械が人間を気遣っているからだと思います。

あるいは、他の機械が人間を大切にしていて、それが最初の機械に道具としての理由を与えているのかもしれません。そうでなければ、実用的な観点から考えると、最終的には、人間が筋肉や脳を使って作り出すことのできる物理的な結果で、何らかの知能システムが同等以上に作り出すことのできるものはないと思います。

Patrick Bet-David 40:46

そう思いますか?でも?

Nick Bostrom 40:49

つまり、そうなんですよ。つまり、そうなんです。超知性は、明らかに、一般的に私たちよりもはるかに問題解決能力が高いのは事実です。そして、私たちの指が複雑になりすぎて、同じことをするのに簡単なロボットのマニピュレーターができなくなるのではないか、ということです。いや、ナノテクを駆使すれば、もっと高性能なアクチュエーターができるはずだと思います。そうなると、基本的なレベルでは、私たちには何もできません。

しかし、価値観の枠組みの中では、私たちは非常に重要な位置を占めているのかもしれません。例えば、私にはとても愛されている祖母がいます。祖母は仕事をして収入を得たり、70の実用的なことしかできませんが、人々が祖母を大切に思っているならば、祖母にしかできないことがあります。

同じように、未来の私たちの役割は、この状況を楽しむ人たちかもしれません。そして、これらの仕事がすべて行われている人たちのためにも。それはある意味で、労働者や装置全体の手足となるよりも、もっと威厳のある役割だと思います。

Patrick Bet-David 42:00

もしそうだとしたら、直観のように、直観には別のものがあると思います。誰かと一緒に座って、その後で、ベイブ、あの人についてどう思う?私は彼らを信用していないの?ええ、私もです。AIは、私たちが持っている直感を持つために、そのレベルに達することができるでしょうか?なぜなら、直感を持つための19の鍵のようなものではないことがあるからです。

直感を得るためには、誰と一緒にいるか、という育ちの良さのようなものが必要です。感情を再現できるか?互いの目を見て話すことができるでしょうか?わかりません、私が求めているのは、これはあなたの世界です。

私はただ、あなたが24時間365日消費している世界に住んでいる人と話すことで賢くなろうとしているだけなのです。それがずっと私の目標でした。というわけで、ここで最後の感想を述べようと思います。親として、人間として、どのように答えてもいいのですが、私はこのように質問します。

あなたは将来について楽観的ですか?好奇心はありますか?あなたは、このようなことがどれほどおかしくなるのだろうと思っていますか?テクノロジーをどれだけ活用できるか、テクノロジーの進歩にはどれだけの限界があるのだろうか、と感じていますか?あなたは未来についてどのように感じていますか?もしあなたが、未来についての私の気持ちをこう言うとしたら?

Nick Bostrom 43:19

私は自分自身を気まぐれな楽観主義者だと思っています。

Patrick Bet-David 43:23

怖いもの知らずの楽天家 怖いもの見たさの楽天家。そうですね。もう少し詳しく説明してくれませんか?

Nick Bostrom 43:32

とてもわかりやすい説明ですね。つまり、現在の私たちの数字の状態からすると、非常に良い結果も、非常に悪い結果も、どちらも排除することができるということです。

そして、私たちはこの不確実性の中で生きていて、それがどうなるかを見ることになるでしょう。

Patrick Bet-David 43:52

気まぐれな楽観主義者のニックが好きです。バリュー・ティムのゲストとして参加していただきありがとうございました。

あなたの本「Super Intelligence Pat’s dangers Strategies」のリンクを下に貼ります。ニューヨーク・タイムズのベストセラーです。

私はあなたがそれを実現することができてうれしいです。あなたはそれを手に入れました。あなたは何を考えているのですか?AIが支配すると思いますか?いつかロボットのような大統領が誕生するような時代になると思いますか?あなたの考えを知りたいですか?以下にコメントしてください。

このインタビューを楽しんでいただけましたら、親指を立ててチャンネルを購読してください。また、未来学者であり、ハッカーでもあるパブロス・ホルマンへのインタビューもお楽しみください。非常に興味深い精神の持ち主です。まだご覧になっていない方は、こちらをクリックしてご覧ください。こちらをクリックしてご覧ください。それでは皆さん、また。

この記事が良かったら管理人に お知らせください。
いいね記事一覧はこちら

備考:機械翻訳に伴う誤訳・文章省略があります。
下線、太字強調、改行、画像の挿入、リンク添付等の編集を行っていることがあります。
使用翻訳ソフト:DeepL /文字起こしソフト:Otter 
Alzhacker.com をフォローする
Alzhacker

コメント

タイトルとURLをコピーしました