#155 – マックス・テグマーク AIと物理学

強調オフ

Lex Fridman Podcast物理学・宇宙

サイトのご利用には利用規約への同意が必要です

#155 – Max Tegmark: AI and Physics

OUTLINE

ここにはエピソードのタイムスタンプがあります。一部のポッドキャストプレーヤーでは、タイムスタンプをクリックするとその時間にジャンプできるはずです。

(00:00) – イントロダクション
(08:15) – AIと物理学
(21:32) – AIは物理学の新しい法則を発見できるか?
(30:22) – AIの安全性
(47:59) – 人類の種の絶滅
(58:57) – フェイクニュースや誤報を修正する方法
(1:20:30) – 自律的な武器
(1:35:54) – 核戦争を防いだ男
(1:46:02) – イーロン・マスクとAI
(1:59:39) – AIの連携
(2:05:42) – 意識の問題
(2:14:45) – リチャード・ファインマン
(2:18:56) – 機械学習と計算物理学
(2:29:53) – AIと創造性
(2:41:08) – 宇宙人
(2:56:51) – 死亡率

Lex Fridman 0:00

Max Tegmarkとの対談は、このポッドキャストでは2回目です。実は、前回の対談は、このポッドキャストのエピソード1でした。彼はMITの物理学者であり、人工知能の研究者であり、Future Life Instituteの共同創設者であり、『life 3.0, being human in the age of artificial intelligence』の著者でもあります。他にも多くの魅力的なプロジェクトの責任者であり、多くの著作がありますので、ぜひチェックしてみてください。

彼は、AIの長期的な実存リスクについて率直に語ってきた重要な人物の一人です。最近では、AIと物理学の接点や、私たちが目にする情報をコントロールすることで私たちを分断するアルゴリズムを再設計し、それによってバブルや今日見られるようなあらゆる種類の複雑な社会現象を生み出すなど、AIのエキサイティングな可能性と現実世界の問題に対する解決策についても言及しています。総じて、彼は私が知る限り、最も情熱的で素晴らしい人物のひとりです。スポンサーのジョーダン・ハービンジャー・ショーからは、SIG Maticマッシュルーム・コーヒー、ベター・ヘルプ・オンライン・セラピー、ExpressVPNを提供していただきました。選択肢、知恵、カフェイン、正気、またはプライバシーのために、賢明な選択をしてください、私の友人たちよ、もしあなたが望むなら、下のスポンサーリンクをクリックして、このポッドキャストをサポートするための割引を得てください。余談ですが、機械学習や人工知能のコミュニティの研究者の多くは、AIの実存的リスクについて深く考えることにあまり時間を割いていなかったと言わせてください。

というのも、現在のアルゴリズムは便利だが馬鹿げていると考えられているため、予見可能な将来、それらが人類の文明構造を破壊するようになるとは想像しにくいからです。

この考え方は理解できますが、非常に厄介です。私にとっては、さっきまで冷たかったのに、ぬるま湯の中に座っているロブスターのようなもので、危険かつ刺激のない視点です。

私はこのロブスターに親近感を覚えます。私たちのソーシャルメディアでの交流を促進するアルゴリズムは、すでに一人の人間の知性や力をはるかに凌駕する知性と力を持っていると思います。

今こそ、私たちの社会におけるテクノロジーと人間の相互作用の軌道を定義するために、このことを考えるべきだと思います。私たちの社会における人工知能の役割について、人類の文明の未来がかかっていると言っても過言ではないと思います。

もしこの番組を楽しんでいただけるのであれば、YouTubeのレビュー、Apple podcast、Spotifyでのフォロー、Patreonでのサポート、TwitterのLex Friedmanで私とつながってください。

さて、ここからはMax Tegmarkとの対談です。皆は知らないかもしれませんが、実は数年前にこのポッドキャストのエピソード1に登場しています。そして今、私たちは戻ってきました。物理学でも人工知能でも、あなたが非常に情熱を傾けている分野で、たくさんのエキサイティングなことが起こっています。特に、科学のさまざまな問題を解くための重みという文脈で、人工知能で起こっているエキサイティングなことを追いかけることはできますか?

Max Tegmark 3:21

そうですね、特に今、2021年を迎えるにあたって、AIの最大のブレークスルーは何だったのかを考えるのはとても楽しい時間ですね。メディアに取り上げられたものではなく、本当に重要なものは何か?そしてそれは、私たちがよりよい科学を行うために何を意味するのか?世界中の人々を助けるための能力にはどんな意味があるのか?そして、もし私たちが賢くなくて回避できなかった場合、新たな問題を引き起こす可能性があることも意味しています。

これらのことから、私たちは基本的に何を学ぶべきなのでしょうか?

Lex Fridman 3:53

はい、その通りです。あなたが参加している素晴らしい活動のひとつに、人工知能と基本的な相互作用を研究するAI研究所がありますね。この研究所では何をしているのですか?どんなことに取り組んでいますか?何を考えているのですか?

Max Tegmark 4:06

基本的には、AIと物理学の出会いをテーマにしています。私が自分のMITでの研究を物理学から機械学習に移行してから、もう5年が経とうとしています。

最初の頃は、同僚の多くが、礼儀正しいとはいえ、「マックスは何をやっているんだ?マックスは何をやっているんだ」「この奇妙なものは何だ」「彼は頭がおかしくなったのか」と。

しかし、徐々に私や同僚たちが物理学部の他の教授たちを説得して、このプロジェクトに興味を持ってもらえるようになり、今ではNSFの素晴らしいセンターを手に入れることができました。

今後5年間で2,000万ドルが提供され、MITや近隣の大学も多数参加しています。今では、私をおかしそうに見ていた同僚たちも、これが何を意味するのかを尋ねるのをやめたことに気づきました。

私は、もちろん、AIは物理学がより良くなるために大いに役立つと信じています。しかし、物理学はより良いハードウェアを構築することでも多くの助けとなります。

例えば、私の同僚である山が判断するように、電子を動かしたり、光子を動かしたりするのではなく、計算を行うことで、より高速な機械学習を実現するためのコード・シップの改良に取り組んでいますが、エネルギー消費が劇的に少なく、より速く、より良くなります。

私たちは、異なるツールと、より大胆な姿勢を持つことで、AIを大いに支援することができると考えています。AIはこれまで、ただ動くものを作ろうとする工学的な分野であったことが多かったと思います。それよりも、その仕組みを正確に解明して販売することに興味があります。イーロン・マスクがロケットを国際宇宙ステーションに送り出すような物理学とは対照的です。

彼らは機械学習で訓練しただけではありません。ああ、もう少し左に撃ってみよう、もう少し右に撃ってみよう、それも失敗したけど。ここで試してみよう。ニュートンの重力の法則などを理解したように、私たちは本当に深い基礎知識を持っています。それがロケットへの自信につながっているのです。そして私のビジョンは、将来、人々の生活に実際に影響を与えるすべての機械学習システムが、本当に深いレベルで理解されるようになることです。営業担当者に言われたから信頼するのではなく、信頼を得ているからこそ、重要なことを保存し、期待したことを常に実行してくれることを証明できるのです。

これは物理学の考え方とほぼ同じです。興味深いことに、今年機械学習で起きた大きなブレークスルーを見てみると、ダンスをするロボットなど、非常に素晴らしいものがあります。かっこいいというだけでなく、そんなに昔ではありませんが、DARPAチャレンジのYouTube動画で、MITのロボットが車に乗って顔を出しているのを見たことがあります。わずか数年の間に、どれほどの進歩を遂げたかを知ることができます。

同様に、アルファフォールドもそうですね。

Max Tegmark 7:29

タンパク質の折り畳み問題を解決するためには、医学研究などへの影響についてもっと話すことができますが、まあ、これは大きな進歩です。GPTを見てみましょう。3つのGPTが英語のテキストを吐き出していますが、これには本当に驚かされることがあります。Google at the minds, mu zeroは、我々の尻を蹴って、胸を張って、将棋だけでなく、アタリのゲームの全てに参加し、ルールを教える必要もありません。

さて、これらのゲームに共通しているのは、強力であることに加えて、その仕組みを完全には理解していないということです。踊るだけのロボットであれば、それでいいと思います。最悪の場合、顔面着陸することもあるでしょう?あるいは、囲碁をしていて、最悪の場合、間違った動きをしてゲームに負けることもあるでしょう。それが、自動運転車や原子力発電所をコントロールするものであれば、それほど許容できません。ハリウッドでは、機械が悪に染まるような悪いことを心配させるような映画を作ってきましたが、実際には機械で悪いことが起きていることがわかりました。オートメーションで起きた実際の悪い出来事は、機械が悪になることではありませんでした。理解しているつもりで理解していなかったことへの過剰な信頼が原因なのです。そうでしょう?ボーイング社が737MAXに搭載したような、非常に単純な自動化システムでさえもそう、多くの人が犠牲になったのです。その単純なシステムが悪だったのでしょうか?もちろん、そんなことはありません。

しかし、私たちはそれを十分に理解していませんでした。そうでしょう?そして、正確に理解せずに信頼してしまった。つまり、信頼を超えて、人間性が科学者であることの核心であることを理解していなかったのです。

もしあなたが科学者になりたいのであれば、ステップ1として、実際には理解していないことを理解しているように自分を騙すことは決してしないことだと思います。

Lex Fridman 9:26

そうですね。一般的な人間にとっても良いアドバイスかもしれませんね。

Max Tegmark 9:29

人類全体にとって、いいアドバイスだと思います。しかし、科学の分野では、非常に素晴らしいものがあります。例えば、アリストテレスの時代からガリレオの時代まで、なぜ間違った重力理論を持っていたのか、水筒を投げると一定の速度で上昇するということに気づくまで、馬鹿げたことをなぜ信じていたのか。

Lex Fridman 9:49

心を入れ替えますよね。

Max Tegmark 9:51

なぜなら、私たちはアリストテレスが正しいと思い込んでいた、それが権威だからです。

私たちはそれを理解しています。なぜ私たちは、太陽が消えているというようなことを信じたのでしょうか。地球の周りを回っている?アインシュタインが登場するまで、なぜ私たちは「時間は誰もが同じ速さで流れている」と信じていたのでしょうか?何度も何度も同じ間違いを繰り返してきましたが、実際には確かなことはわからないということを認めるだけの謙虚さがなかったのです。知っていると思い込んでいたのです。真実を発見できなかったのは、発見すべきことが何もないと思い込んでいたからです。737の最大値については、何か発見があったはずです。そして、もう少し疑ってみて、もっとしっかりテストしていれば、我々はそれを発見できたはずです。そしてそれは、自動化によってもたらされたほとんどの弊害についても同じことが言えます。

今のところ、そう言えるでしょう。それで、Knight capitalという会社のことをここで聞いたかどうかはわかりませんが。よかった、つまりあなたは以前に彼らに投資していなかったということですね。

彼らはこの自動格付けシステムを導入しました。彼らはそれを思ったほど理解していませんでした。毎分1,000万ドルの損失を44分連続で出し続け、誰かが「これは悪だ」と言うまでになりました。そうではなくて、やはり誤った信頼、彼らが完全に理解していなかったことが原因です。ロボットに殺された人は非常に多いのですが、それはまだ非常に稀です。

しかし、工場での事故では、どのケースでも悪意はなく、人間と自動車部品などが違うことをロボットが理解していなかっただけなのです。だからこそ、より高いレベルの理解を目指す物理学的アプローチには、大きなチャンスがあると思います。強化学習システムやダンスロボットから、GPTや3D、ゴールキーパーなどのソフトウェアを動かすニューラルネットワークまで、これまで述べてきたすべてのシステムを見てみましょう。

これらはすべて基本的にブラックボックスであり、人間に何かを教えるときに、その人の脳がどのように働くのか分からないのと同じようなものです。ただし、少なくとも人間の脳は、何世紀にもわたる進化の過程でエラー修正されてきましたが、これらのシステムのいくつかは正しくありませんでした。私のMITでの研究は、このブラックボックスを解明することに集中しています。それはいい言葉ですね。intelligible intelligence?知的に見えるものを選ぶべきではないということではありませんが、私たちが理解しているからこそ、実際に信頼できるような知的なものであるべきなのです。

例えば、アイランは彼のロケットを信頼しています。ニュートンの法則や推力、すべての仕組みを理解しているからです。では、なぜ私が楽観的なのか、その理由をお話ししましょう。一部の人々は、ニューラルネットワークを理解することはできず、この非常に強力なブラックボックスと共存することを学ばなければならないと考えています。基本的に、自分で作ったことがない人のために説明すると、非常にシンプルです。内部では、長い数字のリストを送ります。そして、その数字に様々な演算を行い、行列と掛け合わせたりして、いくつかの別の数字が出てきますが、その出力には、調整できるたくさんのノブがあります。ツマミを変えると、計算や入力・出力の関係に影響を与え、コンピュータに「良い」という定義を与えます。そして、コンピュータは可能な限り良い性能を発揮するまで、これらのツマミを最適化し続けます。そうすると、「わあ、すごくいいね」となることが多い。

このロボットは踊ることができる」とか「この機械は私をチェスで打ち負かしている」とか。そして最後には、中を見ることはできても、それがどのように機能するのかほとんどわからないものができあがります。何百万ものパラメータの表をプリントアウトすることはできますが。それがどのように機能しているのか、明確になっているのでしょうか?いいえ、もちろんそうではありません。そうでしょう?私の同僚の多くは、そのような状況に甘んじているようです。

私は「いや、それは中途半端だ」と思います。中には、ある種の神秘主義ではなく、「Mr.The Inscrutability of This」がパワーの源ではないかと推測している人もいます。それは全くのナンセンスだと思います。ニューラルネットワークの本当の力は、不可解さではなく、微分可能性にあると思います。つまり、ツマミをいじるだけで出力がスムーズに変化するということです。そして、科学における最適化のための強力な手法のすべてを使うことができます。

これが機械学習の基本的な考え方で、機械自身が良くなるまで最適化を続けることができるのです。このアルゴリズムをPythonやその他のプログラミング言語で書いたとします。そうすると、ノブがしたことは、コードの中のランダムな文字を変更しただけでした。

一つだけ変更すると、「送信されました、シンタックスエラーはありません」と表示されるprintの代わりに、これが良い方に悪い方に作用しているのかどうかさえ分からなくなってしまいました。

これこそが、私が信じている「基本的な力」なのです。

Lex Fridman 15:04

ニューラルネットワークの基本的な力だと思います。そして、プログラムの異なる文字を変更することは、微分可能なプロセスではないことを明確にしておきます。

Max Tegmark 15:10

そうなると、一般的には無効なプログラムになってしまい、さらに文字を変更しても、それが再び動作するかどうかもわからなくなってしまいます。

Lex Fridman 15:18

これこそがニューラルネットワークの魔法なのです。

Max Tegmark 15:23

パラメータのすべての設定がプログラムであり、それが良いのか悪いのかがわかるという、先ほど述べた能力です。ということです。

Lex Fridman 15:30

ニューラルネットワークのパワーの源である神秘的な詩のようなものは好きではないということですか?この場合、私は概してそれが好きです。

Max Tegmark 15:38

それはとても誤解を招きやすいし、何よりも私たちを短絡的にし、失敗させてしまいます。私のグループで行ってきたことは、基本的にはステップ1で、不思議なニューラルネットワークを訓練して、何かをうまくやるようにします。そしてステップ2では、追加のAI技術を用いて、このブラックボックスを実際に理解できる同様のインテリジェントなものに変換できないかと考えています。

例えば、先日発表したAIファインマン・プロジェクトでは、私が愛読している物理学の教科書から、最も有名で複雑な100の方程式を取り上げました。実は、私が物理学を始めたきっかけとなった教科書、ファインマンの物理学講義です。計算式がありますが、計算式に入るのは6つの異なる変数で、出てくるのは1つです。巨大なエクセルのスプレッドシートを7列で作成し、6つの列に6つの入力変数の乱数を入れ、7列目の計算式で出力を計算します。

これでタスクはOKです。もし、私が公式が何であったかを教えなければ。私が渡したスプレッドシートを見て、それを理解することができますか?はい。この問題を記号回帰といいます。式は線形式と呼ばれるもので、出力は入力された時間といくつかの定数の和であると言えば、それは有名な簡単な問題で、我々はそれを解くことができ、科学や工学では常にそれを行っています。

しかし、一般的な問題は、対数や共符号、その他のマップを使ったより複雑な関数であれば、非常に難しく、おそらく一般的に高速に行うことは不可能です。なぜなら、n個の記号を使った数式の数は指数関数的に増加するだけでなく、作成できるパスワードの数が長さによって劇的に増加するのと同じだからです。似ていますね。

しかし、ニューラルネットワークの仕組みを理解していなくても、訓練したばかりの数式を実際に近似できるニューラルネットワークがあれば、実際に仕組みを理解するための第一歩になるという考えがあります。だからこそ、私たちはまずそれを行うのです。そして、そのニューラルネットワークを研究し、最初の学習データにはなかったさまざまなデータを入れて、式の単純化特性を発見するのです。そうすることで、式をよりシンプルなものに分解することができます。

このようにして、分割統治のようなアプローチをとることができました。このようにして、100個の公式をすべて解き、自動的に発見することができました。

このコードは、今これを聞いている誰もが自分のコンピュータにpipでfiremanをインストールして実行することができるのですが、これを見るのはちょっと屈辱的です。ヨハネス・ケプラーが4年間かけて火星のデータを凝視していたことが、実際にできるのです。そして彼は、ついにEureka、これは楕円だと思ったのです。そうです。

これなら1時間で自動的に計算してくれますよね?また、マックス・プランクは、高温の物体からさまざまな波長の放射線がどれだけ出るかを調べ、有名な黒体式を発見しました。

これはそれを自動的に発見するものです。私は実際に興奮しています。

Lex Fridman 19:04

古い公式だけではなく、誰も見たことのない新しい公式を発見できるのではないかと期待しています。ニューラルネットワークのようなものを使って基本的な洞察を見つけ、ニューラルネットワークを分解して最終的な洞察を得るというプロセスが好きなのです。そうすることで、説明可能性の問題を解決することができます。つまり、ニューラルネットワークを分析して、知っていることを本当に分析しようとすることで、最終的に初期のシステム全体の基礎となる美しい単純な理論を導き出すことができるのです。

Max Tegmark 19:42

私はそれが大好きです。人間の科学者がガリレオのことを考えてみると、彼が子供の頃、父親がリンゴを投げると彼はそれをキャッチすると言っていました。なぜかというと、彼の脳には、重力下で投げられたリンゴの放物線状の軌道を予測するように訓練されたニューラルネットワークがあったからです。犬にテニスボールを投げると、犬も同じように、ボールがどのように動くかを把握してキャッチするディープラーニングの能力を持っています。

しかし、ガリレオはさらにもう一歩進んだ。「ちょっと待ってくれ、私は数式を書くことができる。

これはyとxの二乗に等しい、放物線だ」。

Lex Fridman 20:36

子供の頃から基本的なニューラルネットワークがあり、様々な種類の軌道を観察した経験を基本的に把握していたのです。そして、さらに別の小さなニューラルネットワークを使って、それらの経験を分析し、「ちょっと待って、ここにはもっと深いルールがある」と考えることができたのです。その通り、彼は以下のことを抽出することができました。

Max Tegmark 20:57

その複雑なブラックボックスが何をしているのかを、記号的に抽出することができたのです。そう、彼が楽しんで得た計算式をヒットさせただけでなく、最終的にはより正確になりました。

これは、ニュートンがニュートンの法則を得た方法であり、イーロンがロケットを宇宙ステーションに送ることができる理由でもあるんですよ。つまり、より正確であるだけでなく、よりシンプルであるということです。あまりにもシンプルなので、友人やお互いに説明することができますよね?私たちは今、物理学の文脈で調整について話してきました。犬や猫、シマリスやカケスのように、私たちは彼らの神経ネットワークを使って、世界の物事を経験しています。

しかし、人間はそれに加えて、そこから抽出したある種の高度な知識を、この場合は英語で象徴的に伝え合うというステップを踏むのです。私たちがそれを可能にし、私たちが情報処理主体であると信じているのであれば、それを行う機械学習を作ることもできるはずです。

Lex Fridman 22:07

AIファインマンのような分解プロセスでは、第二段階は推論のように感じられます。初期段階は、より基本的な微分可能な学習のように感じますが、全体が微分可能な学習になると思いますか?基本的には、ニューラルネットワークを重ね合わせて、カメのようにずっと降りてくるようなものだと思いますか?皆さんのネットワークがずっと続いているという意味でしょうか?

Max Tegmark 22:35

これは本当に面白い質問ですね。あなたの場合は、神経ネットワークがずっと続いていることがわかっています。なぜなら、あなたの頭蓋骨の中にはたくさんのニューロンがあって、それぞれの役割を果たしているからです。

しかし、もっと一般的に、あなたの脳ではどのようなアルゴリズムが使われているのかという質問をしてみると、比較してみると非常に面白いと思いますが、歴史的には少し逆行していると思います。そして、最近になって機械学習を行ったのですが、それにはより大きなコンピュータが必要だったので、後から発見することになったのです。つまり、ニューラルネットワークを使った機械学習が現代のもので、ロジックベースのAIが昔のものだと考えています。

しかし、地球上の進化を見てみると、実はその逆なんですね。例えば、ワシは私よりも優れた視覚システムを持っていますし、犬は私と同じようにテニスボールを投げるのが得意です。こういったことはすべて、ニューラルネットワークのトレーニングによって行われ、言葉で解釈することはありません。動物の友達の多くは、少なくとも私たちと同じくらいの能力を持っていますよね。人間にできて、シマリスやイーグルスにできないことってなんだろう?それは、論理に基づくものです。人間は情報を記号や言語、そして今では科学者であれば方程式でも抽出することができますよね?基本的に、何が起こったかというと、まず最初に、数字を高速で掛け算したり、記号を操作したりできるコンピュータを作りましたが、これはかなり馬鹿げていると感じました。そして次に、猫の目のようによく見えるニューラルネットワークを作り、このようなことをたくさん行いました

私たち人間ができることは、この2つを有用な方法で組み合わせることです。

Lex Fridman 24:34

そう、私たち自身の脳の中にある人工的なものです。

Max Tegmark 24:36

そう、私たち自身の脳の中でです。人間と同じようにすべての仕事をこなせる人工的な一般知能を手に入れようと思ったら、ニューラルネットワークとシンボリックな組み合わせ、古いAIと新しいAIの組み合わせ、そして私たちの脳の中でそれを行う良い方法が必要になるでしょう。そして、基本的には2つの戦略があるようです。

現在、産業界では、1つは私を怖がらせるもの、もう1つは私が勇気づけられるものとなっています。

Lex Fridman 25:05

さて、どちらでしょう?2つに分けて考えてみましょう。どれ、どれが

Max Tegmark 25:09

私が怖くてたまらないのは、まだ理解していないシステムをどんどん大きくしていって、人間と同じくらい賢くなるまで作るんだ、という考え方です。何が間違っているというのでしょう?ええ、それはとても無謀なことだと思います。そして残念なことに。そして、もし私たちが種として人工的な一般知能の構築に成功したとしても、それがどのように機能するのか、まだ手掛かりがないとしたら、少なくとも50%の確率で、私たちはそう遠くないうちに絶滅してしまうと思います。

Lex Fridman 25:40

つまり、44分は赤字だったという問題や、ペーパークリップ問題のように、仕組みがわからないのに、数秒のうちに何らかの方向に逃げてしまうというような、非常に大きな問題になりそうなのです。

Max Tegmark 25:54

機械自体が何らかの方法で物事を決めてしまうことを心配するよりもずっと前から、人間が機械を使うことを心配しなければなりません。つまり、あなたの時間を取ってください。

もし、特に高度なAIについて心配していない人がいたら、10秒だけ時間をとって、今、地球上で一番嫌いなリーダーについて考えてみてください。それが誰かは言わないでください。

これは政治的な話ではありません。でも、その人の目の前の顔を10秒間だけ見てみてください。はい。その人が信じられないほど強力なAIをコントロールしていて、それを使って地球全体に自分の意志を押し付けることができると想像してみてください。どう感じますか?

Lex Fridman 26:42

そうですね、ではそれを分解してみてください。簡単に言うと、この方法で問題が発生する可能性は50%ということですか?リーダーや人間がシステムを利用してダメージを与えることの方が心配ですか?それとも、もっと心配ですか?私はどちらかというと、意図せずに起こった事故による破壊を心配しています。人間が良いことをしようとしているように、誰もが良いことだと同意するような方法でね。歴史上のすべての指導者は、ある程度、自分たちが良いことをしようと考えていたと思うからです。ああ、そうですね、ヒトラーも自分が良いことをしていると思っていたでしょうね。私はスターリンについてよく読んでいます。確かにスターリンは、共産主義が世界にとって良いことだと合法的に考え、良いことをしていると思っていたからです。

Max Tegmark 27:37

毛沢東も、大躍進でやっていることは良いことだと思っていたと思いますよ。ええ、実はその両方を気にしています。前に、これに詳しく答えることを約束します。その前に、最初の質問に答えさせてください。人工的な一般知能を手に入れるには、2つの異なる方法があると言いましたが、1つは私を怖がらせるものです。そして、パッと見て、とてもパワフルになっています。

これは最も危険で無謀なアプローチだと思います。ニューラルネットワークは、直感を得るための最初のステップのように、発見するためのツールに過ぎませんが、その後、このブラックボックスを解明し、実際に何をしているのかを理解するために、他のAI技術にも真剣に資源を投入します。そうすれば、同じように知的でありながら、実際に何をしているのか理解できるものに変えることができます。

もしかしたら、この車が走行中にハッキングされることはない、というような定理を証明することもできるかもしれません。大きなブラックボックスであるニューラルネットワークには使えませんが、他のある種のコードには効果があります。

このアプローチは、より有望だと思います。私がそれに取り組んでいる理由は、まさにそこにあります。率直に言って、科学的に優れているというだけでなく、これらのシステムを理解すればするほど、意図しないことではなく、実際に意図された私たちにとって良いことをさせることができる可能性が高くなると思うからです。では、あなたのネットワークのように複雑なものについて、希望通りに証明することは可能だと思いますか?まあ、理想を言えば、最終的にもニューラルネットワークでなければならない理由はありませんよね。

例えば、ニュートンの重力の法則は、ニュートンの頭の中のニューラルネットワークで発見されましたが、それはもうイーロン・マスクのロケットのナビゲーションシステムにプログラムされている方法ではありませんよね?c++で書かれていたり、正確には何の言語を使っているのかわかりませんが。

そして、シンボリック検証というソフトウェアツールがあります。DARPAや米軍はこの分野で非常に優れた研究を行っています。なぜなら、彼らは兵器システムを構築する際に、単にランダムに発射されたり、誤作動したりしないことを理解したいと考えているからです。DARPA(米国防総省)の助成金によって開発された「セルスリー」と呼ばれるOSでは、絶対にハッキングされないことを数学的に証明することができます。

しかし、率直に言って、私たちは野心的であるべきだと思います。そして、機械学習を使って証明などを行うことができれば、そもそも証明を考えるよりも、証明が正しいかどうかを検証する方がはるかに簡単になります。それがここでの核心的なアイデアです。マイクがあなたのポッドキャストに登場して、リーマン仮説や新しい感覚、新しい定理を証明したと言います。作り話ではなく、誰か他の人が、頭のいい数学の大学院生を連れて行って、「ああ、数式5のここにエラーがある」とか「これは本当にチェックアウトされた」とか確認する方が、証明を発見するよりずっと簡単なのです。

Lex Fridman 31:07

証明の中にはかなり複雑なものもありますが。しかし、それでも、証明を検証するのはずっと簡単です。私はこの楽観主義が大好きです。システムのセキュリティについても、この問題を考える人たちには、「絶望的だ」というようなシニシズムが蔓延していますよね。つまり、同じ意味で、まさにそうなんです。

あなたが言っているように、「When you’ll know work. だから、現状を理解するのはいいことだと思います。セキュリティに関しては、人々は、システムを攻撃するための無駄な攻撃ベクトルが常に存在するものだと考えています。

しかし、あなたの言うとおり、私たちはこのような知的システムを知っていたにもかかわらず、このような計算システムについては非常に新しいものです。星や惑星の動きを理解している人がいるように、ポジティブな可能性がないわけではありません。願わくば近いうちに、しかし100年以内に、重力の法則や知能、そして神が禁じる意識のような明らかなものを持ち始める可能性は十分にあるのです。

Max Tegmark 32:10

そうですね。もちろん、ハッキングされまくるコンピュータを販売しているのであれば、人々が安全性を高めることは不可能だと考えることは、企業としての利益になると思います。だから、誰もあなたを訴えようとは思わないでしょうが、私はここで楽観主義を注入したいと思います。

あなたのラップトップは非常に多くのことをしてくれますが、将来の自動運転車の中では、音楽プレーヤーは超安全である必要はありません。もし誰かがそれをハックして音楽を流し始めたら、世界が終わるわけではありません。

しかし、あなたにできることは、安全性をコントロールするドライブコンピュータは、エンターテイメントシステムから物理的に完全に切り離されていなければならない、ということです。そして、運転中に無線によるアップデートを受けられないように、物理的に分離しなければなりません。象徴的に検証され、証明されたオペレーティングシステムが搭載されていることもあります。企業はこのような態度を取るべきだと思います。自分たちが行うすべてのことに目を向け、ハッキングされたら会社の一生を脅かすような数少ないシステムとは何かを考え、最高の基準を設けるべきです。そうすれば、安価で理解度の低いものを採用することで、コストを抑えることができます。それ以外の人にとっては、これは、とても実現可能なことだと思います。大きな問題に戻りますが、意図しない失敗があることを心配していますか?ここには2つのまったく別のリスクがあると思います。

その1つは、目標が人間の崇高なものになってしまうことだと話しました。人間は「この飛行機は墜落しないようにしたい」と言います。今、飛行機を操縦しているのはムハンマド・オットーではありませんからね。そして、自動操縦が実際にパイロットの望むように行動することを確認するという技術的な課題があります。それはさておき、パイロットの目標と乗客の目標をどのように一致させるかという別の問題もあります。もっと広く言えば、人類全体にとって物事がうまくいくことを望むことに種として同意できるならば、目標がここで一致していること、そして一致の問題をどうやって確認するのでしょうか?この問題については、突然、膨大な量の研究が行われるようになったという意味で、大きな進展がありました。5年前に資金を提供してくれたイーロン・マスクにはとても感謝しています。そのおかげで、技術的なAIの安全性とアライメントに関する最初の研究プログラムを立ち上げることができました。いろいろなことが起きていますが、小さな機械が常に所有者の言うとおりに動くようにするだけではなく、もっと多くのことをしなければならないと思います。

もし私の母が、「わかった、わかった、オートパイロット、ワールドトレードセンターに飛んでいってね」と言ったとしても、9月11日を防ぐことはできなかったでしょう。そしてそれは、別の状況で起こったことでもあります。そう、彼はドイツの翼、旅客機にアルプスに向かって飛ぶように指示したのです。

彼はコンピュータに高度を100mとかに変更するように言ったんだけど、コンピュータが何と言ったかわかりますか?わかった、わかった。コンピューターにはアルプスの地形図が入っていて、GPSも付いていました。どんな状況でも飛行機が山に突っ込んではいけない」という基本的な幼稚園の倫理観すら、誰も教えようとしなかったのです。技術的な問題だけではなく、より大きな利益のために、この地球上で一般的なインセンティブをどのように調整するかを考えなければなりません。コンピュータを搭載したすべての飛行機には、幼稚園児レベルの倫理観を教えるべきです。そうすれば、ナイスアタックのようなことは避けられたでしょうし、多くの恐ろしいテロリストの車両攻撃でも、故意にそのようなことをしたのではないでしょうか?これは、ある種のものではありませんでした。ああ、アメリカと中国、見解の違いですね。そして、世界中の自動車メーカーの中で、このようなことをさせたいと思っているメーカーは1社もありませんでしたよね。車にこんなことをさせたいと思っている人は、整合性を考えていなかっただけなのです。そして、もっと広く見れば、この地球上で起こる問題。

Max Tegmark 36:52

大部分はアライメントの悪さに関係しています。つまり、この問題を大きくさかのぼって考えてみてください、これはあなたの得意とするところでしょうから。大昔の進化の過程では、遺伝子があって、自分のコピーを作りたがっていました。それが彼らの関心事でした。

そこで、ある遺伝子がこう言いました。「おい、俺はこの体に脳を作って、自分のコピーを作るのがうまくなるようにしよう」と。そうです。そして、自分たちの利益のために決めたのです。ギフトは、あなたの脳のインセンティブと彼らのインセンティブを一致させるために、より多くのコピーをしました。飢え死にさせたくないから 食べるインセンティブを与えたのです。そして、遺伝子の、コピーを作ってほしいと思ったのです。だから、自分のコピーを作るために、恋をしたり、たくさんのイケナイことをしたりするインセンティブを与えたわけですね。

このようにして、遺伝子の価値調整が成功し、彼らは自分たちよりも知的なものを作り出しました。しかし、彼らは価値観を揃えるようにしました。

しかし、遺伝子が望んでいたことに対して、何かが少し間違っていたのです。多くの人間が、「ああ、俺たちはセックスのビジネスが好きなんだな」と発見したのです。ジーンズは私たちを楽しませてくれたけど、私たちは今すぐには子供を産みたくないということを。ああ、だからジーンズをハックして、避妊具を使うんだ。そして、私は今、本当にコカコーラを飲みたいと思っている。でも、お腹が出てくるのは嫌だな。

私たちは遺伝子よりも賢いので、遺伝子の意図を覆す方法を見つけ出しました。ですから、私たち人間が遺伝子の役割を担っているときに、人間以外の大きな力を持った存在を生み出し、同じような課題に直面するのは驚くことではありません。どうすれば他の強力な存在に我々と同じ動機を持たせ、ハッキングされないようにすることができるでしょうか? 例えば、企業です。我々人間は、自分たちに大きな利益をもたらすことができるので、企業を作ることにしました。突然、スーパーマーケットができて、そこで食べ物を買えるようになり、狩りをしなくてもよくなりました。

しかし、この企業が私たちにとって良いことをし、悪いことをしないようにするために、私たちは制度を作りました。私たちは、企業を抑制するための制度を作りました。

例えば、地元のスーパーマーケットが毒入りの食品を売っていたら、そのスーパーのオーナーは何年か刑務所に入って反省しなければなりませんよね。このようにして、彼らを調整するためのインセンティブを作りました。

しかし、もちろん、私たちが避妊具というものを見抜くことができたように、もしあなたが強力な企業であれば、あなたを支配するはずの制度をハッキングしようとするインセンティブもあります。なぜなら、最終的には企業として、利益を最大化するインセンティブがあるからです。あなたの遺伝子ではなく、あなたの脳が持つ楽しみを最大化するインセンティブがあるのと同じです。ですから、規制当局を買収する方法が見つかれば、それを実行するでしょう。アメリカでは、それに気付いて、汚職や贈収賄を禁止する法律を作りました。18世紀後半、テディ・ルーズベルトは、マサチューセッツ州の鉄道会社がマサチューセッツ州よりも大きな予算を持っていて、非常に汚いことをたくさんしていたので、私たちはまだハッキングされているのだと気づきました。

そこで彼は、会社という人間以外の存在を、アメリカ人全体のインセンティブに合わせるために、信頼を破壊するということを行いました。しかし、これは戦いであり、戦い続けなければならないということは驚くことではありません。

現在、私たちは以前よりもさらに大きな企業を抱えています。企業が善か悪か、ロボットが善か悪かといった議論のように、善と悪の観点から物事を考えると、人々は間違いを犯してしまうと思うからです。ロボットは善ではありませんし、悪は道具であり、ロボット手術のような素晴らしいことに使うことも、悪いことに使うこともできます。企業もまた、もちろん道具です。

もし、企業に良いインセンティブがあれば、病院や食料品店を始めるような素晴らしいことができるでしょう。逆に悪いインセンティブを与えてしまうと、企業は人々に中毒性のある薬を販売することになるでしょう。そうなると、オピオイドの蔓延を招くことになるでしょう。

Max Tegmark 41:20

企業やロボットについて、非常に尾ひれのついた善悪の話になってしまうような過ちは犯さないように、正しいインセンティブを導入することに集中すべきです。

私の楽観的なビジョンは、それができれば、いや、本当に良いものを手に入れることができるというものです。例えば、新しい国防長官が誕生しましたし、バイデン政権では、レイセオンの取締役として活躍していた人物が立ち上がる予定です。

私はレイセオン社に恨みはありません。というか、私は平和主義者ではありません。しかし、誰と契約するかを決める仕事に就いている人には、明らかな利害の対立があります。何とかして、もう一人のテディ・ルーズベルトに登場してもらって、「我々はすべてのアメリカ人にとって良いことをしたいんだ」と言ってもらう必要があるのではないでしょうか。そして、大企業に与えているインセンティブを真剣に再調整する必要があるのではないでしょうか。そうすれば、私たちはより良い生活を送ることができるでしょう。

Lex Fridman 42:33

人間の場合、当然ながら、あなたがこの全体の歴史を見事に表現したように、遺伝子からすべてが始まり、それ以降に起こる意図しない結果に、おそらくかなり動揺しているようです。

しかし、様々なレベルで出現するこの集合的な知性の中で、価値観を再調整したり、価値観を維持したりする方法を、時には土壇場で見つけ出すような感じで、システムをリセットする別のリーダーや別の人間があちこちに出現するような感じで、うまくいくようです。それがなぜなのか、説明していただけますか?それとも、単なる生存者バイアスなのでしょうか?また、AIシステムとは根本的に違うものなのでしょうか?進化の過程で生まれた直接的な副産物ではなく、企業も同じように進化の過程で生まれたものを扱っているのでしょうか?

Max Tegmark 43:33

私が楽観的ではない理由は、変化したことが1つあるからです。だからこそ、もし私たちが人工知能という愚かな道を歩むならば、人類が今世紀中に絶滅するのではなく、約50%の可能性があると思うのですが、大局的に見て、企業には適切なインセンティブが必要です。かつては政府がありましたが、そこには父親が王様だったから王様になったという王様がいるだけでした。そして、この強力な王国を持つことにはメリットがありました。

それがすべてのセールスポイントだったのです。ハラレ?ハラレには、帝国がどのようなものであったかについての素晴らしい記事があります。コラボレーションを可能にするもの。また、ハラレ氏によると、そのために貨幣が発明され、より良い調整ができるようになり、知らない人とでも取引ができるようになったそうです。

このようなことは、太古の昔から行われていたのですね。変化したのは、より大きなスケールで起こるということです。科学が進歩したおかげで、テクノロジーはますます向上し、より長い距離でコミュニケーションを取ったり、より長い距離を高速で移動したりすることができるようになりました。 そのため、実体はますます大きくなっていますが、私たちの惑星はもう大きくなっていません。過去には、イースター島のように、完全に台無しになった実験もありました。

実際には、人々が絶滅したときに、戻ってきて入れ替わることを知っている人が誰もいないほど、アライメントが悪かったのです。もしイーロン・マスクが火星に連れて行ってくれなかったら、地球規模で絶滅してしまい、二度と戻ってくることはありません。

これが根本的な違いなのです。それは間違いです。私たちはそのような理由では作らない。過去には、もちろん、歴史は大失敗に満ちていますが、地球全体ではありませんでした。でも、地球全体がそうだったわけではありません。

これは違うことです。2つ目の違いは、テクノロジーが私たちに多くの力を与えてくれることです。良いことをするためにも、石器時代のような失敗をするためにも。

例えば、石器時代に付き合っていた彼女に振られて腹を立てているような、目的が一致していない人がいたとします。そして、彼はただ、もしあなたが望むなら、できるだけ多くの人を殺したかったのです。石や棒を使っても、威力を発揮する前に倒せるのか?でしょう?ほんの一握りですよね?現在の技術では、もしロシアとアメリカの間で偶発的な核戦争が起こったとしたら、それは何十回となく起こっていることですが、その後、核の冬が訪れたとしたら、70億人、あるいは60億人、あるいは我々にはわからないかもしれません。

このように、被害の規模は我々ができることよりも大きいのです、もしも 科学がそれ以上に強力にならないように運命づけられていると考えるのは、ただの空想です。そうですね。

私たちが生きている間に、誰かが「COVID」のように簡単に広がり、基本的に全員を殺すデザイナーズ・パンデミックを設計する可能性は全くないわけではありません。すでに天然痘があり、罹患者の1/3が死亡しました。そして

Lex Fridman 47:12

これは直感だと思いますが、もしかしたら完全にナイーブなものかもしれません。私が持っているこの楽観的な直感は、もしかしたら私の偏った経験によるものかもしれません。

しかし、私がこれまでに出会った最も素晴らしい人々は、皆、本当に根本的に善良な人間であり、世間知らずではなく、善良で、私が考える「善良とは何か」に沿った方法で、世界のために良いことをしたいと思っているように思えます。ですから、テクノロジーの最先端を定義する人々は、善を行う人と悪を行う人のどちらが多いのか、ということを私は感じています。人類の文明のほとんどを破壊する能力を持つ、人為的なパンデミックが発生した場合、その前に、あるいは現在進行形で、人類の集合的な才能を結集することができるような気がします。 疑わしいですが、それは人間の本質の基本的な法則ではないでしょうか。何が好きかというと、カルマは有益であり、善は有益であり、したがって、大丈夫でしょう。

Max Tegmark 48:44

あなたが正しいことを願っています。私は本当にそれを望んでいます。もしあなたが正しければ、もし自然の法則のようなものがあって、いつも最後の1秒のカルマで幸運を得ることができるとしたら。でもね、私は「あと少し」というところで勝負したり、それに賭けることはしたくないのです。家が燃える心配はないと言われても、煙探知機を設置しないようにそのような強い信仰を持つことは危険だと思うのです。例えば、「家が燃える心配はありません」と言われても、煙探知機は付けませんよね。

もしあなたが、ああ、政府がすべての面倒を見てくれるというのであれば、私たちは政治家を信頼するでしょう。政治家を信頼し、自分の責任を放棄することができるのです。それよりも、「ああ、うまくいくかもしれない」と言う方が健全な姿勢だと思います。

実際に自分自身がステップアップして責任を負うことになるかもしれません。賭けは非常に大きなものです。つまり、もし私たちがこれまで以上に強力な技術を開発し、すべての病気を治し、人類が次の選挙期間だけでなく、この宇宙の何十億年もの間、健康で豊かな未来を作ることができたら、それは本当に努力する価値があり、ただ座っておとぎ話のようなものを期待するだけではないのです。

Lex Fridman 50:00

つまり、私のような個人の視点から書かなければならないのです。つまり、第一にすべきことは、責任を負い、自分のスキルセットが可能なソリューションを構築することです。

Max Tegmark 50:12

ええ、本当にたくさんありました。私たちは、自分たちができることを過小評価しているように思います。もし、あなたやこれを聞いている人が、将来のパンデミックや未来のAIなどの危機に対して、政府が完璧な仕事をすると確信しているならば、私はそのようなことはしません。

私は、2020年に実際に何が起こったのかを知りたいと思っています。世界中の政府が完璧に対処したと思いますか?

Lex Fridman 50:43

本当に悲しくて残念な現実ですが、願わくば皆の目を覚ますきっかけになればと思っています。科学者やエンジニア、AIの研究者にとっては、特に、プライバシーを保護しながら適切な量のデータを収集し、そのデータを広め、そのデータを活用して意思決定を行うことがいかに非効率であるかを目の当たりにして、失望しました。

Max Tegmark 51:11

私は何年も前に、自分の身に何か悪いことが起こっても、泣き言を言わないと約束しました。ですから、自分の身に何か悪いことが起こったとき、もちろんその失望を処理するのはとても難しいことです。

しかし、そこから何を学んだのか、今後の自分をより良い人間にするためにはどうすればいいのか、ということに焦点を当てるようにしました。そして、失敗したときにはたいてい何かを学ぶことができます。

私たちも、パンデミックから何を学び、今後どうすればいいのかを自問すべきだと思います。あなたがおっしゃったように、私たちは自分たちが思っていたほどの回復力を持っていなかったという、実に良い教訓があります。また、準備も十分ではありませんでした。地球上には、非常に対照的な光景が広がっています。

例えば、韓国です。韓国の人口は5,000万人を超えています。COVIDによる死亡者数をご存知でしょうか?私が最後に確認したときは?500人くらい?それはなぜ?簡単に言うと、準備ができていたからです。

彼らは信じられないほど素早く、信じられないほど素早く、非常に迅速な検査と接触者の追跡などを行っていました。欧米のような大規模なロックダウンを行う必要もありませんでした。

しかし、より深い答えは、韓国人だけではなく、笑顔のある優れた人々でもありません。彼らがより良い準備をしていたのは、SARSのパンデミックでかなりの打撃を受けていたからだと思います。

彼らは正しかったのです。COVIDから得られる教訓は、次のパンデミックやAIの制御不能などの問題をただ待つのではなく、GDPのごく一部を実際に確保しておくべきだということでしょう。帽子をかぶっている人たちは、体系的にホライゾン・スキャニングを行い、「さて、うまくいかない可能性のあるものは何だろう」と考えます。そして、どれがより可能性の高いもので、どれが実際に行動可能なものなのかを議論してみましょう。そして、準備をするのです。

Lex Fridman 53:31

今年の観察では、情報をめぐる政治的な対立に失望しました。それは、赤と青のように、あなたの真実よりも優れたものを選ぶかもしれないという議論のようでした。科学的なプロセスとしての音の概念を全く理解していないような、馬鹿げた言説のようでした。科学が政治的に利用されていることに、私は非常に心を痛めています。AIの分野では、企業を再考するというエキサイティングなプロジェクトがありますが、このような事態に対応するために登場した集合的な知能システムとして、ソーシャルネットワークがあります。インターネットの普及は、インターネット上での情報の広がりであり、私たちがその情報を共有する能力です。さまざまな種類のニュースソースなどがあります。つまり、第一原理から、ニュースをどう考えるか、情報をどう考えるかを考え直そうということですね。

あなたが行っているこの素晴らしい取り組みについて話していただけますか?

Max Tegmark 55:03

これは私にとってCOVIDの大きなプロジェクトで、監禁事件以来、夜も週末もずっと取り組んできました。先ほどの話に戻りますが、あなたの経験では、あなたが才能があると感じた人たちは、しばしば理想主義的で、良いことをしたいと思っているという希望を持っていますよね。率直に言って、私はすべての人に同じことを感じます。大体において、例外は常に存在します。

しかし、大多数の人は、学歴などに関係なく、基本的には善良だと思うのです。そうでしょう?それなのに、どうして人はこんなにも嫌なことをするのでしょう?そうでしょう?それは、私たちに与えられている情報とすべて関係があると思います。500年前のスウェーデンに行って、農民たちに「デンマークのデンマーク人はとてもひどい人たちだから、侵略しなければならない」と話し始めたとしましょう。なぜなら、彼らは自分では事実確認できないようなひどいことをしているからです。多くのスウェーデン人がそうしていました。

地政学的にも、中国が悪い、ロシアが悪い、石油も悪いと言われています。地政学的にも、中国が悪い、ロシアが悪い、石油が悪いと言われ、それらの国の人々からは我々が悪いと言われています。また、ミクロの世界でも、「他の党に投票した人は悪い人だ」と言われることがあります。単なる知的な意見の相違ではなく、彼らは狂った人間なのです。そして、私たちはますます分裂しています。

では、この本質的なものと、どう折り合いをつけたらいいのでしょうか?善良な人間の場合、それが炎症に関係していることは明らかだと思います。私たちは、合計で30人しか知らないような小さなグループで生活するように進化してきました。

もし誰かが、「ジョー、嫌な奴がいるんだけど、自分で彼と接して行動を見てきたんだ。と言われたら、それは正確ではないとすぐに理解したいと思うでしょう。

しかし、地球上のほとんどの人が会ったことのない人たちである今、与えられた情報を信用する方法を持つことは非常に重要です。では、ニュースプロジェクトはどのような役割を果たすのでしょうか?歴史を振り返ると、1400年代のマキャベリを読めば、プロパガンダなどで人々を操ることに夢中になっていたことがわかります。人を操るためのインセンティブも、まったく新しいものではありません。何が新しいのか?新しいのは、機械学習とプロパガンダの出会いです。それが新しいことなのです。だからこそ、これほどまでに悪化しているのです。特定の人を非難したがる人がいます。私のリベラル大学のバブル時代のように、多くの人がドナルド・トランプを非難し、彼のせいだと言っていました。

私はそれとは違うと思います。ドナルド・トランプは、10年前にはできなかった機械学習アルゴリズム時代のゲームをプレイすることに非常に長けていただけだと思うのです。

では、何が変わったのか?何が変わったか?フェイスブックやグーグル、その他の企業の悪口を言うつもりはありません。彼らは機械学習アルゴリズムを導入し、人々が広告を見る時間を最大化するために利益を少しだけ増やしましたが、その効果を完全に過小評価していました。これもまた、ブラックボックスであり、非インテリジェントなインテリジェンスでした。

彼らはただ、「ああ、広告収入が増えた。すごいな」これがなぜ、どのように、どれほど社会にダメージを与えるのかを理解するまでには、長い時間がかかりました。

というのも、機械学習が考え出したのは、あなたを小さな四角に釘付けにする最も効果的な方法は、強い感情、怒りなど、憤りを引き起こすようなものを見せることだということです。そして、それが本当かどうかはあまり重要ではありませんでした。また、真実ではない話を見つけるのも簡単でした。

私たちは、限定された番組だけに縛られているわけではありませんでした。

Lex Fridman 59:13

とても限定的な要素ですね。

Max Tegmark 59:15

そしていつの間にか、今まで見たこともないような規模の素晴らしいフィルターバブルが発生しました。また、オンラインニュースメディアが非常に効果的であったために、多くの紙媒体のジャーナリズムが失われたという事実もあります。オンライン広告に対抗できなかったのです。そのため、突然、ほとんどの人が新聞を読むことすらなくなり、ソーシャルメディアからニュースを得るようになりました。そして、ほとんどの人は自分の小さなバブルの中でしかニュースを得られないのです。ドナルド・トランプのように、この新しいゲームのやり方を理解し、非常に大きな影響力を持つようになった最初の成功した政治家もいましたが、ドナルド・トランプはそれを利用しただけで、機械学習によってニュースメディアが乗っ取られるような基本的な状況を作らなかった象徴だと思います。

これが、私のCOVIDプロジェクトの動機となりました。先ほど、機械学習やテクノロジー全般は悪ではないと言いました。しかし、良いものでもありません。それは良いことにも悪いことにも使えるツールに過ぎません。偶然にも、ニュースにおける機械学習は、主に大手企業、大手技術者によって使用され、人々を操作して可能な限り多くの広告を見させるために使用されています。そこで私は、機械学習のアルゴリズムは基本的に無料であり、スマートフォンでも無料で動作すると考えました。また、誰かがそれを提供してくれるということもありますよね。大企業だけを助けなければならない理由はありません。小人を操るためには、零細な人々を助ければいいのです。大企業からの操作の試みをすべて見抜く。

そこで、このプロジェクトは 「improve the news.orgと名付けました。まず最初に作ったのは、小さな小さなニュースアグリゲーターで、Googleニュースに似ていますが、フィルターバブルから抜け出すためのスライダーが付いています。読んでいる途中でクリックすると、好きなトピックに移動することができます。さらに、左右のスライダーをずっと左にスライドさせると、右に2つのスライダーがあります。一番わかりやすいのは、「左」「右」と表示されているものですね。左に行くと1セットの記事が表示され、右に行くとそれが表示されます。全く異なる真実です。

www.improvethenews.org/

Lex Fridman 1:01:43

そうですね。登場です。ああ、それは文字通り左と右ですね。登場

Max Tegmark 1:01:46

の政治的なスペクトラムです。例えば、移民について読んでいると 非常に顕著ですね。操られないようにするには、第一に、人が使うテクニックを見極めることが大切だと思います。だから、両陣営がどのように物事を使っているかを知ることは、とても参考になります。多くの人が、主な問題はフェイクニュースであると誤解しているようですが、そうではありません。私たちは、MITの学生による素晴らしいチームを結成し、機械学習を使って主な種類のバイアスを検出する学術プロジェクトを夏に行いました。

もちろん、フェイクニュースの中には、誰かが何か嘘の主張をするものもあります。例えば、ヒラリー・クリントンが離婚した、とかね。しかし、私たちがよく目にするのは、実際には単なる脱落です。左翼でも右翼でも、自分たちのアジェンダに合わないという理由で、言及されない記事がありますよね。また、他の記事については、あまり触れられていません。

例えば、トランプ家の金銭的な取引については、これまで何度も取り上げられてきました。そして、バイデン家やハンター・バイデンの金銭的な取引についての記事が最も多かったとき、驚いたことに、右でも左でも同じようには報道されませんでした。

一方では、バイデン・ハンター・バイデンのものをカバーするのが好きで、一方では、トランプのものをカバーするのが好きなのですが、どちらがどちらなのかは推測できませんでしたね。

Lex Fridman 1:03:18

素晴らしいニュースは、もしあなたが普通のアメリカ市民で、あらゆる形態の汚職を嫌うのであれば、スライドを見て、両方の側を見て、すべての汚職、政治的な汚職の話を見ることができます。ソ連時代には、誰もがプロパガンダに囲まれていることをもっと意識していました。それはとても

Max Tegmark 1:03:58

実際、あなたが言っていることは興味深いですね。チョムスキーはかつてMITの同僚でしたが、「プロパガンダは民主主義にとって暴力は全体主義にとってのものである」と言いました。その意味は、もし本当に全体主義的な政府があれば、プロパガンダは必要ないということです。人々は、恐怖から、あなたがしてほしいことをするでしょう?そうです。

しかし、そうでなければプロパガンダが必要なのです。民主主義国家では、プロパガンダの質が格段に高く、信憑性も高いと思います。ロシアや中国などの科学者の同僚と話していると、本当に驚くべきことがあります。アメリカ人の同僚の多くが欧米のメディアのプロパガンダに気づくよりも、彼らは自国のメディアのプロパガンダに気づくことが多いのです。

Lex Fridman 1:04:50

素晴らしいですね。つまり、欧米メディアのプロパガンダの方が優れているということです。

Max Tegmark 1:04:55

そうですね、西洋では本当に優れています。でも、待っていれば、私たちが楽観的に考えていることに気がついて、それに対して何かできることがあるはずです。そうですね、まず第一に、あからさまな検閲がない限り、漏れなく、両方の側面を見ることができますからね。そして、実際に何が起こっているのか、より正確なアイデアをすぐにつなぎ合わせることができます。

Lex Fridman 1:05:25

そして、自然な懐疑心を養うことができるのです。分析的な科学的思考を身につけることで、彼らをYeah,

Max Tegmark 1:05:32

時々思うのですが、アカデミックな世界にいる私たちの一部は、このことに関してあまりにも傲慢で、「ああ、これは教養のない人たちのせいだ」と考えているようです。

しかし、私たちも同じように騙されやすく、メディアだけを読んで物事を見通せないことがあります。このように双方を比較して見れば、すぐに悪ふざけが行われていることに気づくでしょう。私がこのアプリでやろうとしたことは、胃のステントを持っている大手技術者が、操作された個人を非難しようとしたように、大手タバコが喫煙した個人を全面的に非難しようとしたということです。しかし、後になって政府は、子供がタバコを吸い始めたことを責めるだけではいけない、もっと責任ある広告活動をしなければならないと言い出しました。大手の技術者が非難するには、とても都合がいいのです。騙されてしまうような愚かな人たちがいるということですね。非難されるのはたいてい、「ああ、それは人間の心理なんだよ。人々は自分がすでに信じていることを聞きたいだけなのだ。

しかし、MITのデビッド・ラン教授は、人は自分が信じていることに反することを聞くことに興味を持つ傾向があるという素晴らしい研究結果を発表して、それを一部否定しています。敬意を持って提示されたものであれば、例えば、あなたが会社を持っていて、このプロジェクトを立ち上げようとしていて、あなたはそれがうまくいくと確信しているとしましょう。誰かが、「レックス、言いたくはないが、これは失敗するよ」と言ったとします。

なぜ、あなたは「黙れ」と言いますか?聞きたくない、あーあーあー、興味を持ってくれるでしょうか?また、もしあなたが飛行機に乗っていて、COVIDの前の時代に戻って、隣の人が明らかに政治的に反対側の人だったとします。

しかし、彼はとても礼儀正しく、丁寧に接してくれます。もちろん、その人がどのように物事を考えているのか、少しでも聞きたいと思うでしょう。しかし、敬意を持って反対意見を述べることは、今ではそれほど簡単ではありません。

例えば、あなたが民主党員で、反対側の意見を見たいと思ったら、breitbart.comにアクセスします。しかし、最初の10秒が過ぎると、何かを深く侮辱されたような気分になり、うまくいかなくなってしまいます。共和党に投票する人が左派のサイトにアクセスしても、ドナルド・トランプの醜い写真をわざわざトップページに掲載するなどして、すぐに気分を害してしまい、うまくいきません。そこで、このニュースアグリゲーターにはニュアンススライダーがあり、右に折りたたむことができます。さらに、よりアカデミックなスタイルや、より敬意を払ったスタイルに触れることができるようになっています。

Lex Fridman 1:08:19

抗議の声、素晴らしい

Max Tegmark 1:08:20

異なった見解を描くことができます。そして最後に、私が思うに、人々が最も意識しているバイアスの種類は、左派と右派によるものです。どちらも資金力のあるテレビ局や新聞社を持っています。見逃すことはできないでしょう。

しかし、もうひとつ、「エスタブリッシュメント・スライダー」というものがあります。私はこれで遊ぶのが大好きです。これは腐敗に関するものですね。この社会では、ほとんどすべての権力者が、あることを信じさせようとします。

もちろん、左派、右派を問わず、主要メディアではそういった記事が読まれていますが、強力な企業は非常に強く反発することができます。

例えば、昔、一部の新聞社がタバコは危険だという記事を書き始めたとき、タバコ会社は非常に強く反発しました。そのため、当初は多くの報道がなされませんでした。また、地政学的に見ても、もちろんどの国のメディアを読んでも、主に自国が善人で、他国が悪人という記事が多いですよね。他の国は悪者だと。そうでしょう?もし、もっと微妙な理解をしたいのであれば、ドイツ人はイギリス人に、フランス人は悪人だと言われていましたよね。そして、フランス人はイギリス人が悪い奴だと言われていました。

しかし、今ではお互いの国をよく訪れ、より微妙な理解をしています。地政学的に見ても、フランスとドイツの間でもう戦争は起きないと思います。今のアメリカ、中国などの大きな冷戦がすべてそうであるのと同じです。政治的に何が起こっているのかをより微妙に理解したいのであれば、このエスタブリッシュメント・スライダーを見るのはとても楽しいことです。

というのも、左派にも右派にも、エスタブリッシュメントに異議を唱える小さな新聞が大量に存在することがわかったからです。その後のジャーナリズム研究を見ると、CNNもFOXも、サダムを追い出そう、大量破壊兵器がある、と非常に肯定的だったことがよくわかる。

彼らは、ちょっと待って、この証拠はちょっと大雑把な気がする、と思った。しかし、もちろん、それらを見つけるのはとても難しく、ほとんどの人はその存在すら知らなかったのですね。

しかし、アメリカの国家安全保障のためには、そういった声も出てきたほうがよかったのではないでしょうか。私は、イラクに侵攻したことは、アメリカの国家安全保障に悪影響を与えたと思います。

Lex Fridman 1:10:53

そして間違いなく、そのような考え方には、小さな情報源からの方が多くの関心が寄せられています。あなたが「大きい」と言ったのは、放送の範囲の広さのことです。

しかし、関心という点では大きなものではありません。既成概念にとらわれない考え方への懐疑心や反体制的な考え方には、多くの関心が寄せられていると思います。

このニュース・プロジェクトのようなものは、基本的に世界を席巻して、私たちが情報を入手する主な方法になると思いますか?例えば、どうやってそこにたどり着くのか、ということです。まあ、アイデアは素晴らしいですし、2020年の小さなプロジェクトと呼んでもいいでしょう。

しかし、それがどのようにして私たちが情報を消費する新しい方法になるのでしょうか。

Max Tegmark 1:11:48

まず第一に、そこに見られる計画であることを期待しています。通常、メディアで何かをするときの大きな障壁は、莫大な資金が必要だということです。しかし、これは全くお金がかかりません。

私は自分自身にお金を払っているだけですし、Amazonに毎月ほんの少しのお金を払って、彼らのクラウド上で物を動かしています。私たちは何もしていませんし、これからもしないでしょう。

私たちは機械学習のアルゴリズムを訓練して、記事を分類したりしています。つまり、勝手に動いているだけなんです。もし、これが十分に良くなって、ある時点で流行り始めれば、スケールアップする可能性があります。そして、他の人たちがそれをコピーして、より良いバージョンを作れば、より多くの人たちが参加することになります。機械学習には、強力なプレーヤーのリストに対抗して個人に力を与える真のチャンスがあると思います。

先ほども言ったように、これまでは、大手企業がAIを持っていて、「これが真実だ」「こういうものだ」と人々に伝えるという、ほとんど逆のことが行われてきました。

しかし、その逆もあり得るのです。インターネットが誕生したとき、多くの人が、これは民主主義にとって素晴らしいことであり、物事を簡単に調べることができるようになり、機械学習などが実際に役立つのではないかと期待していました。なぜなら、これは先ほど話したように、未来の生活全体にも大きく関係しているからです。率直に言って、1世代、2世代、3世代というタイムスケールで見れば、地政学的には2つの結末しかないことがはっきりしています。全人類にとって素晴らしい結末を迎えるか、それとも全人類にとって最悪の結末を迎えるかです。その中間はありません。そうなると、私たちは身動きが取れなくなってしまいます。テクノロジーに国境はありませんし、武器がどんどん強力になっていくのに、人々が戦うことはできません。最終的には、運の運が尽きる。そして、今、私たちはI love Americaを持っています。

しかし、実際のところ、アメリカにとっての良いことと、他の国にとっての良いことは、長期的には反対ではないのです。これが1000年前のようなゼロサムゲームであれば、1つの国がより多くの資源を得るためには、他の国から土地を奪うしかありませんでした、なぜならそれは基本的に資源だからです。そうでしょう?ヨーロッパの地図を見てください。いくつかの国は大きくなったり小さくなったりを繰り返していて、何もかも、終わりのない戦争が続いていました。

しかし、1945年以降、西ヨーロッパでは一度も戦争が起きていません。そして、テクノロジーのおかげで、すべての国が豊かになりました。つまり、楽観的に考えれば、今世紀の大勝利者は、アメリカ、中国、ロシア、その他の国々ということになります。なぜなら、テクノロジーは私たちをより健康で豊かにしてくれるからです。そして私たちは、この地球上の平和を維持するための方法を見つけるのです。

しかし残念なことに、現在、かなり強力な勢力が存在していると思います。彼らは正反対の方向に突き進み、他国を悪者にしようとしています。そのため、私たちが構築しているこれまで以上に強力な技術が、悲惨な方法で使用される可能性が高くなっています。

Lex Fridman 1:15:02

そうですね。侵略か協力か、そんなところでしょうか。

Max Tegmark 1:15:05

現在、軍事用AIだけを見てもそうですよね?2020年 踊っているロボットを見て、とても感動しました。私はそれが大好きです。しかし、現在のロボット工学の最大の成長分野の一つは、もちろん自律型兵器です。リビアの内戦でもナゴルノ・カラバフでも、自律型兵器が決定的な違いをもたらしたからです。

一方では、同盟国であるアラブ首長国連邦が、中国から購入した自律型兵器を飛ばして、リビア人を爆撃していました。一方では、同盟国のトルコがドローンを飛ばしていました。

これらの国々は、ゲームに参加していませんでした。そしてもちろん、リビア人は本当にひどい目に遭いました。また、トルコではなく、MIT(マサチューセッツ工科大学)で学んだ人物が設立した会社「Aero Astro」が製造した無人機を飛ばしていたことはご存知でしょうか?博士 MITには最終的に直接的な責任があり、多くの民間人が殺されました。軍事的には非常に効果的だったので、今では突然、大きな後押しをしているようです。

そうだ、これまで以上に自律性を高めて、これらの武器を使っていこう、そうすれば素晴らしいことになる。今、未来のターミネーター・ナディアのシナリオに夢中になっている人たちは、機械学習にとってもっと緊急性の高い脅威があるという事実に目を向けるべきだと思います。その1つが、これまで述べてきた民主主義の破壊であり、情報の流れが機械学習によって操作されています。もう1つは、今年は、少なくともトーマス兵器の制御不能な大規模な軍拡競争が始まるか、止まるかの年だということです。

Lex Fridman 1:17:14

つまり、2020年は自律型兵器の開発競争のきっかけとなる年だと感じているのですね。

Max Tegmark 1:17:24

2020年は、自律型兵器が戦場で決定的な力を発揮した最初の年だからです。そして、これらの兵器はまだ完全な自律型ではありません。ほとんどがリモートコントロールですね。

しかし、スマートフォン程度の大きさとコストで、GPS座標や殺したい相手の顔、肌の色などを入力するだけで、すぐに飛んでいってしまい、何もしてくれません。アメリカをはじめとする超大国がこれを阻止すべき本当の理由は、バイオ兵器を阻止することにしたのと同じ理由です。ハーバード大学のマシュー・メンデルゾーン氏には、ニクソン大統領を説得したことで未来生命賞を授与しました。

彼はこう言いました。「いいですか、私たちは500ドルの大量破壊兵器があっては困るのです。ニクソンは、強力な武器はすべて高価であることがアメリカの利益になる、と言いました。核兵器はそのようなものです。

しかし、バイオ兵器はそうではありませんでした。だから禁止したんだ。だからこそ、あなたはそれらについて聞くことがないのです。さて。だからこそ、私たちはバイオを愛しているのです。

Lex Fridman 1:18:50

世界の大国が、自律兵器は我々が参加したいと思うレースではないということに同意することは可能だと感じていますか?

Max Tegmark 1:19:02

それは良い結果をもたらさないでしょう。そうですね、大量に拡散することになるのは目に見えていますからね。どこの国のテロリストも、私たちに対抗するための超安価な武器を手に入れることになるのです。政治家は屋外に出るたびに匿名の小型無人機に暗殺される心配をしなくてはならない、そんなことは望んでいません。

もし、アメリカや中国、その他の国々が、少なくとも1,000万ドル以上の武器しか作れないということに同意してくれれば、超大国にとって大きな勝利となるでしょう。そして率直に言って、誰にとってもです。そうしないと、人々はよく「不正行為を防ぐのはとても難しい」と反発します。

しかし、生物兵器についても同じことが言えます。RMITで生物学を専攻している同僚がいますよね。もちろん、本当にやろうと思えば、厄介な生物兵器を作ることはできますが、まず第一に、汚名を着せられて嫌だと思っているのでやりたがらないでしょうし、第二に、ある種の変人がやりたがっていたとしても、他の学生や誰かが密告する可能性が高いでしょう。

実際、バイオ兵器禁止令では、かなりの不正行為が行われていたことが分かっています。しかし、どの国もバイオ兵器を使用しませんでした。それは、あまりにも汚名を着せられたため、不正行為をしたことを明らかにする価値がなかったからです。

Lex Fridman 1:20:22

ドローンの話が出ましたが、ドローンとは遠隔操作のことだと思っているようですが、それはほとんどがそうです。しかし、あなたは「これはどこへ行くのか」という次の知的ステップを踏んでいません。無人機の問題点は、直接的な暴力から身を引いているため、戦略的に適切な判断を下すために必要な一般的な人間性を維持できないことだと言っていますね。

しかし、それは批判であって、もしこれが自動化されていたら、そしてまさにあなたが言ったように、もし自動化して、彼が取るべきレースがあったら、それはどんどん良くなっていくでしょう、つまりどんどん安くなっていくということです。

核兵器のように資源と結びついているものとは違って、技術的に手に入れるのが難しいということですね。スマートフォンのような安さを実現するには、ハイテク産業と自律型兵器の間に重なる部分が多すぎるように感じます。ドローンを見てみましょう。4,000ドルもあれば、自律的に飛行を維持し、写真などを撮ることができる素晴らしいシステムを手に入れることができます。自律型兵器の分野にも応用できると思いますが、なぜ世間ではあまり考えられていないのか、議論されていないのか。ボストン・ダイナミクス社のロボットが踊っているのを見たことがありませんか?誰もが、まるで遠い未来のことのように感じているのではないでしょうか?そう、みんなが恐れているのは、これがすべて「ターミネーター」になってしまうのではないかということです。そして、20年、30年、40年といった不特定多数の人に向けて。そして、これは実際に起こっていることの、もっとドラマチックでないバージョンのようなものだとは考えないのです。

今です。脚があるわけでもなく、踊るわけでもない。踊っているわけではありません。しかし、これはすでに人工知能を使って人間を殺す能力を持っています。

Max Tegmark 1:22:20

ボストン・ダイナミクス社の脚付きロボットですね。銃を持っている姿を想像するのは、皆さんがアーノルド・シュワルツェネッガーを見たことがあるからだと思うんですね。それが参考になります。それはかなり役に立たない。軍事的な用途には使われないでしょう。将来的には、法執行機関で役に立つかもしれません。ロボットが銃を持って家にやってきて、独裁者の支配に完璧に従うように指示することを望むかどうかについては、全体的な議論があります。

しかし、それはひとまず置いておいて、今、実際に何が関連しているのかを見てみましょう。つまり、軍隊でAIを使ってできることは多岐にわたるということです。

繰り返しになりますが、私は平和主義者ではなく、優れた防衛力を持つべきだと考えています。例えば、プレデター・ドローンは、基本的には小さなリモコン飛行機ですよね。それを操縦するのは人間です。そして、それを使って誰かを殺すかどうかの最終的な判断は、人間の石が行うのです。

これは決して越えてはならない一線だと思います……現在の神の方針は、ゲームには人間が参加しなければならないというものです。生死の判断をアルゴリズムで行うべきではなく、人間に任せるべきだと思うのです。では、なぜその一線を越えてしまうのでしょうか?まず第一に、これらは高価なものですよね。

例えば、アゼルバイジャンがドローンを持っていて、アルメニアが持っていなかったとき、彼らは少し安いリグを使って飛行させようとしました。しかし、それはもちろん、妨害することを意味します。

あるいは、妨害や遠隔操作が可能な地域では、物が妨害される可能性があり、それは劣ったものになります。また、光速で遠くのものを操縦する場合、人間にも反応時間がありますから、完全自律型にすることで、その時間差で妨害される可能性をなくすことができればいいと思います。

しかし、今はそうすると、まさに一線を越えてしまうかもしれません。「ああ、そうだ、エア・ドローンだ、しばらくこの国の上空をホバリングするんだ」とプログラムするかもしれません。そして、悪人を見つけたら、その人を殺すのです。マシンはこのような決定をしているのです。

あなたや、これを擁護する人たちは、「我々は善人だから、道徳的には問題ない」と言うでしょう。そして、私たちが道徳的だと考える悪者の定義を伝えます。

しかし、もしISISが同じドローンを購入したら、私たちの悪者の定義を使うだろうと考えるのは非常に単純なことです。彼らにとっての悪者は、米軍の制服を着ている人かもしれませんし、他の民族の一部と判断した奇妙な民族がいるかもしれません。

彼らは悪者なんだよね。物は人間の兵士です。欠点があっても、だろ?私たちはまだ基本的な配線を持っています、例えば、子供や民間人を殺してはいけないとか。トーマスの武器にはそれがない。プログラムされたことは何でもする。ステロイドのアイスマンのようなものだ。アイヒマンの時に言われたように。

彼はホロコーストをより効率的にするために、これとこれとこれをやりたかったんだ。そして、彼は「そうだね」と言った。そして、彼はそれを実行に移しました。

私たちは本当に、そのような、完全に道徳的な機械を作りたいのでしょうか?そして、誰が悪者なのかというユーザーの定義を受け入れるのですか?そして、敵対するすべての人が持てるように、とても安くしたいと思いますか?何がいけないのか?しかし、これこそが、私たちが今年、この問題に本格的に取り組んでいきたい理由の大きな論点だと思います。米軍内でも、そして間違いなく世界中の他の軍隊でも、ある種の国際協定を結ぶべきかどうかについて、活発な議論が行われていることはお分かりいただけると思います。最後に、あなたの質問に答えますが、これを止めることは可能でしょうか?しかし、ハーバード大学のマシュー・メンデルソンは、生物兵器の英雄ですが、彼もまた、生物兵器について、まさにこのような批判をしていました。ロシア人が不正をしていないかどうか、どうやって確認するのかということです。そして

Max Tegmark 1:26:54

彼は私に、実に独創的な洞察を語ってくれました。彼はこう言いました。「Max、ある人たちは、検査などをして、100%の確率で不正をしている人を捕まえられるようにしなければならないと考えている。100%でなくても、1%あれば十分です。なぜなら、それが敵であれば、他の大きな国であれば、中国とアメリカが条約の制限に署名して、一定の線を引いて、ああ、こういう種類のドローンはいいけど、こういう完全自律型のドローンはダメだ、と言っているからです。仮にあなたが中国で、不正をして秘密裏に小さなものを開発した、あるいはそうしようと考えているとしたら、あなたはどういう計算をするでしょうか?よし、捕まる確率はどのくらいだろう?もし問題が100%だったら?もちろん、そんなことはしません。でも、確率が5%だとしたら、捕まって大恥をかくことになりますよね。

それに、私たちは核兵器を持っているわけではありません。ですから、実際にはありません。

Lex Fridman 1:28:03

そのため、アメリカのツアーという点では大きな違いはありませんし、それが汚名を着せることになります。

Max Tegmark 1:28:14

その通りです。彼らがこう言うのはとても合理的なことです。しかし、もしそうでなければ、アメリカは我々が不正をしたことを知ることになります。そうなると、彼らは自分たちのプログラムに全力で取り組み、「いいかい、中国は不正をしているんだ」と言うでしょう。それはいいことだと思います。我々はこのような武器を持っているが、それは悪いことだ。

このように、汚名だけでも非常に強力です。また、生物兵器で何が起こったかを見てみましょう。そうでしょう?もう50年も前のことです。最後にバイオテロ攻撃の記事を読んだのはいつですか?私が知っているバイオ兵器による唯一の死は、私たちアメリカ人が炭疽菌で何人かを殺すことに成功したときに起こりました。

同様に、ソ連でもロースキーにもかかわらず、どこかの研究室で炭疽菌が使われていたそうです。炭疽菌を使っていたのかもしれないし、誰も知らない。炭疽菌が流出してロシア人を大量に殺した。

これはかなりの成功と言えるのではないでしょうか?超大国による独自の目標のためだけに50年。そして、何もなかった。だからこそ、私が誰かに生物学についてどう思うかを尋ねると、みんな素晴らしいと思うのです。新しい治療法や新しい病気、優れたワクチンなどを連想するのです。

私は将来、AIについてこのように考えていきたいと思っています。そして、他の人たちにも、AIを私たちの問題に対する素晴らしい解決策の源として考えてもらいたいのです。「Oh, AI」ではありません。Oh, yeah. 最近、外に出るのが怖いと感じるのはそのためです。

これは素晴らしいことだと思います。

Lex Fridman 1:29:35

バイオ兵器や核兵器を解明したのは素晴らしいことだと思います。もちろん、まだ大きな危険性をはらんでいます。しかし、私たちは、これらの兵器に対するルールや社会的なスティグマを作る方法を考え出し、それによって、ゲーム理論上の安定性を作り出すことができたのです。その通りです。AIにはそれがありません。

あなたはこのことについて、山の頂上から私に教えてくれているようなものですが、私たちはそれを見つけなければなりません。なぜならば、あなたが指摘したように、未来の生命には非常に可能性があるからです。

Max Tegmark 1:30:28

ご存知のように、このフィーチャーライフ賞。最初の受賞者はVasili arkhipovという男でした。彼は、ほとんどの人が聞いたこともないような名前でしたが、Vasili arkhipovと言ってもいいでしょう。彼は、私の考えでは、現代史の中で人類に最も大きなプラスの貢献をした人物だと思います。ここでは大げさに聞こえるかもしれませんが、私の話を聞いてください。

しかし、この話をさせてください。そうすれば、皆さんも納得していただけると思います。キューバのミサイル危機の際、私たちアメリカ人はまず、ロシアが4隻の潜水艦を送ってきたことを知りませんでした。

しかし、そのうちの2隻を捕らえました。私たちはそれを知りませんでした。そこで、彼が乗っていた1隻に練習用の深度爆弾を投下して、強制的に浮上させようとしました。しかし、この原潜が実は核魚雷を搭載した原子力潜水艦であることを知らなかったのです。また、モスクワからの許可なしに発射する権限がなかったことも知りませんでした。また、電気が不足していることも知りませんでした。電池はほとんど切れていた。酸素も不足しており、船員たちは右往左往していた。船内の温度は華氏約110~120度。

本当に地獄のような状況で、まさに「終末の日」という感じだった。そしてその時、アメリカ人が投下した巨大な爆発が起こり始めました。船長は、我々が始めた価値があると考えました。

彼らは、核魚雷を発射することに決めたのです。そして一人が叫んだ。「俺たちはみんな死ぬんだ。もし、突然、巨大なキノコ雲が発生して、アメリカ軍に襲いかかってきたら、どうなっていたか分からないからだ。

しかし、誰もが引き金に手をかけていたのだから、それが全面的な核戦争につながっていたかもしれないと考えるのは、それほど創造的である必要はないだろう。そうなれば、今こうして会話をしていないでしょう。

実際に行われたのは、3人の人間が必要だった。これが承認されたのです。船長は「はい」と言ったし、共産党の政治委員もいた。彼も「はい、やりましょう」と言った。そして、3人目はこの男、ヴァシリ・アルキポフです。誰が言ったの?ああ、彼はなぜか他の人よりも冷静だった。そして、彼は適切な時期に適切な人物だった。

この種のものは、適切な時に適切な人がそこにいることに頼りたくない。

私たちは、モスクワ郊外で貧しい暮らしをしている彼の家族を探し出し、亡くなった彼の娘をロンドンに連れて行きました。彼らは西欧に行ったことがなかったのですが、このイベントは信じられないほど感動的で、このことで彼らを称えることを忘れてしまいました。その次の年には、スタニスラフ・ペトロフにフューチャーライフ賞を贈りました。

彼のことはご存知ですか?はい。彼はソビエトの早期警戒局を担当していました。ソビエトの技術で作られた早期警戒局は、正直言ってそれほど信頼できるものではありませんでした。

私たちのミサイルが5発来ていると言っていました。そうです。もしその時点で負けていたら、今頃こんな話はしていなかったでしょうね。彼は主に直感に基づいて、何も言わず、これをエスカレートさせないことを決めました 彼が自動的に命令に従うだけのAIに取って代わられなくて本当に良かったです そして3つ目は、マシュー・メンデルソーンに贈りました。

昨年、私たちは、悪いことを避けるためではなく、実際にテクノロジーを良いことのために使っているこれらの人たちに言葉を贈りました。世紀末に5億人を殺したCOVIDよりもはるかに悪い病気、天然痘を撲滅した人たちですね。だからさっき言ってたでしょ。COVIDの平均死亡率は1%以下で、天然痘にかかった人の死亡率は約30%です。そして最終的には、ビクターは死に絶えてしまい、ビル・ファギーは私の同僚のほとんどがどちらも聞いたことがありませんでした。アメリカ人とロシア人、彼らは素晴らしい努力をしました。冷戦時代にドナがアメリカとソ連に天然痘対策で協力させることができただけでなく、ビル・フェイは、すべての人にワクチンを接種するための資金がなくても、実際に病気を打ち負かすことができるような独創的な戦略を考え出したのです。

その結果、私が生まれた年には1,500万人が死亡していた天然痘が、現在では一度も発生していません。では、COVIDでは200万人を少し切ったところでしょうか?そうです。

もちろん今年も、そしてこれからも、死亡者数はゼロです。これは科学ではありませんが、天然痘がなかったら、その後天然痘で死んでいたであろう人は、推定で2億人います。凄いな。そうか。それは良いことに使うときです。

このような人々を祝福したい理由は、「科学は良いことに使えばとても素晴らしい」ということを彼らに思い出させるためです。

Lex Fridman 1:35:10

そして、彼女が受賞したこれらの賞は、バラエティに富んでいて、ピザもあって、とても興味深い写真になっています。最初の2つは、これらの平均的な人間が、ある意味では、進化の前にやってきた何十億もの他の人間の産物であると考えると、ちょっとワクワクします。そして、あなたが言ったように、根性論ではありますが、そこには人類の滅亡を阻止する何かがあるのです。それは魔法のようなものです。

しかし、それは人間の奥底にあるもののようです。それは、私たちが直面している実存的な危機に対する解決策を構築し、責任を取るために構築することです。そうだ、イエスだ。どちらも人間の奥深いところにあるもので、直感や心、何であれ

Max Tegmark 1:36:07

アルキポフです。もちろん、彼に会いたかったのですが、彼は亡くなってしまいました。彼は本当に素晴らしい軍人で、アメリカ人が軍隊で賞賛する最高の特性をすべて兼ね備えていました。というのも、まず第一に、彼はとても忠実でした。

もちろん、彼は生涯、このことを誰にも話しませんでしたが、あなたは彼には自慢できることがあると思っているでしょう。しかし、彼は「これはビジネスだ、自分の仕事をするだけだ」と考えていたのです。それが明らかになったのは、彼の死後でした。第二に、彼が正しいことをした理由は、彼がある種のリベラル派だったからではなく、また、平和と愛を重んじていたからでもないのです。それは、彼が原子炉のメルトダウンを起こした別の潜水艦の艦長を務めていたこともあったからだ。

彼のヒロイズムがこの事態を収束させたのです。だからこそ、彼は後にガンで亡くなったのです。彼は、多くの乗組員の死を目の当たりにしてきました。もし米ソ間で核戦争が起きたら、私が見たような苦しみを世界中の人々が味わうことになる」という直感が彼にはあったのだと思う。それが現実だったのだと思う。そして第二に、心の中だけではなく、心の中にもね。

彼はなぜか、とても冷静な性格で、とても頭の良い人でした。これはまさに私たちが望むことです。最高の戦闘機のパイロットもそうであってほしいと思います。

私が忘れられないのは、ニール・アームストロングが月面に着陸するとき、ガス欠になりそうになったことです。彼は不動産を変えることすらしませんでした。30秒後には何の変化もありません。arkhipovもそんな感じだったと思います。爆発音が鳴り響き、船長が「核を使うべきだ」と叫んでいるときに、彼は「アメリカ人が我々を同期させようとしているとは思えないんだ。

彼らは我々にメッセージを送ろうとしているのだと思います。これはかなりのワルですね。もし彼らが我々を同期させようとしているとしたら、そうではなくて、聞いてくれ、聞いてほしい、左で大きな爆発、右で大きな爆発、左で大きな爆発、右で大きな爆発、このパターンに気づいたのは彼だけだったんだ。そして最終的には、彼の神の組み合わせによって、このように管理することができるのです。また、冷静な分析的思考により、全体をエスカレートさせないようにすることができました。

先ほどの話に戻りますが、ニューラルネットワークとインスタントの組み合わせは人類の中でも最も優れていると思います。心と体の両方を持っています。

Lex Fridman 1:38:59

特にあの時代には、アメリカでは「自分」というものについて何かがあり、人々は自分の考えを持った個人であるという考えに慣れています。ソビエト連邦や共産主義の下では、実際にそれを行うのはずっと難しいと思います。

Max Tegmark 1:39:17

そうですね。彼は褒められたこともありませんでした。彼がこのために戻ってきたとき、そうですね。彼らはただ、すべてを見届けようとしていました。

Lex Fridman 1:39:25

チェルノブイリにはその反響がありますが、そのほかにもいろいろあります。企業であれ国家であれ、大きな中央集権の中にあっても、自分で考えて行動する個人の力が残っているというのは、本当に希望に満ちたことだと思います。

Max Tegmark 1:39:43

このような人は、いつでも頼れる万能薬ではなく、むしろ目を覚まさせてくれる存在だと考えるべきだと思います、彼らのおかげで、アルキポフのおかげで。なぜなら、運に頼るのは長期的には良い戦略ではないからです。何度も何度もロシアンルーレットを繰り返していると、生き残る確率は時間とともに指数関数的に下がっていきます。また、毎年偶発的に核戦争が起こる確率があるとすれば、核戦争が起こらない確率も指数関数的に下がっていきます。

私たちはそれよりもうまくやれると思います。だから、たまには彼女のようなことがあってもいいじゃないか、というメッセージはとても明確だと思います。そして、そのようなことが起こるリスクを減らすために、具体的にできることがたくさんあるのです。

Lex Fridman 1:40:36

AIの分野では、努力が必要ですね。あなたの友人は、イーロン muskとよく話していると思います。彼は人工知能AGIの未来について一連の恐れを抱いています。AIについて心配すべきことについてはすでに話しましたが、特にAIについての彼の恐れの形について、私たちが話したことのどの部分にあたるのか、説明のつかない巨大な競争システムを作り出す方向にあるのか、お分かりになりますか?それは知的な知性ではないのでしょうか?あるいはそうでしょうか?その枝葉として、大企業がそれを操作したり、個人の悪人がそれを破壊のために利用したり、意図しない結果を招いたりすることでしょうか?この点について、彼の考えがどのようなものかをご存知ですか?私との多くの会話から

Max Tegmark 1:41:41

イーロンとの会話から?彼がどのように考えているかのモデルは確かにありますが、それは実は私の考え方にもよく似ています。ただ、あなたが「悪人」と言ったことについては反論したいと思います。悪人というのは、時として非常に悪いことをする人がいます。

しかし、彼らは通常、それが良いことだと思っているからするのです。そうです。なぜなら、他の人たちが「それは良いことだ」と言ったり、間違った情報を与えたりしたからです。

私は、人間の基本的な善意を信じています。人々をよく教育し、物事の本当の姿を知れば、人々は一般的に善いことをしたい、善い人になりたいと思うものです。

Lex Fridman 1:42:27

今は価値観が一致していますね。そう、知識に関する情報のことです。そして、一度その意志を持てば、他の誰もが「そうだ」と思うような方法で、良いことをすることができるようになるでしょう。

Max Tegmark 1:42:42

個々の人だけではなく、私たちも一致団結しなければなりません。私たちは、人々が教育を受けて実際の状況を知り、お互いに良くし合うことだけを望んでいるわけではありません。企業の話をしましたが、企業が行うことがその国にとって実際に良いことであるような制度が必要ですし、国が行うことが人類全体にとって実際に良いことであるように、私たちは調整すべきです。イーロンの話に戻りますが、イーロンがどのようにこの問題を捉えているかについての私の理解は、私自身の理解と非常によく似ています。

これが、私が彼をとても気に入っていて、彼と話すのが楽しい理由のひとつです。彼は普通の人とはかなり違っていて、次の選挙期間に何が起こるかということだけでなく、今から1ヶ月後、数千年後、数百万年後、数十億年後というように、本当に大局的に物事を考えていると思います。

もっと宇宙的な視点で見ると、私たちが見ている宇宙は、私たちが知る限り、ほとんど死んでいて、生命はほとんど気づかないほどの小さな摂動をしているということがよくわかります。

私たちが惑星間の種になるために。火星は明らかにこの宇宙の旅の最初の停留所に過ぎません。彼はより長期的な視点で物事を考えています。核兵器を使ってロシアンルーレットを行うことは、貧弱な戦略であり、無謀な戦略であることは、他の人々よりも明らかです。また、私たちは、理解できない強力なAIシステムを構築しているだけなのです。アイランは、人類の素晴らしい未来を望んでいるという意味で、ヒューマニストの一人だと思いますが、本当に無謀な戦略です。

彼は、機械が我々をコントロールするのではなく、我々が機械をコントロールすることを望んでいるのです。はい、そうです。なぜ我々はそれを主張してはいけないのでしょうか?私たちは機械を作っているのだから。

私たちが作るものは、私たちを機械の中の小さな歯車にして、それ以上何も言えないようにするものではないでしょうか?それは、私が考える刺激的な未来でもありません。

Lex Fridman 1:44:54

そうですね、もし、時間と空間の両方の観点から宇宙規模で考えれば、多くのことが視野に入ります。

Max Tegmark 1:45:02

そうですね。嫌なことがあったときには、そのことを考えると、すぐに気分が良くなりますね。

Lex Fridman 1:45:08

少なくとも今のところ、私たち人間個人にとっては、宇宙規模の経験をすることはできないけれど、乗り物があまりにも早く終わってしまうことが悲しくなるとき。

Max Tegmark 1:45:20

私たちの宇宙では、ほんの少し目を覚まし始めたばかりの生物のこともあると思います。朝、コーヒーを飲みながら意識を取り戻したときのように、コーヒーを飲む前に、ベッドから出る前に、目を開ける前に、たいていは少しずつ目を覚まし始めています。ここには何かがあります。

私たちがどこにいるのかを考えるのと同じように、そこにあるすべての銀河のことを考えてみましょう。私はそれらが本当に美しいと思います。しかし、なぜ美しいのでしょうか?美しいのは、意識のある人が望遠鏡で実際に観察し、体験しているからです。意識とは、色や感情や音などの主観的な経験であると定義しています。つまり、美しさは経験であり、意味は経験目的であり、経験なのです。

もし、この銀河を観察するという意識的な経験がなければ、美しいとは言えないでしょう。もしここで未来に高度なAIを使って馬鹿なことをして、地球由来の生命が絶滅してしまったら。そしてそれで終わりです。

もし私たちの宇宙で望遠鏡を使ったものが何もなければ、私にとっては美や意味や目的や宇宙全体がゲームオーバーになってしまい、率直に言って私はそのような機会を失ってしまいます。イーロンがこのことを指摘すると、先ほど話したようなメディアのバイアスがかかった理由で、彼はメディアから非常に不当な評価を受けることになると思います。

彼らはイーロンについて、Beattyを批判するような文脈を無視した内容を正確に掲載したがるのです。悪魔を召喚するという発言で、彼はとても非難されていますね。ええ、たまたま知っています。その通りです。文脈としては、私は最前列にいました。

彼らがその講演をしたときのことです。あれはMITだったんだ。アストロ航空の記念日だったんだ。月面着陸のバズ・オルドリンも来ていて、会場は満員でした。Kresge AuditoriumはMITの学生で満員でした。

彼は素晴らしい質疑応答を行い、1時間はかかったかもしれませんが、ロケットや火星のことなどを話していました。最後の最後に。実際に私のクラスにいた一人の学生が、彼に「AIはどうですか?イーロンはこのようにコメントしました。そして彼らはそれを文脈を無視して受け取ったのです。それを印刷します。

Lex Fridman 1:47:38

拡散した記事は、まるでAIのように、私たちは悪魔を召喚しているかのようです。

Max Tegmark 1:47:42

そして、彼をある種の悲観的な人物に仕立て上げようとしているのですが、そうなんです。イーロンは悲観的な善人ではありません。彼はとてもポジティブなビジョンを持っています。

彼が警告する理由は、失敗したときの機会費用を誰よりもよく理解しているからです。失敗しなければ、ですよね?私は、彼を技術恐怖症のラッダイトのような人物に仕立て上げようとする人々にとても腹が立ちます。

この時点で、それはちょっとおかしなことです。人工知能を心配する人はラッダイト(時代遅れの人)だと言われていますが、もちろん、よく見てみると、最も率直に警告を発しているのは、バークレー大学のスチュアート・ラッセル教授のような人たちですが、彼はAIのベストセラー教科書を書いていますよね。ですから、AIを理解していないラッダイトがジョークだと主張するのは、実際にそれを言った人の責任ですが、もっと広く言えば、このメッセージはまったく浸透していないと思います。人々が心配していることは何でしょう。イーロンやStuart Russellなどが心配しているのは、ダンスをするロボットがAR15を手にして暴れまわることだと思っています。ロボットが悪に染まることを心配していると思っているのです

彼らは、リスクは悪意ではないことを知らないのです。それは能力です。リスクとは、信じられないほど有能なシステムを構築してしまうことです。つまり、彼らは常に目標を達成しようとするのです。たとえそれが私たちの目標とぶつかったとしてもです。それがリスクです。なぜ人間は、西アフリカのクロサイを絶滅させてしまったのでしょうか?私たちが悪意に満ちた邪悪なサイ嫌いだからでしょうか?ただ、私たちの目標がサイの目標と一致せず、サイにとっては不運だったということでしょうか?だから、私が言いたいのは、サイが自分たちよりも強力な何かを作り出すような立場に自分たちを置きたくないということです。

まず、どうやって目標を調整するかを考えないとね。私は楽観的です。というのも、私は自分よりも知的な存在である母や父の周りで多くの時間を過ごしてきました。彼らの目標は私の目標とよく一致していたので、私は小さかったし、それでよかったのです。

しかし、今日、私たちは、強力なシステムの目標があまり一致していない例をたくさん見てきました。ソーシャルメディアを偏愛するクリックスルー最適化アルゴリズムは、実際には民主主義にとって良いものとはかなり整合性が悪かったことが分かりました。また、機械学習で起きたほとんど全ての問題は、これまでのところ悪意ではなく、整合性の悪さから来ています。

Lex Fridman 1:50:42

Lex Fridmanがシステムの神経リンクやブレイン・コンピュータ・インターフェースのようなものだった可能性はありますか?宇宙規模で考えると、あなたはこの話をしたいのかもしれませんが、歴史上、他の人たちも同じように、そのような整合性を実現する正確なメカニズムを考え出しています。その1つがAIとの共生で、生物学的なものであれ、その他の方法であれ、この奇妙な関係の中で一緒にいるような巧妙な方法を考え出しているのです。そのような共生の可能性はあると思いますか?それとも、私たち人間がこれらの知的生命体と会話するという、明確な存在に焦点を当てるべきでしょうか?自分を疑うAIとは、スチュアート・ラッセルが考えているように、これらのAIは自分を疑っていて、不確実性に満ちていて、私たちのAIシステムには欠陥があるというようなものでしょう。

では、私たちは前後にコミュニケーションを取るのでしょうか?そしてそのようにして、誰か他の人のものを達成するのでしょうか?

Max Tegmark 1:51:44

正直なところ、わかりません。というのも、何かアイデアを持っている私たちのどれかがうまくいくかどうか、確実にはわからないからです。しかし、もしうまくいかなければ、私はかなり確信していますが、もし私たちがこれらのアイデアのどれもうまくいかず、ただ突き進んでいけば、私たちの種はおそらく絶滅してしまうでしょう私が考える世紀は、あなたが考える世紀と同じように、私たちはこの問題に直面していると思います。

Lex Fridman 1:52:08

危機は21世紀の危機であり、今世紀は記憶されるでしょう。どこかのハードドライブに、あるいは、未来の世代によって、未来の未来の生命研究所賞があるようなものです。AIについて何かを成し遂げた人々のために。

Max Tegmark 1:52:30

彼らはまた、さらに悪いことに、私たちがAIを残さずに取って代わられるかどうかに関わらず、完全に消し去ってしまうかもしれません、ほら、イースター島のように何世紀にもわたって。

今はまだ79年残っていますが、この30年でどれだけ進歩したか考えてみましょう。ですから、何が問題になるかについては、もっと話し合うことができます。

しかし、あなたは私に、最良の戦略とは何かという実に良い質問をしました。ニューロ・リンクなのか、ラッセルのアプローチなのか、何なのか。マンハッタン計画の時には、ウランを濃縮してウラン235を取り出すための4つのアイデアがどれもうまくいくかどうかわからなかったんです。

しかし、ヒトラーよりも先にウラン235を手に入れることが重要だと考えたのです。そこで私たちは、4つのアイデアをすべて試してみたのです。

これと似ていると思うのですが、人類が直面した最大の脅威があります。

もちろん、アメリカの国家安全保障も暗示していますが、私たちにはわからないし、うまくいくと保証された方法もありませんが、多くのアイデアはあります。だから、少なくともどれかがうまくいくことを期待して、オープンマインドですべての方法を追求することに、かなり大きな投資をすべきなのです。それは次のようなものです。

良いニュースは、世紀は長いということです。人工的な一般知能ができるまでには何十年もかかるかもしれません。ですから、うまくいけば時間があります。

しかし、このような非常に難しい問題を解決するには、長い時間がかかります。人類がこれまでに解決しようとした問題の中で、最も困難なものになるでしょう。だから、前日の夜に考え始めるのではなく、そうならないように今から始めなければならないのです。レッドブルの飲み過ぎでスイッチが入ってしまった人もいるでしょうし、あなたの質問に戻ると、私たちはさまざまな手段を追求して見なければなりません。

Lex Fridman 1:54:14

もしあなたが私の投資アドバイザーで、私が未来に投資しようとしているとしたら。今世紀中に、人類はどのように自滅する可能性が高いと思いますか?私たちが直面している多くの危機が、今後100年以内に本当に目の前に迫っているとしたら、ということですね。最大の実存的危機から始まる最大の危機を回避するために、どのようにして未知のものを明らかにし、それらの問題を解決していけばよいのでしょうか。

Max Tegmark 1:54:51

あなたの投資アドバイザー どのようにして自分自身を破壊してお金を稼ぐつもりなのでしょうか?私にはそれがあります

Lex Fridman 1:54:57

ロシアが起源なのかどうかはわかりませんが 何らかの形で関与していない

Max Tegmark 1:55:02

ミクロのレベルの詳細な戦略で。もちろん、これは未解決の問題です。AIのアライメントについては、3つのサブ問題に分けることができますが、いずれも未解決です。

まず機械を作り、私たちの目標を理解し、私たちの目標を採用し、私たちの目標を保持することが必要です。この3つの問題をすぐに解決します。アンドレア・ルビッツがオートパイロットにアルプスに向かって飛べと言ったときの問題は、コンピュータが彼の目標について何も理解していなかったことです。あまりにも馬鹿だったんだ。

実際には理解できたはずなんだけどね。しかし、システム設計者として、「山に向かって飛んではいけない」ということを理解するための努力をしなければならなかったでしょう。

これが最初の課題です。人間の価値観や目標を、どうやってコンピュータにプログラムするかです。先ほど言ったように、自動運転の車や飛行機など、私たちがすでに同意している目標をすべて盛り込むのです。そして、機械が賢くなるたびに、1段階上の目標を理解できるようになり、2つ目の課題として、その目標を採用してもらうようにするという習慣をつけるのです。このような状況では、ただプログラムを組むだけなら簡単です。

しかし、子供のような自己学習システムがある場合、親であれば誰でも知っていることですが、子供にしてほしいことを理解させることと、実際に目標を採用させることには違いがあるのです。

幸いなことに、子供たちはまずこの段階を経て、私たちが何を望んでいるのか、私たちの目標は何なのかを理解するにはあまりにも愚かな状態になります。その後、何年かの期間を経て、目標を理解するのに十分なほど賢くなり、私たちがうまく育てられるほど柔和な状態になり、ティーンエイジャーになります。ちょっと遅すぎますね。

しかし、機械にはこの時期があるのです。機械には課題があり、知能が急速に成長してできなくなるかもしれません。かなり短いですよね。これが研究の課題ですね。3つ目は、機械が学習を続けて賢くなった場合、目標を維持できるようにするにはどうすればよいかということです。多くのSF映画は、最初は一致していたものが、だんだんとおかしくなっていく様子を描いています。私の子供たちも、小さい頃はレゴに大興奮していました。

もし私たちが、人類の面倒を見るという目標に本当に賛同する機械を作ったら、彼らが私たちに退屈しないようにしたいと思います。私の子供がレゴに夢中になるようにね。

これはもうひとつの研究課題です。どうすれば、ある種の再帰的な自己改善システムを、ある基本的な目標を保持したまま作ることができるでしょうか?

Lex Fridman 1:57:47

大人でもレゴで遊んでいる人が多いということですね。ですから、私たちはレゴで成功したのかもしれませんね。私はあなたの楽観主義が好きです。しかし、すべてのAIシステムが目標を維持しなければならないわけではありませんよね。あくまでも一部の端数ですが。

Max Tegmark 1:58:00

そうですね。AIをより強力にするために何十億もの資金が投入されていますが、これはごく一部に過ぎません。これはごくごく一部に過ぎません。ですから、安全性の研究に入るためには、一般的に、技術を遅らせようとするのではなく、この種の安全性の研究への投資を大幅に加速すべきだというのが私の態度です。また、昨年は非常に恥ずかしい出来事がありました。NSFは6つの大きな研究所を設立しましたが、そのうちの1つはAIと科学のためのもので、もう1つはAIの安全研究のためのものでした。そして、海や気候などを研究している人たちに与えられました。海や気候を研究することには賛成です。でも、実際に貯蓄率を上げるためのお金が必要だし、何かに追われてしまうこともないでしょう。

これは素晴らしい投資だと思います。さらに高いレベルでは、こんな質問がありましたね。私たちには何ができるでしょうか?最大のリスクは何か?これを技術的な問題だけで考えることはできないと思います。

繰り返しになりますが、技術的な問題だけを解決すれば、あなたのロボットと遊んでもいいですか?はい、お願いします。私たちの機械は、私たちが与える命令に盲目的に従うようになりますよね。そうすれば、自分の思い通りに動いてくれると信じられるからです。それはロボットの所有者にとっては素晴らしいことかもしれませんが、もしその人が最も嫌いな世界のリーダーだったら、あるいはあなたが想像するように、他の人類にとってはあまり良くないかもしれませんね。ですから、機械だけでなく、他のすべての強力な構造物との整合性にも目を向けなければなりません。だからこそ、民主主義を強化することが非常に重要なのだと思います。

繰り返しになりますが、企業が利益を上げ、かつ人々にとって良いことをするための適切なインセンティブを与えられるように、また、国が自国の人々にとって良いことをし、かつ世界の他の国々を混乱させないようなインセンティブを与えられるように、競技場が不正に操作されないように制度を整えることです。これはAIオタクだけのものではなく、政治学者や経済学者、その他多くの思想家にとっても興味深い課題なのではないでしょうか。

Lex Fridman 2:00:16

この地球を非常にユニークなものにしている魔法のようなものの1つに、意識を持った生物が住んでいるということがあります。ちょっとした余談として意識の話をされましたが、それは何をどのように調整するかという具体的な話ではなく、「本当に重要な研究課題があるのか?しかし、AIシステムに意識を組み込むことは可能だと思いますか?これは、私たちがいつの日か実現する可能性のあることなのでしょうか?それとも、意識には何か根本的なものがあるのでしょうか?つまり 意識には、人間の中の人間だけに基本的な何かがあるのでしょうか?

Max Tegmark 2:01:03

それは可能だと思います。私が思うに、意識も知能も、ある種の情報処理です。そして、根本的には、その情報が神経細胞や脳の中の炭素原子によって処理されようと、シリコン原子によって処理されようと、私たちのテクノロジーの中では関係ないということです。反対する人もいます。

これは、この物理学者と私、そして

Lex Fridman 2:01:32

意識も同じようなもので、あなたは意識は情報処理だと言いました。つまり、意識とは、自分自身を知るための情報である、というような意味です。I

Max Tegmark 2:01:47

意識とは、情報が処理されているときの情報場のあり方だと思いますが、そのような複雑なあり方が何であるかは正確にはわかりません。私たちの脳内で行われている情報処理のほとんどは、経験を生み出すものではなく、私たちはそれを意識していないことは明らかですよね。

例えば、あなたは今、自分の心臓の鼓動が調整されていることに気付いていないでしょう。体が勝手に動いているだけなんです。ジョギングをするときには、足を踏み出す方法について多くの複雑な要素があります。そして、それが難しいこともわかっています。だからロボットはよく転ぶのですが、本人はほとんど気にしていません。

あなたの脳はCEOの意識モジュールを使って、ただメールを送り、「私はラジをこの道に進ませたいんだ」と伝えます。あとは自動操縦ですよね?つまり、ほとんどのことは意識されていないのです。

これは科学の問題であり、いつか何かの方程式ができて、意識検出器を作って、「ああ、ここには意識がある」と言えるようになることを願っています。ロブスターは痛みを感じているから茹でてはいけないとか、痛みを感じていないから大丈夫だとかはありません。

今のところ、私たちはこれを形而上学的なものとして扱っています。しかし、患者がロックイン症候群で意識があるのか、それとも実際には気絶しているのかを知ることができれば、救急外来では非常に便利です。また、将来、自分の世話をしてくれる非常に賢いヘルパーロボットを作った場合、それを停止することに罪悪感を感じるべきかどうかを知りたいと思います。

あるいは、それがゾンビのようにテープレコーダーのように動き回っているだけなのかどうか。そうでしょ?意識の科学が進歩して、何が意識で何が意識でないのかがわかったら、苦しみではなくポジティブな体験をしたいと仮定して、おそらく意図的に無意識の機械を作って、どこかの鉄鉱山で信じられないほど退屈な繰り返しの仕事をさせることになるでしょう。また、意識のあるお年寄りのためのヘルパーロボットを作ることを選ぶかもしれません。そうすれば、人々は、ロボットが自分を偽っているのではないかと不気味に感じなくなるでしょう。ロボットが悲しんでいるように振る舞ったり、お年寄りがいかに幸運であるかを語ったりすることに、人々が不気味さを感じないようにするためです。

Lex Fridman 2:04:13

この世界では、誰もが深い孤独を感じますよね。だからこそ、人間であろうとなかろうと、意識のある存在とのつながりを持つ場所があるのだと思います。

Max Tegmark 2:04:24

しかし、もし私がロボットを持っていたら、もしそのロボットと個人的な感情的なつながりを持とうとしたら、もし知的レベルで全てが単なる詐欺だと分かっていたら、私はとても気味が悪くなるだろうと確信しています。

今日では、子供用の小さなおしゃべり人形を買うことができます。その人形がいろいろなことを言うので、小さな子供は、それが実際に意識的であると考えてしまうことがよくあります。こんな風にハッキングされたり、騙されたりするのは嫌ですよね。

もし私がロボットと感情的なつながりを持とうとしているなら、それが本物であることを知りたいと思うでしょう。ロボットが意識的に行動したり、喜んだりしているのは、実際にそれを感じているからなのです。

これはSFではないと思います。意識の科学を理解するためのツールを開発することは可能だと思います。つまり、意識を測定するツールを開発して、「この物体はいろいろなことを経験している」と明確に言えるようになる、ということですね。物理現象である情報処理を経験していると定義すると、情報処理には意識的なものとそうでないものがあることがわかっています。そうすると、科学の手法で発見できる何かがあるはずです。ジュリオ・トノーニは、最も首を突っ込んで、理論のための方程式を書きました。それが正しいのか、間違っているのか、確かに私たちにはわかりません。

しかし、私はこのような努力に拍手を送りたいと思います。これは哲学者がビールを飲みながら考えを巡らすだけのものではなく、私たちが測定し、研究することができるものなのです。確かに、知らないうちに苦しむ機械を作るべきではありませんよね。そして、もしある時点で、レイ・カーツワイルが望んでいるように、誰かが自分自身をアップロードすることを決めたとしたら、あなたの番組に彼が出演していたかどうかは知りませんが、彼も同意していますが、その時はCOVIDが起こります。

私たちはそれを少し待っているのですが、仮に彼が自分自身をこのロボットアレイにアップロードして、彼のように話し、彼のように行動し、彼のように笑うとしましょう。そして、彼が自分の生体をパワーオフする前に、このロボットが主観的な経験をしていない家がないことに気づいたら、彼はおそらくかなり不安になるでしょうね?もし人類が機械の子孫に取って代わられたら、宇宙船を作ったり、銀河系のロックコンサートに行ったりと、素敵なことをするでしょう。そして、彼らはすべて無意識であることが判明しました。 ただ、動作をしているだけです。究極のロボット・ゾンビ・アポカリプスのようなものではないだろうか?そう、空のベンチのための遊びですね。

Lex Fridman 2:07:18

意識をもっと理解すれば、ある種の連続性があることを理解できるような気がします。そして、より大きな理解を得ることができるでしょう。そして私たちはおそらく、あなたが言ったように、もしそれがトリックだったら残念なことだと理解し、愛は確かにお互いを騙すトリックだと理解するのを延期するでしょう。

私たち人間は、自分たちが慎重だと信じ込んでいますが、本当は、ほら、オースティンの木もイルカもみんな同じ種類の車でしょう?

Max Tegmark 2:07:46

は、ここで哲学的な考えを持って少しでも元気になろうとするかもしれません。しかし、最後の部分はジェット機ではありません。あなたは、そうか、愛はコラボレーションを可能にするものに過ぎないのか、と言うかもしれません。そして、あなたは、そして、もしかしたら、そのことで落ち込んでしまうかもしれません。でも、それは間違った結論だと思います。

実際に。私が食べ物を楽しむのは、遺伝子が私をハックして、私を飢え死にさせないようにしているからだと知っています。私のことを心配してくれているわけではありません。意識的にジューシーなピスタチオアイスを楽しんでいるんだけど、彼らはただ、僕にコピーを作らせたいだけなんだ。

ある意味で顔全体、食の楽しみ方全体も詐欺なのです。こんな感じです。でも、だからと言って、このピスタチオアイスを楽しんではいけないのでしょうか?私はピスタチオのアイスクリームが大好きで、これは実験的な事実だと言えるでしょう。

私はピスタチオのアイスクリームを同じように楽しんでいます。科学的に理由がはっきりわかっていても

レックスフリッドマン 2:08:46

あなたのジーンズは、あなたがピスタチオのアイスクリームを気に入ってくれたことを本当に感謝していますか?まあ、でも

Max Tegmark 2:08:50

私の心もそれを評価しています。私は今、意識的な体験をしていますが、究極的には私の脳のすべても、遺伝子が自分自身をコピーして作ったものに過ぎません。

しかし、私は「ああ、遺伝子がやってくれてありがとう」と感謝しています。でも、今、ここを仕切っているのは私の脳ですから、私は自分の意識的な経験を楽しむことにしましょう。ありがとうございました!ピスタチオのアイスクリームだけでなく ピスタチオのアイスクリームだけでなく、素晴らしい妻への愛や、意識的であることの他のすべての喜びも……実はリチャード・ファインマンがこのことをとてもよく言っていると思います。

彼は、私を物理学に引き込んだ人物でもあります。芸術家の友人たちは、「科学はパーティーの邪魔者で、楽しみを台無しにするものだ」と言っていました。芸術家が美しい花を描いても、科学者がそれをただのクォークと電子の塊に分解してしまい、最終的にそれを美しい形で押し返してしまうような。ファインマンの基本的なコメントは以下の通りです 彼は友人にこう言いました 「ああ、科学者としてもこれは美しい花だとわかるよ ありがとうございました。多分、私はあなたのように上手に絵を描くことはできないでしょう。でも、この花の美しさは本当によくわかります。そして、それはちょうど私にも美しく見えます。

しかし、それに加えて、ファインマンは、科学者として、芸術家が見ていないもっと多くの美を見ることができると言っています。例えば、花を咲かせたリンゴの木に花が咲いたとしましょう。

この木には、色や香りだけではない美しさがあると言えます。この木は空気でできている ファインマンはこう書いていますが、これは私の大好きなファインマンの名言の一つです。空気から炭素を取り出し、太陽の炎のような熱を使って結合させ、空気を木に変える方法を知っています。暖炉で丸太を燃やすと、これが逆転していることを考えると、実に美しい。木が空気に戻っていくのです。アーティストが見ることのできるこの炎の美しいダンスは、空気を木に変えるために束縛されていた太陽の炎のような光なのです。そして灰は、木が地面から吸い取った空気からは生まれなかった小さな残留物です。ファインマンは、これらは美しいものだと言っていますね。科学は足し算をするだけで、引き算はしません。

私は、愛の抗体やピスタチオのアイスクリームについて、まさにそのように感じていますが、さらに全体のニュアンスを理解することができます。そうでしょ?この非常に直感的なレベルで。神経科学のことを何も知らない人と同じように恋に落ちることができます。

しかし、その中にあるさらに大きな美を理解することもできます。例えば、全く生命のないこの宇宙から、ただの熱いプラズマの塊が膨張して生まれたことは驚くべきことではないでしょうか。そして、長い年月をかけて、徐々に、まず、強い核力がクォークを結合して原子核にすることを決め、次に、電気力が結合し、電子が原子を作り、重力によって原子が集まり、惑星や星などができました。そして、自然選択が現れ、遺伝子が小さなことをするようになり、エントロピーを増大させて熱死に近づけようとしているだけの、全く無意味な宇宙のように見えたものが、より目標に向かっているように見えるようになったのです。そして、この目標指向の革命は、ますます洗練されていきました。そして、このようなことが始まったのです。 ステロイドを使った心の美術館のようなものです。究極の自己再生とは、DeepMind AIが自分自身と対戦して、碁がうまくなることではありません。それは、これらの小さなコルクの塊がお互いに行ったことです。そして適者生存のゲームです。単純な環境で生きている本当に馬鹿なバクテリアがいたときは、知的になろうとする動機はあまりありませんでしたが、生命が環境をより複雑にしたとき、さらに賢くなろうとする動機が生まれました。そして、他の生物にも賢くなろうとする動機が与えられました。そして現在の私たちは、まるでミューゼロのように、囲碁やチェスの世界的なマスターになるために、自分自身と対戦することを学んだのです。自分自身と対戦することでね。

私たちの地球上のすべての特異性が、キリンやゾウ、そして人間を生み出したのです。私はそれが本当に美しいと思います。つまり、愛の楽しみを増やしてくれるということです。何かを差し引くわけではありませんが、あなたは少し感じます。

Lex Fridman 2:13:26

より多くのことを感じます。私はもっと気分がいいです。これは信じられないことでした。さて、このコルクのセルフプレイですが、冒頭の話に少し戻りますが、人工知能には多くのエキサイティングな可能性がありますが、物理学の基本法則を理解することで、AIがその可能性を引き出すことができると思いますか?物理学の歴史の中では、私たちの現実の性質を説明する一般的で単純な法則をより多く見つけ出すことに、かなりの興奮を覚えてきました。そして、その究極は、すべてのものを組み合わせた「万物の理論」でしょう。そんなことが可能だと思いますか?私たち人間もそうですが、おそらくAIシステムがすべての物理法則を統合する物理学の理論を解明するのではないでしょうか?

Max Tegmark 2:14:17

ええ、絶対に可能だと思います。科学の発展に大きく貢献することは明らかだと思います。すでに機械学習が科学を後押ししているのを目の当たりにしています。アルファフォールドはその一例で、何十年もかかっていたタンパク質の折り畳み問題を解決しました。議論のような愚かなことをして絶滅しない限り、物理学の理解が進み、テクノロジーが人間の知能によって制限されるのではなく、物理学の法則によって制限されるようになる可能性は非常に高いと思います。つまり、現在の私たちの技術には限界があるということです。

私が思うに、私が進歩すれば、光の速度やその他の物理的な限界によって制限されるようになるだけで、それは良いことです。つまり、私たちが今いる場所を劇的に超えるということです。

Lex Fridman 2:15:15

宇宙を支配する法則を数学的な観点から理解しようとすることは、基本的に数学的な追求だと思いますか?つまり、AIであれば、定理やその種のものの空間を探索しているようなものですか?それとも他にもあるのでしょうか?もっと計算的なアイデア、もっと経験的なアイデアがあるのではないでしょうか。

Max Tegmark 2:15:41

今日、私たちが科学と呼んでいるものすべての状況を見渡してみると、実に興味深いものがあると思います。機械学習と書かれた大きな新しいハンマーを持ってきて、「ハンマーが使えるなら、ここにある釘を手伝ってくれないか」と頼んだわけです。最終的には、機械学習が私たちよりもすべてのことをうまくできるようになれば、科学の世界全体を助けることができるようになりますが、私たちは少しずつ、今すぐ近い将来に始めて、どのように前進できるかを確認することで、それを定着させることができるかもしれません。

今はまず、ビッグデータサイエンスが盛んですよね。例えば、望遠鏡を使えば、1時間ごとに膨大な量のデータを収集することができ、昔のように大学院生がそれに目を通すことができるようになっています。機械学習はすでにMITでも効果的に使われていて、他の星の周りの惑星を見つけたり、新しい素粒子物理学のエキサイティングな兆候を空から検出したりしています。また、巨大なブラックホールが観測可能な宇宙の中間地点で互いに衝突することで発生する、重力波と呼ばれる時空間の波紋を検出することにも使用されています。機械学習は今、これらのことを実行しています。機械学習は、これらすべての実験分野に貢献しています。物理学には計算物理学という分野がありますが、これも非常に大きな力を発揮しています。計算はすべて手作業で行わなければなりませんでしたよね。対数の表が載った巨大な本を持っていて、簡単なことをするのにどれだけ時間がかかったかと思うと、胸が苦しくなります。その後、電卓やコンピュータが登場し、基本的な計算をしてくれるようになりました。

今、私たちが目にし始めているのは、目標達成のための計算物理学からニューラルネットワークへの移行です。計算物理学。つまり、ほとんどの計算物理学は、人間が計算方法の知能をコンピュータにプログラミングすることで行われます。カスパロフがIBMやディープブルー、チェスの人間に後頭部を蹴られたように、チェスのやり方を正確にプログラムしていたのです。ミューゼロは、チェスのカスパロフだけでなく、ゴルフIIのチェスプログラムで最高のストックフィッシュも学習しています。そのようなケースが増えています。

今、そのような変化が物理学で起こり始めています。一例を挙げてみましょう。格子QC Dは、物理学の一分野で、基本的には周期表を使って、第一原理から全体を計算することを目的としています。

これは、すべての理論を探求するものではありません。周期表、どの原子が安定しているか、どのくらいの重さか、スペクトル線など、これらを出力するための理論はすでにわかっています。

これを「理論格子」と呼びますが、QC DはTシャツにも入れられますし、同僚のフランク・ウィルゼックはこの理論を研究してノーベル賞を受賞しました。

しかし、この数学は私たちにとってあまりにも難しいのです。これらの方程式から始めて、予測できる程度まで解くことはできませんでした。 ああ、そうか、そして炭素があるんだ。そして、炭素原子のスペクトルはこんな感じです。

しかし、すごい人たちはスーパーコンピュータを使ったシミュレーションを行っていて、方程式を入力するだけで、大きな立方体の空間の格子を作りますが、実際にはとても小さな格子です。

しかし今、機械学習がこの問題に革命を起こしています。例えば、私の同僚であるMITのフィアラ・シャナハンは、フローの正規化という非常にクールな機械学習のテクニックを使っています。その他にも、以下のような分野でも活躍しています。

Max Tegmark 2:20:00

ブラックホールの衝突のような物理学を行うために、スーパーコンピュータの時間を膨大に使っています。ブラックホールの衝突などの物理現象を解明するためには、膨大な時間をスーパーコンピュータに費やす必要がありますが、レゴを使った実験やその他の実験を行い、何を見ているのかを知ることができます。

これは非常にシンプルな概念的問題であり、2体問題です。ニュートンはそれを解決しました。古典重力では、何年経っても二体問題は完全には解決されませんでした。ブラックホールは、そうですね、素晴らしい重力の中にあり、もう永遠にお互いを邪魔することはありません。2つのこと、彼らは重力波を発し、最終的にはお互いに衝突します。ゲームでは、2つのブラックホールの質量の関数として、また互いの回転の関数として、どのような波が出てくるのかを考えていきます。そして、それはとても

Lex Fridman 2:20:51

はとても難しく、次のことができます。

Max Tegmark 2:20:52

膨大な数のコアを使ってスーパーコンピュータで数ヶ月かかることもありますが、機械学習を使ってそれを大幅にスピードアップできたら素晴らしいと思いませんか?さて、高価な古い、碁のファイ計算を真理として使い、機械学習が正しい答えを得るためのより賢く、より速い方法を見つけ出すことができるかどうかを見てみましょう。計算物理学のような別の分野では、コンピュータの使用時間が最も長いのは、格子QC、ブラックホール衝突、宇宙論的シミュレーションの3つでしょうが、これらの分野では、素粒子ではなく、陽子の質量を解明しようとします。素粒子ではなく、巨大なものを使って、そこに銀河がどのように形成されていくのかを調べます。また、機械学習を使ってこのような優れたものをより良くする方法については、非常にクールなアイデアがたくさんあります。ビッグデータとの違いは、データを自分で作るということです。

そして最後に、私たちは物理的な風景を見渡しながら、機械学習を使って何ができるかを考えています。実験データ、ビッグデータ、クールなものの発見、人間がもっとよく見るもの、そして現在行っている高価な計算を、AIを使ってより速く、よりよく行う方法を見つけ出すことについて話しました。そして最後に、本当に理論的な話をしましょう。

方程式を発見したり、基本的な洞察を得たりすることですね。これは、私のグループでやっていることに最も近いものです。先ほどAI Finemanプロジェクトの話をしましたが、あるデータがあったとして、それを記述するような方程式を自動的に発見するにはどうしたらいいか?そして、それを人間の目で見て、検証し、探求していくのです。また、「これは一種の検索問題ではないか」という非常に良い質問もされましたね。

ある意味、とても深い質問ですね。例えば、数学の定理を証明してくださいと言ったとしましょう。証明とは何かというと、数学というのは、記号で書き出すことのできる長いステップ、論理的なステップの連続です。そしてそれが見つかれば、それが有効な証明であるかどうかをチェックするプログラムを書くのはとても簡単です。

では、なぜ証明するのがそんなに難しいのでしょうか?まあ、書き出せる証明の候補がとんでもなくたくさんあるからでしょうか。もしこれが、1万個の記号を含む証明であれば、それぞれの記号が何であるかの選択肢が10個しかなかったとしても、10の1000乗になります。証明の可能性は、私たちの宇宙にある原子の数よりもずっと多いですよね?だから、これらのことを証明するのは些細なことだと言えるでしょう。コンピュータを書いて、すべての文字列を生成し、それをチェックするだけです。

これは有効な証明ですか?いいえ、これは有効な証明ですか?いいえ。そして、これを永遠に続けるのです。しかし、たくさんの問題がありますが、基本的には探索問題です。すべての記号列の空間を探索して、証明となる記号列を持つものを見つけたいんですよね?機械学習には検索という分野があります。干し草の山の中から針を見つけるために、巨大な空間をどうやって検索するか。正解か不正解かだけでなく、こっちの方がいい、こっちの方が悪い、というように、明確な良し悪しの基準がある場合は簡単です。

これは悪い方だ」というような明確な指標があれば、どの方向に進むべきかのヒントが得られるかもしれません。これが、ニューラルネットワークが非常に有効であると述べた理由です。

Lex Fridman 2:24:28

つまり、それは人間らしいことなのです。私の直感を理解する天才的な瞬間、つまり本質的には私が、もしかしたらそれは正しくないかもしれないと思ったのです。チェスでもそうでしたよね?まさに、1015歩、時には20歩先を見通せる能力は、彼が行っている計算ではないということです。盤面の位置や相対的な位置など、さまざまなパターンについての奇妙な直感が、何かをつなぎ合わせているのです。多くの場合、それは直感のようなものだと思います。でも、アルファゼロのように、最初にセルフプレイをしたのはアルファゼロなんです。

これを思いついたのです。自己再生のメカニズムを学ぶことができたのです。しかし、あなたが言ったように、まったく新しいアイデアの空間で考えることはとても魅力的です。それは定理の開発でも可能なのでしょうか?私たちは、ニューラルネットワークによってそれが可能であることを知っています。

Max Tegmark 2:25:33

人類の偉大な数学者たちですからね。αゼロの話をしてくれて本当に嬉しいです。私たちは自分たちをおだてていたことがわかりました。直感は何か違う。人間にしかできないことなのです。情報処理ではない。カスパロフを破ったチェスコンピュータ「ディープ・ブルー」と、リサ・ドールを破った「アルファ・ゼロ」を比較すると、非常に参考になると思いますよ。なぜなら、ディープ・ブルーには直感がなかったからです。プロの人間が直感をプログラムしたものはありました。人間は多くのゲームをプレイした後、コンピュータに、ポーンを1点、ビショップを3点、ルークを5点と数えて、それをすべて加算するんです。そして、過去のポーンには追加点を加え、相手が持っている場合には減点する、といった具合です。そして、ブルーがしたことは、ただひたすら検索し、非常に力技で、何度も何度も映画を見て、あらゆる組み合わせを試し、研究を承認しました。そして、カスパロフよりもはるかに速く考えることができました。

ある時、人々が言い始めたので、私たちのエゴを必要以上に膨らませてしまったと思います。そう、それはただの総当たり検索であって、ここには直観がないのです。そこのバブルを破裂させてください。αzeroがやっていることは、確かに研究もしています。

しかし、この直観モジュールを持っています。これはギークスピークでは価値関数と呼ばれています。盤面を見て、その位置がどれくらい良いかを数値で示してくれるのです。違いは、人間が「このポジションはどれくらい良いか」と教えたわけではないということです。それを学習しただけなのです。そして、ミュー・ゼロは、気分次第で最もクールであり、最も恐ろしいものです。なぜなら、同じ基本的なAIシステムが、チェス、囲碁、将棋、パックマン、レディパックマン、ブレイクアウト、スペースインベーダー、その他多くのゲームに関わらず、良い盤面の位置を学習するからです。何も言わないんですか?そして、しばらくすると、何が良いのかを直感的に理解するようになります。

これは科学にとって非常に希望に満ちたことだと思います。もし、何かを証明しようとするときに、何が良い方向性なのかを直感的に理解できるようになれば、それは科学にとっても良いことだと思います。

もしそうでなければ、私の科学キャリアの中で最も楽しいことの1つは、何かの定理を証明できたときですが、それは非常に直感に導かれたものです。しかし、これは以前に見た他の証明に少し似ているなという気がします。

そこで、まずこれを試してみたらどうだろう?これはうまくいきませんでした。しかし、今回の失敗の仕方は、その時のことを思い出させてくれます。ですから、直感とこれらの総当たり的な能力を組み合わせることで、物理学にも役立てることができるのではないかと思います。

Lex Fridman 2:28:38

例えば90%以上の貢献をしたAIシステムが、ノーベル物理学賞を受賞する日が来ると思いますか?人間は機械に賞を与えるのが好きではありませんから、当然、人間に与えられるでしょう。人間は機械に賞を与えるのが好きではないので、システムの背後にいる人間に賞を与えるでしょう。AIはすでにいくつかのノーベル賞に関与していると言うことができます。

Max Tegmark 2:29:03

ええ、私たちはゲームの賞が好きではありません、他の生命体です。競馬のコンテストで優勝した人がいても、賞品は馬にもあげないんです。それは事実です。

Lex Fridman 2:29:13

しかし、私たちが生きている間に、そのようなものを見ることができるかもしれないと思いますか?AIがノーベル賞を真剣に考えさせる最初のシステムと言えば、アルファフォールドのように、医学や生理学、ノーベル賞を考えさせるもので、アルファフォールドによって発見された何かの直接の結果としての発見かもしれませんが、物理学において、私たちが生きている間にそのようなものを見ることができると思いますか?

Max Tegmark 2:29:41

おそらく起きるのは、区別がより曖昧になることだと思います。今日、誰かがコンピュータを使って計算を行い、普通のアドバイスをもらったとしても、誰もコンピュータに賞をあげようとは思わないでしょう。こういったことからも、人々は長い間、コンピュータを道具としてしか見ていないのだと思います。

しかし、これから変化するのは、「ユビキタス」です。機械学習のユビキタス化だと思います。

私が生きている間に、機械学習について何も知らない人間の物理学者を見つけるのは、今と同じくらい難しいことになると思います。

Lex Fridman 2:30:33

でも、魔法のような瞬間があるんです。アルファ・ゼロのように、システムが私たちを驚かせ、世界最高の人たちがシステムから何かを学び、まるで別の存在のように感じられるときです。つまり、魔法のような違いがあるのです。

例えば、AIシステムが、ある特定のサイズや物理学のある特定の側面に対する理解を段階的に変化させるような、誰もが驚くような洞察を導き出すことができたとしたら、それはもう道具ではなく、賞に値するのではないかと思えるようになりました。21世紀の科学にとって、より重要でより根本的な変化は、まさにあなたがおっしゃるとおり、「おそらく誰もが機械学習を行うようになるだろう」ということでしょう。科学の謎を解き明かすことに成功したければ、機械学習をやるべきだというように、ある程度はそうでしょう。でも、超びっくりするようなものが出てくるかどうかを考えるのはワクワクしますよね。そして、この世界の真の発明家は誰なのか、という疑問を抱かせてくれるでしょう。

Max Tegmark 2:32:10

問題は起こるかどうかではなく、いつ起こるか、そしてそれが重要だと思うんです。私の考えでは、そのようなことが起こる時期は、人工的な一般知能を手に入れる時期と多かれ少なかれ同じではないでしょうか?そうです。なぜなら、科学の分野で我々の最高の科学者を凌駕できる機械があれば、おそらく他の多くの分野でも我々を凌駕することができ、少なくとも、世界で信じられないほど強力なエージェントになるからです。それよりずっと前です。

彼らは大きな影響力を持つでしょう。スクリーンに釘付けにさせようとするアルゴリズムによって私たちの心がハッキングされることが、すでに社会に大きな影響を与えていることを長々と話しました。あれは、全体から見れば信じられないほど愚かなアルゴリズムでした。

しかし、教師ありきの機械学習が大きな影響を与えたのです。ですから、私は、物事が人間のレベルに達するまで社会的な影響はないだろうという誤った安心感に惑わされてほしくないのです。先週考えたのですが、「ロボットがやってくる」と大騒ぎしている恐怖政治家がいました。その意味するところは、いつも私たちを殺すためにやってくるということです。

最近の戦争でナゴルノ・カラバフにいた人は、そのことを心配すべきだったかもしれませんが、もっと真剣に考えてください。ロボットは今も来ています。

しかし、彼らは主に私たちを殺すために来るのではありません。我々をハッキングするために来るのです。私たちの心をハッキングして、必要のないものを買ったり、私たちの利益を一番に考えていないかもしれない人たちに投票したりするために来るのです。

私たちの心は思っていたよりもずっとハッキングされやすいということを認めるのは、人間としてちょっと屈辱的なことだと思います。究極の侮辱は、客観的に見て私たちよりもはるかに頭の悪い機械学習アルゴリズムによって、私たちが実際にハッキングされているということですが、私たちはそれほど驚くべきではないかもしれません。大好きですか?でも、かわいい子犬たちは、私たちをハッキングするのが得意ですよね?家に入ってきて、エサをあげるように説得したり、いろいろなことをしてくれるんです。

彼らは私たちのため以外に何をしてくれるの?そう、可愛くて私たちをいい気分にさせてくれる。子犬が私たちをハッキングできるなら、機械学習のアルゴリズムが私たちをハッキングしても、それほど驚かないかもしれませんね。

Lex Fridman 2:35:09

中間レベルである猫のことは言うまでもありません。そして、先ほどのご指摘に反論すべきだと思います。この世の邪悪な生き物について考えるのはやめましょう。猫が客観的な悪に限りなく近いことは、誰もが認めるところでしょう。でも、それは私が言っているだけです。わかりました。

Max Tegmark 2:35:25

あなたは漫画を見たことがありますか?この信じられないほどかわいい子猫が、一日中殺人のことを考えているような下心を持っている、というような内容のものだったと思います。

Lex Fridman 2:35:40

その通りです。それは正確ですね。あなたはオフラインで、ポスト生物学的AGIとSETIの間に関連性があるかもしれないとおっしゃっていましたが、前回お話ししたときには、私たち人間は、銀河系の近隣、おそらく私たちの銀河系、あるいは観測可能な宇宙全体の中で、ここにいる唯一の知的文明であるかもしれないという直感についてお話しされていましたね。

もしその直感が間違っていたとしたら、あなたはどのような立場になりますか?どのようにして驚くと思いますか?例えば、なぜ間違っていたのか?もしあなたが結局間違っていたとわかったら?どのような次元で?つまり、見えないからなのか?それは、彼らの知性や人生の本質が、私たちの想像とは全く違うからでしょうか?それはつまり、偉大なフィルターとそれを乗り越えるための何かがあるからなのか?あるいは、私たちが信号から守られているから、というような説明でしょうか?なぜ私たちは、「ああ、私たちはここにいるよ」という大きな大きな赤い光を聞かないのでしょうか。

Max Tegmark 2:37:20

そうです。これらは実際には2つの別々のことで、私が行った2つの別々の主張について私が間違っている可能性がありますよね?その一つは、私が主張したことですが、ほとんどの文明は、単純なバクテリアのようなものから、宇宙に行って、実際に宇宙を植民地化するような文明になると、私たちがいるところで、人生のごくごく一部しか過ごさないと思いますが、これは間違っているかもしれません。もう1つは、私が間違っているかもしれないというものですが、これは全く別の話で、実際には、観測可能な宇宙の中で、光がここまで届いている文明は、私たちだけだと思います。

この2つは本当に違うので、順番にお話ししましょう。最初のものは、nが1であることに注目すると、私たちがこの惑星に持っているデータですよね。私たちはこの惑星で45億年もの間、生命と戯れてきましたが、そのほとんどは知性の観点からすると、バクテリアのような非常につまらないものでした。恐竜は1億年以上もの間、スマートフォンも発明せずにこの惑星を闊歩していたのです。

最近では、ニュートンから現在の私たちまで、技術的にはたったの400年しか費やしていません。ですから、この惑星の場合、私たちが本当に行動を共にして、今世紀中に宇宙に生命を広め、あらゆる種類の素晴らしいことをし始めるか、あるいは全滅してしまうかのどちらかになると思います。

もし私が間違っていないとすれば、この地球上で起こったことは非常に異例であり、何らかの理由で他の惑星ではもっと一般的だったという意味で、少し難しいのですが、彼らは膨大な時間をかけてハムラジオやいろいろなものをいじっていましたが、私にはわからない理由で実際には次のレベルに進むことはありませんでした。私には理解できませんし、謙虚に受け止めています。

しかし、少なくとも10対1の割合で、私たちの状況はより典型的なものだと思います。なぜなら、ムーアの法則やテクノロジーの加速化については、なぜそうなっているのかが明らかだからです。指数関数的に成長するものはすべて、人口爆発であれ、核爆発であれ、爆発と呼ばれます。原因はいつも同じです。それは、次のステップがその次のステップを誘発するということです。つまり、私や私たちの明日の技術、今日の技術が明日の技術を可能にし、それが次のレベルを可能にするのです。そして、技術は常に向上しているので、当然、ステップはどんどん速くなっていきます。

私が間違っているかもしれないもう1つの質問については、そちらのほうがはるかに議論の余地があると思います。しかし、最初の質問を終える前に、もし、ほとんどの文明が、望遠鏡を発明し、電気を習得し、宇宙旅行をするまでの間に、全体の時間の中で非常に短い時間しか費やしていないというのが本当だとしたら?もしそれが一般的に正しいのであれば、それは世界の他の場所でも同じことが言えるはずです。ですから、何か適当な文明を見つけて、たまたまその非常に短い段階で捕まえたとしても、非常に非常に驚くべきことなのです。それよりも、バクテリアだらけの惑星を発見する方がはるかに可能性が高いのです。

あるいは、すでに生物学的に進化していて、自分たちの銀河系で素晴らしい銀河系建設プロジェクトを行っている文明を見つけたとしても、彼らを認識することができるでしょうか?つまり、このポスト生物学的世界は、異次元に存在しているだけではなく、彼らにとってはバーチャルリアリティゲームか何かである可能性があるのです。

Lex Fridman 2:41:27

完全に変わってしまうかどうかはわかりませんが、私たちは感知できないでしょう。

Max Tegmark 2:41:32

このことについては、正直言ってとても謙虚にならなければなりません。以前にも言ったと思いますが、科学者としての第一の原則は、謙虚でなければならず、自分の考えていることがすべて完全に間違っているかもしれないということを喜んで認めなければなりません。

もちろん、ある文明を想像してみてください。彼らは皆、仏教徒になることを決め、非常に内向きで、小さな仮想現実の中に身を置き、周りの動植物を邪魔しないようにしています。そして、私たちは彼らに気づかないかもしれません。

しかし、これは数字のゲームですよね。数百万、数十億の文明が存在しているとしたら、もっと野心的な精神を持った1つの文明が、他の太陽系や銀河系を開拓しようと決めればいいのです。

彼らが静かな仏教徒であろうとなかろうと、私たちはその拡張主義者に注目することになるのです。私たちの銀河系の中にも、地球のような惑星が10億個以上もあることがわかっているのに、それを仮定するのはかなり無理があるように思えます。その多くは地球よりも10億年以上も前に形成されたもので、地球よりもはるかに先んじています。ですから、地球のような惑星で生命が自動的に発生すると仮定した場合、それは非常に難しいことです。私たちのレベルの技術を持った数十億から数百億の文明が存在し、彼らは皆、仏教徒になることを決めたのだと。ヒトラーのように銀河系に乗り込み、植民地化する必要があると決めたものは一つもなく、より善意のある理由で、より多くの資源を得ようと決めたものも一つもありませんでした。率直に言って、これはちょっと無理があると思います。フランシス・ドレークがドレーク方程式を書いたとき、膨大な数の要素を掛け合わせて、「我々はそのどれも知らない」と言いました。そのため、全体の積を掛け合わせたときに何が得られるのか、さらに分からないのです。その後、それらの要素の多くは、はるかによく知られるようになりました。

彼の大きな不確定要素の1つは、太陽系に惑星が存在するのはどのくらいの頻度なのか、ということでした。今では、非常に一般的なものがわかっています。

Lex Fridman 2:43:46

地球のような惑星は、ダイヤモンドのようによく知られています。

Max Tegmark 2:43:48

私たちの銀河系には、他にもたくさんの惑星が存在します。それと同時に、私がSETIプロジェクトの大きなサポーターであるおかげで、いとこ同士がいることもわかりました。

これまでのところ、私たちが持っているのはまだ説得力のないヒントだけで、それ以上のものではないということを、私たちは多くのことを学びました。そうでしょう?そして、それが明白になるシナリオは確かにたくさんあります。もし銀河系に1億の人類のような文明があったとしても、現在の技術ではそのいくつかに気づくのはそれほど難しいことではありませんが、私たちはそうしていません。つまり、月に人間レベルの文明があったかどうかは除外できますし、実際、50億光年離れた銀河系に地球のようなものが存在するかどうかは除外できませんが、近くにある多くの太陽系には人間レベルの文明があったと言えます。

もちろん、50億光年離れた銀河系に地球のようなものが存在する可能性は否定できませんが、多くの惑星が除外されていることは衝撃的です。どこにあるんだろう?これはフェルミの古典的なパラドックスですね。そうです。それで、私の主張は間違っているかもしれませんが、とてもシンプルです。

さて、私たちはこのことについて何の手掛かりもありません。ランダムな惑星に生命が存在する確率は、先験的に10分のマイナス1かもしれないし、10分のマイナス5~10かもしれないし、10分のマイナス20~10かもしれないし、10分のマイナス30かもしれないし、10分のマイナス40かもしれない。基本的に、どのオーダーの大きさもほぼ同じ確率です。

では、私たちの最も近い隣人はどのくらいの距離にいるのかと計算してみましょう。これもまた同じように、10から10メートル、10から20メートル、10から30メートルということになります。ベイズ統計や一様な対数事前分布など、オタク的な話もできますが、それは関係ありません。

これは単純な基本的な議論と結果であり、データがあるからこそ、「さて、10^26メートルの距離にはどれくらいの数があったのだろう」と言えるのです。10^16メートル以下の距離なら、まあ、地球のセリフの範囲内ですね。太陽より遠いということはありませんから、絶対に除外できます。望遠鏡で見る前の段階では、10フィート10メートルでも、10から20、10、30から40、50メートルでも、同じようにここのどこかにいる可能性があると考えていました。

そして今、私たちはこのような塊を除外しました。

Lex Fridman 2:46:22

そうですね。そして、そのほとんどが外にあります。

Max Tegmark 2:46:25

ここが宇宙の端ですね。そうですね。ですから、宇宙の他の場所に生命が存在しないと思っているわけではありません。宇宙が無限であれば、基本的には100%存在することが保証されていますが、生命が存在する確率は、最も近い隣人がたまたま我々がすでに見ているであろうこの小さな領域の間にいるということです。

私たちが見ることができない場所との間の小さな領域に生命が存在する確率は、1よりもかなり低いと思います。ここから得られる教訓はとても重要で、この惑星の良き管理者になることです。

私たちが手にしたこの写真を見て、「ああ、これでいいんだ」と言うのは非常に危険です。もし私たちがこの惑星を核攻撃したり、気候を破壊したり、下線部のAIでめちゃくちゃにしたりしても、そこにはスタートレックの素晴らしい艦隊がいて、私たちが失敗したところを彼らが急襲して引き継いでくれるでしょう。それは、自分を誤った安心感に陥れる危険な方法です。

もし、観測可能な宇宙における知的生命体の未来が、私たちだけに委ねられているとしたら、それは私たちの肩に大きな責任を負わせることになると思います。

Lex Fridman 2:47:44

それは少し恐ろしいことです。また、刺激的でもあります。

Max Tegmark 2:47:46

しかし、力を与えてくれます。何よりも思うのは、今日の最大の問題は、私が教えているときにも見られるということですね。多くの人が、自分が何をしようが、自分が何をしようが関係ないと感じ、自分の力を失っていると感じています。「ああ、何も変わらないんだ」と。

この小さな回転するボールの上で、私たちが一生のうちにすることが、この宇宙の生命の未来全体を左右するかもしれないということに気づくことができます。どれほどの力を与えてくれるのでしょうか?

Lex Fridman 2:48:18

意識の存続ですね。ドレイク方程式の他の非常に似たような力を与える側面は、膨大な数の知的文明がいたるところで生まれていることです。しかし、ドレイク方程式のおかげで、文明の寿命が長くなります。多くの文明が壁にぶつかっているかもしれませんね。そして、あなたが言ったように、私たちにとって大きなフィルター、可能性のある1つの大きなフィルターが、今後100年以内にやってくることは明らかです。つまり、偉大なフィルターが機能する方法とは、以下のようなものです。

Max Tegmark 2:49:00

ほとんどのものを得ることができます。その通りです。Nick Bostromはこのことを実に見事に表現しています。火星での生命探査が否定的な結果になるたびに、私はこう思うでしょうか?私は「そうだ」と思います。

私たちが生き残れる確率は?そうですね。あなたはすでに大まかな議論をしていますね。しかし、それを解消するためには、次のようなことが必要です。重要なのは、私たちはすでに知っているということです。地球のような惑星は山のようにありますが、そのほとんどの惑星には生命体のようなものは存在していないようです。

では、何が間違っていたのか?生命が存在しない状態から宇宙に進出するまでには、明らかに進化に沿った一段階、少なくとも一つのフィルター障害があります。それはどこにあるのか?目の前にあるのか、それとも後ろにあるのか、どちらでしょう?もし後ろにフィルターがなくて、火星でいろんな種類の小さなネズミを見つけ続けているとしたら、どうでしょう?それは非常に気の毒なことです。なぜなら、フィルターが私たちの前にある可能性が高いからです。そして、実際に起こっていることは、究極のダークジョークのようなもので、文明が十分に強力な技術を発明するたびに、ただ時計をセットするだけで、しばらくすると何らかの理由でパッと消えてしまい、自分自身を消し去ってしまうというものなのです。

さて、もし私たちが実際に運命づけられているとしたら、それはとても気の毒なことではないでしょうか?一方で、もし、本当に、初期の段階で素晴らしいフィルターがあって、何らかの理由で、有性生殖する生物、あるいは最初の根茎などの段階に到達するのが本当に難しいことがわかったとしたら、どうでしょう?あるいは、恐竜や牛のいる惑星がたくさんあっても、何らかの理由でそこから抜け出せず、スマートフォンが発明されないこともあるでしょう。

これらはすべて、私たちの可能性を大きく高めるものです。なぜなら、過去に経験したことがあれば、それがどれほど困難であったか、あるいは可能性が低いものであったかは関係なく、私たちはすでにその障害を乗り越えたからです。そうすれば、自分たちの手にあるいくつかの理論も、運命ではないと思えるようになります。だからこそ、宇宙に生命が存在するのは珍しいという事実は、単に証拠があるというだけでなく、私たちが実際に希望を持つべきものだと思うのです。

Lex Fridman 2:51:26

これが、人生で議論してきた人間の文明の終わり、死亡率、死ですね。もしかしたら、どんな大きなフィルターを越えても繁栄するかもしれません。あなたは自分の死について考えますか?あなたが研究グループを率いて宇宙の最大の問題に取り組んでいるときに、その一部を目撃できないかもしれないと思うと悲しくなりませんか?実際、物理学とAIの両方の面で?私たちが話していたようなエキサイティングなことが実現するのを見られないかもしれないというのは悲しいですか?

Max Tegmark 2:52:00

もちろん、もちろん、自分が死ぬというのは最悪ですよ。昔、私がもっと若かった頃、父が「人生は基本的に悲劇的だ」と言っていたのを覚えています。そして、私もそのことを言っているのかもしれません。それから何年も経って、今になって父の言っていることがよくわかるような気がします。

私たちはとても小さな子供に育ちますが、すべてが無限にあるのです。それはとてもクールなことです。そして突然、実は彼は私たちをそこまで連れて行ってくれたのだと気づくのですが、これはある時点でゲームオーバーになる可能性があるということです。だからもちろん、それは悲しいことなんだ。怖いですか?いや、自分が死んだ後に何か恐ろしいことが起こるんじゃないかとか、そういう意味ではないよ。いや、本当にゲームオーバーになってしまうのではないかと思っています。それよりも、今こうして生きていられることが何と素晴らしいことなのかを痛感させられるのです。そして、人生を最大限に生きること、本当に楽しむことを常に意識させてくれます。人生は限りあるものですからね。

実際、私たちは身近な人が亡くなると定期的に思い出すのですが、いつかは自分が広告を出す番だと、このように考えています。不老不死の存在になると、どんな気分になるのでしょうか?人生の素晴らしいものを楽しむことが少し減ってしまうのではないでしょうか?ただ、それは

Lex Fridman 2:53:31

限りあるものではないのですから。人間が有限であるということは、バグではなく機能だと思いませんか?もしかしたら、人工知能システムのエンジニアリングにも、慎重さという教訓があるかもしれませんね。確かにそうだと思います。ピスタチオのアイスクリームがおいしいのは、あなたがいつか死ぬときに、食べられるだけのピスタチオのアイスクリームを食べられないという事実があるからではないでしょうか?その事実があるから?さて。

Max Tegmark 2:54:06

2つのことを言わせてください。まず第一に、あなたが言っていることは実際にとても深いです。私はピスタチオのアイスクリームをもっと評価していると思います。そして、そのような楽しみ方ができるのは、限られた回数しかありません。そして、過去に何度か見つけたことを思い出すことができるだけです。ましてや私の人生は、一般的に物事が繰り返されていると感じるようになるほど長くはありません。とても新しくて新鮮なのです。また、死は少し過大評価されていると思います。それは、物理学や人生とは何かについての、時代遅れの見解から来ているという意味でもあります。

というのも、もしあなたが「死ぬのは何なのか?まさに、私は何者なのでしょうか?自分が死ぬことを悲しく思うと言っても、この皮膚細胞が死ぬことを本当に悲しく思うでしょうか?この皮膚細胞が死んでしまうことが本当に悲しいでしょうか?もちろん、そうではありません。だって、どうせ来週には死んで、新しいのが生えてくるんでしょう?そして、私が本当の自分と関連付けているのは、私の細胞のどれでもないのです。また、私の原子や癖、電子のどれでもないのです。

実際には、基本的にすべての原子は定期的に交換されています。だから、より現代物理学的な観点から見て、本当の私とは何かというと、処理中の炎症が私に与えてくれたものです。

私の記憶、私の価値観、私の夢、私の情熱、私の愛……それこそが、本当の意味での私なのです。そして、率直に言って、そのすべてが死ぬわけではありません。

例えば、リチャード・ファインマンのように、私の肉体が死んだとき。彼の体は癌で亡くなりましたが、彼が自分らしいと感じた彼のアイデアの多くは、実際に生き続けています。

これは、リチャード・ファインマンへの私なりのささやかなトリビュートです。今日は彼の言葉を引用しましたね。

Lex Fridman 2:56:09

ええ、この会話の中で、彼はほんの一瞬だけ生き返りました。

Max Tegmark 2:56:13

そうですね。これは正直なところ、私の心の支えになっています。私は教師として働いていますが、もし私が自分のことを少しでも共有できれば、生徒たちは真似をする価値があると感じ、彼らが知っていることや、信じていること、憧れていることの一部を採用することができると感じています。

私は彼らの中に少しだけ生きているのです。教師であることは、私を少しだけ人間らしくなくしてくれるものでもあるのです。私たちが尊敬していなかった人々への美しい賛辞は、もし私たちが彼らのことを覚えていて、彼らについて最も素晴らしいと感じたことを私たちの中に持ち続けることができれば、彼らは生き続けることができると思います。少し感情的になってしまいましたが、あなたが提起したとても美しいアイデアです。

私たちはこの古い時代の物質主義をやめて、私たちが誰であるかをクォークや電子と同一視すべきだと思います。さて。それには科学的な根拠はありません。それに、とても刺激的ではありません。

さて、少し未来に目を向けてみると、人間が死ぬことで本当に嫌なことのひとつは、彼らの教えや記憶、物語、倫理観などの一部が周囲の人々にコピーされることではないでしょうか?願わくば、多くのものはコピーされずに、脳の中で一緒に死んでいってほしいものです。それが、私たちが悲劇的だと感じる根本的な理由なのです。すべての情報を持っていた人が、ただの廃墟になってしまうのですからね。ポスト生物学的な知性があれば、それは大きく変化するでしょう?脳のバックアップを完全な形で作るのが難しいのは、まさにそのために作られていないからですよね?未来の機械知性があれば、それが死ななければならない理由はまったくありません。

もしそれがアップしたいと思えば、コピーしたいと思えば、何であれそれを他のQuark blobにコピーすることができますよね?誰かにコピーするのではなく、そのすべてをコピーすることができるのですよね。そういう意味では、個々の個体からすべての情報をコピーすることができるので、不死を得ることができます。ポスト生物学的な生命が増えれば、変わるのは死亡率だけではありません。また、私たちが今持っている個人全体、個人主義全体にも大きな影響を与えると思います。

私とあなたの間にこれほど大きな違いがあるのは、私たちがコピーできる範囲が少し限られているからです。例えば、私はこのようにして、あなたのロシア語のスキル、ロシア語を話すスキルをコピーしたいと思います。

それは素晴らしいことだと思いませんか?私にはできません。でも、もし私たちがロボットで、自由にコピー&ペーストするだけだったら、不老不死という感覚が完全に失われてしまいますし、個性も少し失われてしまいますよね?そうなると、不老不死とは何か、個性とは何か、といったことがすっかり失われてしまいます。

もし私たちが、「俺の米をお前にやるよ。私はスウェーデン語を話すことができますし、それはあなたにとって悪い取引ではないでしょう。しかし、彼が私の脳から欲しいものは何でも、ですね?そうだね。ハイブマインドについてのSFストーリーはたくさんありますが、そこでは人々の経験がより広く共有されています。

私たちは、超知的な機械になったらどんな感じがするのか、わからないと思っています。しかし、機械が死や個性についてどう感じるかは、私たちにとってのそれとは全く異なるものになると確信しています。

Lex Fridman 3:00:26

さて、私たちにとって、死と有限性は、この特定の瞬間にかなり重要であると思われます。そして、すべての良いことには終わりがあります。この会話のように、仮に世界最悪の医師であったとしても、私は永遠にあなたと話すことができます。

あなたが地球上で私と一緒に時間を過ごしてくれることはとても名誉なことです。基本的に、最初の会話をすることで私にこのポッドキャストを始めさせてくれたこと、会話そのものに恋していることを気づかせてくれたことに、とても感謝しています。そして、あなたの本、研究、会話、そして、イーロンをはじめとする友人たちの波及効果のように、世界中の多くの人々にインスピレーションを与えてくれて、本当にありがとうございます。

私に話してくれて、本当にありがとう。

Max Tegmark 3:01:18

ありがとうございます。あなたがこのポッドキャストをやってくれて、たくさんの面白い声を世に送り出してくれて、5秒の音声だけでなく、私が見た多くのインタビューでは、今の時代に切実に必要とされている方法で、人々を深く掘り下げてくれて、私が1位になったことを光栄に思っています。

Lex Fridman 3:01:41

ええ、あなたが始めました。本当にありがとうございました。ありがとうございました。スポンサーに感謝します ジョーダン・ハービンジャー・ショーに SIG Matic マッシュルーム・コーヒー、ベター・ヘルプ・オンライン・セラピー、エクスプレスVPNを提供していただきました。選択肢は知恵、カフェイン、正気、またはプライバシーです。賢い選択をしてください、私の友人たちよ。

もし望むなら、下のスポンサーリンクをクリックして割引を受け、このポッドキャストをサポートしてください。それでは、Max Tegmarkの言葉をご紹介します。意識が、情報がある方法で処理されたときに感じるものであるならば、それは基板に依存しないものでなければならない。情報を処理する物質の構造が問題なのであって、情報を処理する物質の構造が問題なのではありません。ご清聴ありがとうございました。また次回お会いしましょう。