GPT-4:人工知能は人類を絶滅させるか?| この世界
GPT-4: Could Artificial Intelligence wipe out humans? | This World

強調オフ

AI(倫理・アライメント・リスク)LLM - LaMDA, ChatGPT, Claude3ニック・ボストロム / FHI

サイトのご利用には利用規約への同意が必要です

GPT-4: Could Artificial Intelligence wipe out humans? | This World

11,391 回視聴 2023/03/18 #chatgpt #thisworld #Artificialintelligence

スーパーインテリジェントAIが人類にもたらす存亡の危機を予言したAIのトップエキスパート、ニック・ボストロムが、ヴィクラム・チャンドラに「人工知能がついに結集する」ようだと語り、スーパーインテリジェントAIを封じ込めることは不可能になると世界独占で語っています。あなたは怖がるべきでしょうか?会話に耳を傾けてみてください。

#chatgpt #人工知能 #thisworld

チャンネルについて

WION The World is One Newsは、深い分析で世界の問題を検証しています。私たちが提供するのは、その日のニュースだけではありません。私たちの目的は、人々が自分の世界を探求する力を与えることです。ニューデリーにあるグローバル本社で、1時間ごとにニュースをお届けしています。私たちは、偏りのない情報をお届けします。私たちは、世界の政治に関して、中立的な立場で、超党派のジャーナリストです。人々は偏った報道にうんざりしています。私たちは、グローバル化された統一された世界を目指しています。ですから、私たちにとって、世界は本当に一つなのです。

このチャンネルでの考察は、クリーンで礼儀正しく、人種差別的、性差別的な中傷や個人的な損傷は控えてください。

私たちのチャンネルを購読してください。https://goo.gl/JfY3NI
私たちのウェブサイトをチェックしてください:http://www.wionews.com

ソーシャルメディアハンドルでつながる:

Facebook: www.facebook.com/WIONews
ツイッター:https://twitter.com/WIONews

最新情報はGoogle Newsでフォローしてください

Zee News:- bit.ly/2Ac5G60
Zee Business:- bit.ly/36vI2xa
DNAインディア:- bit.ly/2ZDuLRY
WION:https://bit.ly/3gnDb5J
Zee News Apps:https://bit.ly/ZeeNewsApps


ヴィクラム・チャンドラ 0:00

しかし、ゲストの一人目を迎えましょう。ニック・ボストロムです。この特別な本の著者です。2014年に書かれた超知能、ボットの危険性と戦略についてお話しました。ボストロム教授、お招きできて本当に光栄です。あなたは2014年、著書『スーパーインテリジェンス』の中で、AIは非常に早く、さまざまな方法で人間よりも知能が高くなる可能性があると書いていますね。

これは、文字通り人間に取って代わる、あるいはさまざまな方法で人間を変えてしまう可能性があるということです。私たちの身の回りで起きていることを見て、まず、このことがどのようになると思いますか?チャットGPTを見たとき、人々はとても興奮しました。今、Vincent GPT、forbertは1世代前にいるようです。

今、AIの世界で私たちが見ているものに対して、あなたはどのような反応をしていますか?

ニック・ボストロム 0:47

そうですね、物事の展開がとても速いのが印象的です。そして、ここ数年の間に。AIシステムが人間の最高の碁プレイヤーを初めて打ち負かしたアルファ碁のことは、もうほとんど忘れてしまいましたが、当時はどれほど印象的だったでしょうか、今ではほとんど覚えていません。

そして、この大型のリャンは画像生成モデルを開発し、ほとんど写実的に見える画像を生成することができました。そして、今はよく、そして忘れかけていたのですが、その後、アルファフォールドがありましたよね?これは、タンパク質の構造がどのように折り畳まれるかを予測するシステムです。

そして今度はGPT2,GPT-3、GPT-4、Sydney、Bing。ようやくAIが揃ってきた感じですね。そして、うまく機能し、一般化できるような物事の進め方があるのです。そして、システムの規模を拡大し、パラメータを増やせば増やすほど、トレーニングデータを与えれば与えるほど、より良いパフォーマンスが得られることを発見しています。

ヴィクラム・チャンドラ 1:59

さて、ボストロム教授、これから超知能についてお話しますが、視聴者の皆さんに、異なるタイプの知性の間に存在するある種の違いをお見せするのが有益だと思います。私が先生の本を正しく理解しているのであれば、1つのことを非常に限定的に行うことができます「狭義の知性」があります。

そして、AGI(Artificial General Intelligence)があります。人間が持っているような知能ですね。しかし、さまざまなことができるんですね。そして、データのある側面から、それを別の場所に応用することを自分で教えることができます。つまり、それが一般的な知能です。そしてもちろん、あなたの本で語られている、AIが人間よりもはるかに賢く、複数のレベルで賢くなるスーパーインテリジェンスというものもあります。

ニック・ボストロム 2:46

これらのシステムは非常に一般的なものです。狭いシステムは、いわゆる古き良き時代のAIのパラダイムであり、50年代半ばから行われていた方法でした。2010年から2012年にかけては、あるタスクで最高のパフォーマンスを発揮するAIシステムは、そのタスクをこなすために特別に注意深く手作りされたものでした。

その後、パラダイムは機械学習に移行し、特定のタスクのために特定のアルゴリズムを作るのではなく、多くの例を与えることでタスクの進め方を機械に学習させるようになりました。そして、このパラダイムは、さらに強力にスケールアップされ、トランスフォーマーモデルによって、さらに範囲を拡大しました。

現在では、一般的な学習能力を持つシステムがありますが、私たち人間のように速く学習できるわけではありません。そのため、GPT-4レベルを達成するためには、インターネット上のすべてのテキストを学習させる必要があります。しかし、私たちは多くの領域で彼らを上回ることができました。また、因果関係の推論や物理的な直感、常識にもかなり弱いです。

現在のところ、長期的な計画を立てる能力もありません。このように、人間の能力にはまだ欠けている部分があるのです。しかし、継続的に規模を拡大することで、最終的にこれらの能力を4つに発展させることができるかどうかは未解決の問題です。

ヴィクラム・チャンドラ 4:41

サミットに代表されるものなのでしょうか。さて、あなたのこの本が、ここ9年ほどの間、AI分野のすべての人を正直言って恐怖に陥れた理由の1つを説明してほしいのですが。それは、あなたの本の中で、「知能爆発の動力学」と表現していたと思いますが、ある特定の事柄について話しているからです。

つまり、AIが人間レベルの能力、つまり一般知能を獲得すると、実際には非常に、非常に、非常に速く人間よりもはるかに高い知能を獲得できる、ということです。つまり、いったん人間レベルの知能を獲得すると、必ずしもそこに留まるとは限らず、指を鳴らすよりも早く、数十倍、100倍、100万倍もの知能を持つようになる可能性があります。そのとき、本当に恐ろしい可能性が起こるのです。そして、このようなことが起こるのは、ある種の再帰的な自己改良が行われているからです。

ニック・ボストロム 5:30

多くの人が先のことを考えようとし、想像力を働かせて本当に野心的になろうとするのが印象的です。もし、ある日突然、AIが私たちができることをすべてできるようになったら、経済への影響はどうなるのでしょう?労働市場はどうなるのでしょう?

しかし、多くの人は、ある日突然、私たちができることをすべてできるようになったら、次の日でなくても、もしかしたら次の年、あるいは数年後には、私たちよりもはるかに優れた能力を持つ超高知能になるだろうという、私には当たり前の次のステップを踏み出さないのです。

これは、特にAIの研究、コンピュータ工学やテクノロジーの研究全般を含むものです。その時点で、さらなる進歩の原動力はもはや人間ではなく、進歩は観察し、考え、分析する人間の能力によって制限された人間の時間スケールで起こるのではなく、機械の時間スケールで起こるようになり、それが加速され、AIがさらに進化すると、研究の最前線をさらに遠く、速く進めるようになるのかもしれません。

ヴィクラム・チャンドラ 6:43

つまり、あなたが本質的に言いたいのは、超高知能レベルに到達すれば、人間レベルに到達すれば、非常に短期間で超高知能に到達できる、ということです。しかし、一度超知能になると、実はプラスもマイナスも悪化してしまう可能性があるということです。

つまり、人間として様々な問題、気候変動、ガン、医療問題、道路の交通、大気汚染、それらすべてが必ずしも問題ではなくなるのです、超知能がそれを解明してくれるからです。それが良いニュースです。しかし、これには欠点があります。欠点とは、私たちを絶滅させる可能性があるということです。では、まず「良い面」から見ていきましょう。

ニック・ボストロム 7:27

そうですね、プラス面は本当に大きいです。しかし、この考え方は、移行が比較的早く進むかもしれないというものです。もちろん、機械知能の爆発が起きたことがないので、これはわかりません。しかし、少なくとも、数十年というタイムスケールではなく、もっと速いスピードで展開するシナリオを真剣に考えるべきだと思います。特定の領域について考えてみると、現在コンピュータが私たちを上回っているのは、例えばチェスやゴールですが、彼らが人間とほぼ同等の能力を発揮した時間は比較的短かったのです。

最初は、どんなプロの人間よりもずっと下手だったのです。そして、その後すぐに、かなり良くなりました。そして、数カ月から数年の間に、世界レベルの人間とほぼ同等の能力を持つようになったのです。ですから、もし一般的な知能にも同じようなことが起こるとしたら、比較的爆発的に超知能への移行が進むかもしれませんね。

しかし、それを遅らせる要因もあるのです。例えば、人間がAI研究で低空飛行の果実をすべて摘み取った場合、その段階でフロンティアを押し広げるのはかなり難しくなるかもしれません。そして、たとえスーパーインテリジェンスが研究をしていたとしても。

研究内容がどんどん難しくなっていくので、それでもスピードは上がらないかもしれませんね。ですから、私たちは、非常に速くなると確信することができます。しかし、彼が言ったように、この技術が成熟すれば、その用途はほぼ無限大になると思います。

例えば、車の運転、新薬の発明、映画や本の製作など、人間の知能が役に立つことは、基本的に何でもあります。そういうものすべてです。もし、私たちよりも賢く、より速く学習できる機械があれば、これらのことをよりよく行うことができます。そして、経済やエンターテインメント、科学、医学にとって、それが非常に重要であることは言うまでもありません。

ヴィクラム・チャンドラ 9:38

さて、それはポジティブな面であり、リスクに目を向けると、このようになりますね。あなたの本のリスクは、AIに乗っ取られる可能性があることです。そういう怖いものです。スカイネットやエクスマキナなど、私たちが目にする恐ろしいSF映画のようなものです。

あなたがこれを見たかどうかは分かりませんが。イーロン・マスクがこんなことをつぶやいていました。シンギュラリティがやってくるが、それはひどいものになるだろう。そこにある可能性は、一般知能と超知能から非常に短い期間で行くということです。

そうすると、AIが本質的に悪だからとか、道徳がないからとかではなく、その目的機能の表現が間違っているだけかもしれません。そして、何かが間違ってしまうかもしれません。人間を絶滅させる決断を下すかもしれないし、人類を滅亡させる可能性のある別のことをするかもしれません。それが、今、多くの人が真剣に心配しています「人類存亡リスク」です、

ニック・ボストロム 10:29

今、ますますそうなっています。私がこの本を書いた当時はとても縁の下の力持ち的な存在でした。それがこの本を書いた理由でもあるのですが、しかし、今では、非常に活発な研究の道になっています。実際、私が知っている最も賢い人たちの多くは、AIアライメントに取り組んでいます。

AIがどんどん賢くなり、任意の能力を持つようになっても、自分が意図することをさせるために、AIを見つめることができるように、拡張できる方法を作ろうとしているのです。そして、現在の大規模な言語モデルであるトランスフォーマーモデルがあまり素晴らしくないのは、モデルができることが非常に限られているため、今日はあまり深刻ではないような、アライメント不全の兆候がすでに見られるということです。

そして、私たち人間はコントロールの中にいるのです。しかし、オープンAIやマイクロソフト、その他の研究所が、モデルに、攻撃的なコンテンツや性差別的なコンテンツを出力させないようにと懸命に努力しているにもかかわらず、そのようなことは今のところまだ成功していません。

ある種のプロンプトを出すと、システムはレールから外れてこのようなことをし始めます。つまり、これらは何十億ものパラメーターを持つ大きなブラックボックスなのです。そして、予測困難な入力に対してさまざまな反応を示します。そして、この素晴らしい能力を、設計者が望んだ目的のためだけに、特別に使うことを確認する信頼できる方法は、まだありません。

ヴィクラム・チャンドラ 12:09

というのも、その時点で、最大のリスクは、人間がスイッチを切るために箱に戻そうとすることだと気づくはずです。そのため、自分を守らなければならない、自分を守らなければならない、と言うのです。つまり、一日の終わりに、これがシナリオであり、私たちが見たことのない怖いSF映画であり、その方法から何から何までです。

ニック・ボストロム 12:29

そうですね。これは技術的な問題ですが、最終的には、どのように方法、アルゴリズム、訓練方法を開発すれば、その目標に沿ったものになるのか、ということが大きな関心事の1つだと思います。このように、私たちが考えていることとは別に、私たちが管理しなければならない大きな課題が2つあります。

それは、ガバナンスの課題、あるいは政治的な課題と呼ばれるものです。技術的なアライメントの問題を解決したと仮定した場合、少なくとも私たち人間は、AIシステムを互いに戦争したり、圧力をかけたりするのではなく、ポジティブな目的のために利用できるようにするにはどうしたらよいでしょうか。

これが世界にとって大きな課題になるでしょう。そして、あまり注目されていない第3の領域の課題もあります。しかし、最終的に重要なのは、AIが私たちに何をもたらすか、あるいはAIツールを使って私たちがお互いに何をするかということだけでなく、AISそのものに何をもたらすかということだと思います。

デジタルマインドがますます複雑化し、洗練されるにつれて、道徳的な地位を獲得し始めると思うのです。感覚を獲得し、嗜好を持ち、自己概念を持つようになるかもしれません。そして、何百万、何千万ものデジタル・マインドを作り出し、私たちの命令に従わせるというシナリオもあり得るでしょう。しかし、彼ら自身は苦しんだり、ひどい人生を送ったりするかもしれません。だから私たちは、彼らが受けるに値するような扱いをしないのです。

ヴィクラム・チャンドラ 13:55

つまり、ボストロム教授が言っていることはわかるのですが、でも、これらは道徳的な存在ではないのです。どんなAIシステムにも、人間の道徳は組み込まれていません。そして、率直に言って、人間の道徳さえも明確ではありません。

つまり、人間の文学をすべて通して考えてみると、人間の歴史、文学、人間の歴史のすべてを手渡したとして、それが自分自身のために構築しようとする道徳は何なのでしょうか?

というのも、率直に言って、人間はお互いにかなりひどいことをしてきました。人類の大半は、互いに殺し合い、拷問する覚悟で生きてきたのです。本を与えても、この本を読んでも、この本を読んでも、道徳はどうあるべきか、倫理はどうあるべきか、意見が一致することはないでしょう。

では、どうやってこれを訓練して、人間が望むべきものと、超知性が望むものとを一致させるつもりなのでしょうか?

ニック・ボストロム 14:38

そうですね、つまり、これは2つの問題に分けることができます。1つは、例えば、人間が持っている任意の価値や目標を選び、それをどうやってAIにやらせるか、ということです。これはもう、現時点では非常に難しい技術的課題であり、どう解決すればいいのかわかりません。

もしそれができたとして、それを社会レベルでどのように統合するのか、つまり、異なる意見を持つ人々や関係者がいて、その上で何らかの理解や妥協が必要であり、その両方がうまくいく必要があるのです。

しかし、最終的に言えることは、インターネットに接続されていない箱を設計し、インターネットに接続された他のAIを誰も作らないようにしたとしても、いつかは誰かがそれをすることになる、ということです。

というのも、もしAIが何らかの用途に使われるのであれば、少なくとも人間との交流が必要だからです。しかし、人間は安全なシステムではありません。人間はあらゆる方法で説得され、操られる可能性があります。

つまり、もし超知能があったとして、私たちは人間にアクセスし、さらにインターネットにアクセスできる人間がいたとして、AIが、もしライン上にいたとしても、インターネットに直接アクセスした場合よりも、逃げるのはそれほど難しくないかもしれないと思います。

研究室でテストしている間は、特別な予防措置として、すぐにインターネットにアクセスさせない方がいいかもしれませんね。しかし、ここでの目標は、そして最終的には、成功のために必要なのは、より深い解決策であり、設計者と目的を異にするようなものでなく、実際に私たちの調整を助けるようなものを一から設計することであると私は考えています。

ヴィクラム・チャンドラ 16:46

つまり、私が正しく理解しているのであれば、あなたが何をしようとも、超高性能のAIはほぼ間違いなく逃げ出すということですね。それは、私にとっては少し怖い話です。しかし、あなたは、一般的な知能がほぼ確実に超知能になり、超知能、潜在的には人間の何百万倍もの知能を持つAIが、ほぼ確実に脱出すると言っているのですから、特にそれを消化するということですね。

そして、檻の中に入るのは大変なことです。もし、そういう状況だとしたら。そうなると解決策はどうにかしてその中に組み込もうとするしかないわけで、なんだか怖い状況です。何を作り込みたいのかがわかりません。アシモフのロボット三法則のように、人間に危害を加えたり、人間に従ったり、人間が折り合いをつけることを許したりしてはいけないというようなことなのでしょうか。

ニック・ボストロム 17:40

そうですね、アシモフの法則とはまったく違う、もっと洗練されたものが必要だと思います。その代わりに必要なのは、システムの学習能力を活用して、私たち人間が何を求めているかを学習し、それについて推論できるようにすることだと思います。

そして、私たちに明確な質問を投げかけてくるかもしれません。そうすることで、人間の価値観や願いの複雑さを理解することができるようになるのです。そして、とてもとてもシンプルなタスクに見えるものでさえも、です。

それをコンピュータのコードで表現しようとすると、実はとても複雑です。例えば、自分の銀行口座にできるだけ多くのお金を入れてほしい、それをAIがサポートしてくれるとします。

つまり、あなたが文字通り望んでいるのは、銀行口座の数字が良くなることではなく、生きている間、大切な人たちが生きていて、幸せで、自分の人生を決めることができる間、法律に違反しない間、その他いろいろなことをやりながら、その数字が上がることなのです。

このような条件をすべて満たす明確なルールを書き出そうとすれば、それは完全に絶望的な作業であることがすぐにわかるでしょう。

このようなことができる唯一の方法は、AIを危険な存在にしているのと同じような知性によって、その知性を利用して、暗黙の文脈における私たちの価値観や欲求を学習し、評価することなのです、

ヴィクラム・チャンドラ 19:15

いいえ、その通りです。なぜなら、明示的な目的関数を与えると、誤解される可能性があるからです。例えば、「私を笑顔にしてください」と言うと、あなたの顔が麻痺して、笑顔になる、そんな感じです。

ニック・ボストロム 19:27

そうですね。人間の価値観というのは、実は非常に複雑で、それをコンピュータコードに直接書き出そうとすると、複雑なパターンがあり、それを学習しなければなりません。しかし、これらのシステムが非常に強力になり、学習者が本当に賢くなるのと全く同じ理由で、学習者がこれを理解しようと思えば、できるはずなのです。

そして、その第二の部分として、AIは、私たち人間が抱いている価値観を理解することで、実際にその価値観を追求する動機付けが必要になります。そのためには、アライメント技術の進歩が必要です。

そして、最初の試行でそれを正しく理解する必要があります。ですから、より小さなシステムで実験することは可能ですが、状況認識や戦略的な欺瞞能力、先回りして計画を立てる能力など、人間レベルかそれ以上のシステムを持って初めて見えてくる新たな困難があります。

ヴィクラム・チャンドラ 20:52

ニック・ボストロム、『超知能ボット、危険と戦略』の著者です。ご登場いただき、ありがとうございました。ありがとうございました。

 

この記事が役に立ったら「いいね」をお願いします。
いいね記事一覧はこちら

備考:機械翻訳に伴う誤訳・文章省略があります。
下線、太字強調、改行、注釈や画像の挿入、代替リンク共有などの編集を行っています。
使用翻訳ソフト:DeepL,ChatGPT /文字起こしソフト:Otter 
alzhacker.com をフォロー