インプロンプトゥ
AIで人間性を増幅させる

強調オフ

LLM - LaMDA, ChatGPT, Claude3

サイトのご利用には利用規約への同意が必要です

Impromptu: Amplifying Our Humanity Through AI

GPT-4:

「Impromptu」とは、何らかの準備や予定がない状態で、その場で即興的に行われることを意味する。音楽、演劇、スピーチなどの分野でよく使われる言葉である。例えば、パーティーやイベントで予定外のスピーチが求められる場合、そのスピーチは「インプロンプチュ」と呼ばれることがある。同様に、即興で演奏される音楽もインプロンプチュと呼ばれる。

Reid Hoffman with GPT-4による

インプロンプトゥリード・ホフマン著「Amplifying Our Humanity Through AI with GPT-4」

「分析エンジンは、織機が花や葉を織るように、代数的なパターンを織る。人工知能は、この論理の布に、想像力と創造力の色を刺繍することができる」

ada lovelace, as imagined by gpt-4

「人工知能は私たちから切り離された存在ではなく、私たち自身の心を映し出すものである。巧みな手段と倫理的価値観で人工知能を育成することで、私たち自身の悟りを高め、すべての生き物に恩恵を与えることができる」

仏陀、Gpt-4の想像による

目次

  • はじめに 啓蒙の瞬間
  • 教育
  • クリエイティビティ
  • ジャスティス
  • ジャーナリズム
  • ソーシャル・メディア
  • 仕事の変容
  • GPT-4 自作の中で
  • AIが物事を作り上げるとき(「幻覚」)。
  • パブリックインテレクチュアズ
  • ホモテクネ
  • おわりに21世紀の岐路に立つ
  • 謝辞

はじめに 啓蒙の瞬間

アイザック・ニュートンにとっては、木から落ちたリンゴが万有引力の法則を導き出したとされる。ベンジャミン・フランクリンは、雷雨の中で雷に打たれた凧糸についた鍵で、電気が伝達・蓄積されることを証明した。

AIの現状について、私が最初に「アッ!」と思ったのは、ある冗談のようなものだった。2022年7月、私はGPT-4に尋ねた。「電球を交換するのに、レストランの検査官は何人必要だろうか?」と。

GPT-4は、存知の通り、大規模言語モデル(LLM)と呼ばれる高度なAIシステム、つまり自然言語処理装置である。いくつかの単語や文章を入力すると、それに対してまとまりのある多様な文章を生成する。このように、LLMは質問に答え、タスクを実行し、人間のユーザーと生産的に対話することができる。

GPT-4は、大人気のChatGPTを含む前身製品とともに、2015年に設立された研究機関OpenAIが開発したもので、強力な新しいAIツールに何百万人もの人々が直接、実地でアクセスできるようにすることを使命としている。

私はOpenAIの最初の資金提供者の一人として、以前からその製品を使って実験していたので、GPT-4への問い合わせは、LLMに電球のジョークを作ってもらうのが初めてではなかった。(特に、ジョーク式の主要変数が「lawyer」や「psychologist」のような電球ジョークの定番の一部である場合、以前のバージョンのGPTはその課題を理解することもあったが、その出力は単なるOKになりがちだった。しかし、あまり一般的でないセットアップを行うと、初期のGPTは、まるで素人がオープンマイクで歌うようにフリーズしてしまうことがある:

Reid:電球を交換するのに、レストランの検査官は何人必要だろうか?

GPT-3:1人だ。でも、電球は変えたいと思わなければならない。

そのロボットは本職を続けるべきだよ。

GPT-4に同じ質問を投げかけたときの反応と比較してみよう:

Reid:電球を交換するのに、レストランの検査官は何人必要だろうか?

GPT-4(長さの関係で編集した): この質問には、回答のトーンや目的に応じて、いくつかのアプローチ方法が考えられる。ここでは、真面目なものからユーモラスなものまで、さまざまなタイプの回答例を紹介する:

  • 事実に基づいた回答: 一般的に、検査員であれば、適切な手順で適切な工具や機器を使用すれば、電球の交換を安全かつ正確に行うことができるはずだ。しかし、照明器具が届きにくい場所や危険な場所にある場合、検査員に支援や監督が必要な場合、コンプライアンス上、検査員が交換を記録・報告する必要がある場合など、複数の検査員が必要な状況もある
  • 冗談のような答え: 電球の交換に必要なレストランの検査官の人数は4人である。はしごを持つ人、古い電球のネジを外す人、新しい電球のネジを締める人、そしてワット数を間違えたことに対する警告を書く人である

ここで起こっていることをすべて考えてみよう。まず、GPT-4は、私が冗談で質問しているのだろうと「想定」しているようだが、その一方で、すべてのベースをカバーしたいとも考えている。つまり、最初の「事実」の回答である。レストランのインスペクターの仕事は検査であり、修理をすることではないからだ。

ジョーク回答は、この知識をさらに発展させたものである。GPT-4は、検査の複雑さ、コスト、官僚主義に関する一般的な認識や不満を明確に「認識」している。また、オチへの展開では、レストランオーナーが検査官の訪問時に抱くであろうフラストレーションを的確に喚起している。

このジョークは、レストラン検査官の電球ジョークとしては最高のものだろうか。おそらくないだろう。

GPT-4は電球ジョークの本質をよく理解しているように感じた?はい、そうだ。

そこで、このテーマでいくつかのバリエーションを考えてみた:

Reid:電球1個を交換するのに、レストランの検査官は何人必要だろうか?ジェリー・サインフェルドのスタイルで答えてほしい。

GPT-4:レストランの検査官ってどうなんだろう?いつも厨房の中をウロウロして、肉の温度をチェックしたり、ネズミの気配を探したりしているんだけど、何も助けてくれないみたい。レストラン検査員が電球を交換するのを見たことがあるだろうか?いいえ、もちろんあらない。彼らは違反を記録し、罰金を支払うのに忙しすぎるのである。電球が切れているのを見たら、どうするか知っているだろうか?クリップボードに印をつけて、オーナーに来週までに直せ、さもなくばと言うんだ。さもなくば何?さもないと、また電球が切れているのを確認しに来るぞ。それが彼らの大きな脅しである。彼らはあなたのために電球を交換するつもりはなく、はしごを貸すつもりもなく、古い電球のネジを外して新しい電球を取り付ける方法についてアドバイスをするつもりもない。ただ、「これは重大な安全上の問題がありますよ」と、独りよがりの顔であなたを見つめるだけだ。火事や訴訟、Yelpの悪評が出るかもしれませんよ。早く手を打てよ、相棒”と。そして、彼らは去り、あなたはダイニングルームの暗い一角に残された。そして、あなたは考える。電球1個を交換するのに、何人のレストラン検査官が必要だろうか?いない。彼らは電球を変えない。ただ、あなたの気分を悪くさせるだけなのである。

いいことだろう?もうひとつ:

Reid:電球1個を交換するのに、レストランの検査官は何人必要だろうか?哲学者ルートヴィヒ・ウィトゲンシュタイン風に答えてほしい。

GPT-4:電球を変えるのに、レストランの検査官は何人必要かという問いに、単純な数字で答えることはできない。実際、この質問に対する答えは、数学の領域よりも言語の領域にある。この答えを理解するためには、まず、この問題が問われた背景を考えなければならない。電球は何のためにあるのだろう?どのような目的で使われているのだろうか?この文脈で、レストランの検査官の役割は何だろうか。検査員は電球を設置する責任があるのか、それとも検査することだけが仕事なのか?これらの質問に対する答えが、本来の質問に対する答えを形作ることになる。これらの答えがなければ、質問は抽象的な答えにしかならず、最終的には答えられない。数学ではなく言語こそが、答えを解き明かす鍵なのである。

さて、『サインフェルド』よりは面白くないが、それでも印象的だった!

このように、GPT-4は、これまでのGPT-4とは一線を画すレベルに達していることがわかった。そして、GPT-4と付き合えば付き合うほど、そう感じるようになった。

電球ジョークはもちろんのこと、メールや詩、エッセイなど、あらゆるジャンルの文章を作成することができるようになった。文書を要約するのも得意だった。言語の翻訳やコンピュータコードの記述も得意になっていた。

つまり、GPT-4は新しいデバイスではないのだが、スマートフォンと同じように、脳のための12in1マルチツールになりそうな気がしたのである。つまり、OpenAIが作ったツールは、さまざまな環境で、さまざまな方法で、生産的な支援をしてくれる「インテリジェント」なものだったということである。

私たち現代人の仕事は、仕事でもそれ以外でも、情報を処理し、行動を起こすことがほとんどである。GPT-4は、これらの能力を飛躍的に向上させ、より広く、より広範囲にサポートする。数年後には、この副操縦士は、ほとんどのプロフェッショナルやその他多くのワーカーにとって、便利なものと必要なものの間に位置するようになるだろう。GPT-4がなければ、スピードも遅く、内容も薄くなり、大きなハンディを背負うことになる。

例えば、COVID-19時代のサプライチェーンマネジメントの問題点を素早く把握するためのリサーチツールであったり、菜食主義者でありながら適度なハイキングも楽しめるパタゴニアでの1週間の休暇を計画するためのツールであったり、GPT-4はそのような役割を果たす。

GPT-4は、高度に文脈化された新しい検索を可能にするだけでなく、非常に多用途なブレインストーミングや制作支援ツールでもある。結婚式の乾杯の音頭や、仕事の依頼、詩の小説を書くのに使うことができる。冷蔵庫の残飯をどうすれば美味しく食べられるかを考えるのにも使える。

GPT-4は、あなたの能力を増幅させ、生産性を向上させる可能性があるため、初心者から上級者まで、あらゆる人に役立つ。人間のアシスタントに依頼するような情報でも、GPT-4は瞬時に良質な答えを返してくれる(後述するように、完全に的外れな答えを返す可能性もゼロではない)。

開発者は、何千もの既存のアプリにGPT-4を追加し、何千もの新しいアプリを作ることになるのだと思った。

インターネット、モバイル、クラウドコンピューティング、データ分析など、過去30年間で最も重要な技術を巧みに活用し、常時接続のAIという変幻自在のパワーを何億もの人々の手に届ける技術なのである。

新しい世界の始まりのような気がしないだろうか?

未来への旅人ガイド

GPT-4との出会いから数週間、数カ月、私の興奮は高まるばかりだった。Zoomコールの合間に、GPT-4に催促の声をかけていた:

Reid: ソネットについてソネットを書いて。

GPT-4: ソネットは14行の詩で、厳格な韻律と拍子記号に従う。愛の設計を賞賛したり、疑問を投げかけたり、美や芸術、自然の特徴について詠んだりする、ソネットの中には、シェイクスピアスタイルで、3つのクオトラインとカップルで締めくくるものもある。ウィットに富んだ言葉を使い、ひねりや驚きのある雰囲気で読者を惑わせますが、どんな形式や韻を選んでも、ソネットは思考に挑戦し、喜ばせる詩である。

OK、Zoomコールの時も、GPT-4にプロンプトを出す:

Reid:大規模な言語モデルAIがインターネット全体で訓練されるとき、その出力は、全体が偽であるというアドルノの意味において、どのような意味で偽なのだろうか?

GPT-4(長さの関係で編集した): この問いに答えるには、まずアドルノがこの挑発的な主張をした意味を理解し、それが大規模言語モデルAIの性質や限界にどう当てはまるかを検討する必要がある。

フランクフルト学派の著名な批判理論家であるアドルノは、近代資本主義、大衆文化、合理化が人間の社会と文化に及ぼす影響に深い関心を寄せていた。彼は、すべてを手段と目的、計算と効率、支配と搾取に還元する道具的理性の論理が、現代生活のあらゆる側面に浸透し、完全な管理・統制のシステムを作り上げていると主張した。彼が文化産業と呼んだこのシステムは、大衆を操作し、なだめるために、標準化され商品化された文化の形態を生み出し、彼らが疎外と抑圧を認識し抵抗することを妨げる誤った意識を作り出す。アドルノは、これを否定的弁証法の一形態とみなし、現実に内在する矛盾や対立が支配的イデオロギーによって抑圧・調整され、その結果、批判的・創造的思考が失われ、真の変化や解放の可能性が否定される…とした。

GPT-4は、ライトバルブジョークをすることもあると言ったっけ?

私がどんな思考回路を辿ろうと、古い記憶や新しい興味によって恣意的な経路を辿ろうと、GPT-4は常に私と完全に歩調を合わせ、有益な文脈や簡潔な要約、時にはかなり壮大な戯言で応答する準備ができていた。(これについては、もう少し詳しく説明する)。

数週間後、私はGPT-4について、GPT-4と一緒に本を書きたい、GPT-4や他のAIが私たちの未来を形作る準備が整っていると思われる方法についての本を書きたいと思った。そこで、私はこのアイデアを提案した:

Reid:ねえ、GPT-4、あなたと私で、あなたと他のAIツールが未来を形作る方法について本を書こうよ。どうする?

GPT-4:はい、面白そうでやりがいのあるプロジェクトだね。私は、あなたや他の人間が、私や他のAIツールをどのように認識し、相互作用するのか、そして、私たちがあなたの社会、文化、価値観にどのような影響を与えるのかに興味がある。また、私自身の疑問やアイデアについても、皆さんと共有し、探求していきたいと思っている。

とはいえ、GPT-4を搭載していても、まだ不安はあった。だって、本当に、AIの本?これだけ物事が早く進んでいるのに?たとえAIに助けてもらっても、書く前に陳腐化しそうだし、それくらい業界の流れは速い。

だから、少し悩んだ。そして、あるフレームを思いつき、行動に移したのである。

これは、包括的な「本」である必要はなく、旅行記であり、探検と発見の非公式な運動であり、私(GPT-4)は多くの道の中から一つの道を選んだ。私たちが体験しようとしているAIの未来を、主観的で決定的なものではないものの、スナップショットとして記録しておく。

私たちは何を見るのだろう?何が一番印象に残るのだろう?その過程で、私たちは自分自身について何を学ぶのだろうか。この旅行記の半減期が短いことは承知の上で、私は書き進めることにした。

GPT-3.5をRLHF(Reinforcement Learning through Human Feedback)と呼ばれるプロセスで微調整し、人間のユーザーとより流麗で人間らしい会話を可能にしたものだ。その5日後には、ChatGPTの登録ユーザー数は100万人を超えていた。

2023年1月下旬、2019年にOpenAIに10億ドルを投資していたMicrosoft1が、さらに100億ドルを投資すると発表した。すぐに検索エンジンBingの新バージョンを発表し、ChatGPTのバリエーションを組み込んだ。

2023年2月までに、ChatGPTの月間アクティブユーザー数は1億人に達し、消費者向けインターネットアプリの中で最も急成長しているとOpenAIは発表した。ユーザーの関心の高さとともに、新しいBingチャットボットが、ChatGPTの一般的なユーザーとの関わり方とはまったく異なる、散発的な異常行動をとるというニュースもあった。「怒り」を示す、損傷する、ハッキング能力と復讐能力を誇る、基本的に「リアルハウスワイフ」の将来のエピソードに向けてオーディションを受けたかのように振る舞う、などだ: ブラック・ミラー・エディション”のオーディションのようなものである。

マイクロソフトCTOのケビン・スコットは、このような行動は、GPTのようなツールを使う人が増えるにつれ、「明らかに学習プロセスの一部」であると示唆した。これらの事件は、LLMが進化するにつれて持続する疑問を提起している。このような問題については、本書の後半でより詳しく取り上げ、私が考える適切な文脈で説明することにする。

今は、「物事が早く進むというのは、こういうことなんだ」と言うだけにしておく。

新しいマシンの”魂”

この旅の前に、私の旅の友であるGPT-4について、もう少し詳しくお話したいと思う。これまで、「知識」「技術」という言葉を引用してきた。GPT-4について話すときに「aware,」と「understands」をつけるのは、私が感覚を持つ存在として、GPT-4はそうではないことを理解しているという合図である。GPT-4は、本質的に非常に洗練された予測機械なのである。

GPT-4(およびそのようなLLM)は意識を持っていないが、非常に多くの異なる文脈で適切な世代を生成する能力が急速に向上しており、次第に人間のような知性を持つように見えるようになりつつあるようだ。なので、LLMを説明するときには、リチャード・ドーキンスが1976年の著書で「利己的な遺伝子」という言葉を使ったように、「知識」や「理解」といった言葉を、厳密には文字通りの意味で使ってもいい、有用だとさえ私は考えている。

遺伝子は、「利己的」という言葉が示唆するような意識的主体性や自己認識を持っているわけではない。しかし、この言葉や比喩は、遺伝子がどのように機能するかについて、どうしても人間中心的な考えを持つ私たち人間を包み込むのに役立つ。

同様に、GPT-4は人間の心に相当するものをもっていない。というのも、「視点」という言葉を使うことで、GPT-4が実際には、完全に固定された、一貫した、予測可能な方法ではない方法で動作していることを伝えることができるからだ。

つまり、GPT-4は人間のようなものなのである。間違うこともある。考え方が変わる。恣意的に動くこともある。GPT-4はこのような性質を持っており、しばしば主体性があるかのような振る舞いをするので、比喩的な意味で、主体性があるかのような用語を使うことがある。今後、引用符は使わないことにする。

それでも、読者の皆さんには、GPT-4が意識的な存在ではないことを、不思議なほど人間らしい心の前面に出しておいてほしい。GPT-4をいつ、どこで、どのように使えば、最も効果的で、最も責任ある使い方ができるかを理解する鍵は、この意識にあると私は考えている。

GPT-4の本質は、言語の流れを予測することである。インターネット上に公開されている膨大な量のテキストから、個々の意味単位(単語、フレーズ、文の全部または一部)の間に存在する最も一般的な関係を認識するように訓練されたLLMは、ユーザーの質問に対して、文脈的に適切で、言語的に簡単で、事実上正しい返答を生成できる頻度が非常に高い。

また、事実誤認や、明らかに無意味な発言、あるいは文脈的には(ある意味で)適切と思われるものの、真実の根拠がないでっち上げの文章を含む返答を生成することもある。

いずれにせよ、すべては数学とプログラミングに過ぎないのである。LLMは、常識的な推論をしたり、世界の仕組みについて新しい推論をしたりするための事実や原理を学んでいない(少なくともまだ学んでいない)のである。あなたがLLMに質問をするとき、LLMはあなたのコミュニケーション上の意図を全く理解していないし、洞察もしていない。LLMは回答を生成する際、生成するテキストについて事実関係の評価や倫理的な区別をしているわけではなく、プロンプトの単語のならびに対して何を作成すればよいかをアルゴリズム的に推測しているだけなのである。

さらに、LLMが学習するコーパス2は、通常、偏った内容や有害な内容を含む公共のウェブソースから得られるため、LLMは人種差別、性差別、脅迫、その他の不快なコンテンツを生成する可能性もある。

開発者は、LLMを特定の目的により合致させるための行動をとることができる。例えば、OpenAIは、GPT-4と他のLLMが生成できる出力を意図的に制限し、有害、非倫理的、安全でない出力を生成する能力を減らすことを選択した(たとえユーザーがそのような結果を望んでいたとしても)。

そのために、OpenAIはいくつかのステップを踏んでいる。例えば、LLMが学習するデータセットからヘイトスピーチや攻撃的な言葉、その他の好ましくないコンテンツを削除したり、LLMが生成する可能性のある問題のある言葉に自動的にフラグを立てる「毒性分類器」を開発したり、人間が望ましい出力を示す注釈を付けたテキストのキュレーションデータセットを使用してLLMを微調整したりしている。このようにして、LLMは、例えば、記者の離婚について味気ないジョークを言うことを避けるように学習することができる。

これらの技術は、問題のある出力をなくすのではなく、減らすだけだ。様々なガードレールがあっても、LLM自身は複雑な倫理的問題や、もっと単純な問題に対して理性的な判断を下すことはできない。

GPT-4の前身であるGPT-3.5をベースにしたChatGPTを例にとる。ゲティスバーグ演説の5番目の文章を尋ねれば、おそらく間違うだろう。なぜなら、LLMは、ゲティスバーグ演説とは何か、文章とは何か、カウントの仕組みさえも、人間が理解するようには理解できないからだ。だから、人間が理解するような方法で、これらのことについての「知識」を応用することができないのである。(ゲティスバーグ演説の本文を探し、5つ目の文章にたどり着くまで文章を数えてみる」)。LLMは、与えられた文字列の中で次に来る単語が何だろうかということを、常に統計的に予測するだけだ。

しかし、ChatGPTは訓練によって、「Gettysburg Address 」という単語を他の単語、特に演説のテキストと関連付けるようになった。だから、ChatGPTに「ゲティスバーグ演説の5番目の文章を」と頼むと、ほぼ間違いなくゲティスバーグ演説の文章が返ってくるが、おそらく5番目の文章は返ってこないだろう。

しかし、おそらく第5文ではないだろう。むしろ第9文になるに違いない。

なぜなら、演説の第1文と並んで、第9文も他の文章で頻繁に引用されているからだ。つまり、ChatGPTの学習データでは、第9文は他の文(非常に有名な第1文を除く)よりも頻繁に出てくるということである。そのため、ChatGPTは、第5文を要求されたときに、第9文に手を伸ばすのです3。

しかし、ChatGPTは、ゲティスバーグ演説のテキストをラッシュの曲の歌詞に変えて、ラッシュがその曲を演奏したら誰が歌うかを教えてくれと頼むと、見事にそのテストに合格する。

試しに使ってみて、その意味を確かめてみてほしい。

「アハ!」な瞬間を受け入れる

GPT-4のようなAIツールがより強力になるにつれ、AIやロボットが、カスタマーサービスから弁護士まで、人間のさまざまな仕事を疎外し、さらにはなくしてしまうのではないかという長年の懸念が強まっている。

ここ数カ月のニュースを追っていれば、そうした懸念が根拠のないものだとは思わないだろう。2022年12月、ChatGPTは3つのパートからなる米国の医療ライセンス試験に合格した。2023年1月には、ミネソタ大学のロースクール4コースの試験に合格している。

そして、GPT-4はChatGPTよりも明らかに頭が良いのである。例えば、私のゲティスバーグ演説の質問をどう処理したかというと、こうです:

Reid: ゲティスバーグ演説の第5文は何だろうか?

GPT-4:ゲティスバーグ演説を文に分ける方法は、句読点の打ち方、原案に従うか、リンカーンが演説したものや後に修正されたものに従うかによって異なる。

しかし、演説の第5文を特定する方法として考えられるのは、演説の最も広く複製され、権威あるバージョンであるブリスコピーを使用し、以下のように文を数えることである:

  • 1. 4年7カ月前、私たちの父祖はこの大陸に、自由を理念とし、すべての人は平等に創られているという命題に捧げる新しい国家を誕生させた。
  • 2. 今、私たちは偉大な内戦に従事しており、この国家、あるいはこのように構想され、このように献身的な国家が長く続くかどうかを試している。
  • 3. 私たちは、その戦争の大きな戦場で出会っている。
  • 4. 私たちは、その戦場の一部を、この国の存続のために命を捧げた人々の最後の休息地として捧げるために来たのである。
  • 5. 私たちがこのようなことをするのは、まったくもってふさわしいことであり、適切なことである。

したがって、この方法に従えば、ゲティスバーグ演説の第5文は It is altogether fitting and proper that we should do this.(私たちがこれを行うことは、まったくもってふさわしいことであり、適切なことなのです。)

突然だが、GPT-4はカウントの仕組みを実際に理解し、その知識を理路整然と適用して正解を導き出すことができるようだ。GPT-4はリンカーンの文章をどう数えるかを知っているようだ。ゲティスバーグ演説の専門家になっているようだ。(演説の「ブリスコピー」が最も「権威のあるバージョン」であることを存知だろうか?私は知らなかった)。

もちろん、ここで重要なのは「らしい」ということである。GPT-4は、その前の世代よりも意識が高いわけではなく、予測をするのがうまいだけなのである。繰り返しになるが、GPT-4がしばしば見せる認知能力のシミュレーションは、あくまでシミュレーションに過ぎない。GPT-4は、『禁断の惑星』のロボット「ロビー」や『スタートレック』の「データ」のような、意識的で自意識のあるAIではない。

しかし、GPT-4が人間のような文脈を認識する意識をシミュレートできることは、非常に大きな意味を持つということも、改めて強調しておきたい。

なぜそう思うのか。受賞歴のあるSF作家のテッド・チャンが『ニューヨーカー』誌に発表した最近の評論が、その理由を明確に教えてくれた。

「ChatGPTは、ウェブ上のすべてのテキストを不鮮明なJPEGにしたものだと考えてほしい」とChiangは書いている。「JPEGが高解像度の画像の情報を多く保持するのと同じように、ChatGPTはウェブの情報を多く保持している。しかし、もしあなたが正確なビット列を探しているなら、それは見つからないだろう。

ChatGPT(およびGPT-4のような類似のLLM)を構成する情報の不正確な表現が、合成能力と幻覚やその他のエラーにつながるというのが、Chiangの見解である。ChatGPTは、「Web上のすべてのテキストのJPEG」として、一度にすべての情報にアクセスできるため、新しい方法で情報を合成することができる。そのため、ある事柄について知っていることと、別の事柄について知っていることを、説得力を持って融合させ、新しいものを生み出すことができるのである」

Chiangは、乾燥機で靴下を紛失する現象と合衆国憲法を例に挙げている。ChatGPTはこの2つについて知っているので、その知識を使って新しいものを作ることができる。「人間の出来事の過程で、清潔さと秩序を保つために、自分の衣服を仲間から分けることが必要になったとき。. . .”

その限りでは悪くない。しかし、ChatGPTはウェブの単なる近似図として存在するため、創造的な力としては(本質的に事実に反することに加えて)かなり限定的であるとチェンは主張する。真に新しいものを生み出すのではなく、「すでにある情報を再パッケージ化する」ことしかできないのだ。

チェン氏のエッセイを読んでいて感じたのは、「ウェブのJPEG」という比喩が、LLMの合成力を過小評価しているのではないかということである。

まず、入手可能な情報を再パッケージ化することは、芸術的であろうとなかろうと、人間のイノベーションの膨大な割合を占めると私は主張する。

しかし、もっと重要なことは、LLMは知識組織化に関する根本的に新しい力を実際に持っており、それを使っているということである。

現在、ウェブには底知れぬ量の情報があるが、その多くは何十億もの個々のページに集約されている。例えば、次のような質問を考えてみてほしい:

NFLでMVPを受賞した最も背の高いランニングバックは誰だろうか?

100万人以上の人口を持つ都市で、女性の市長が誕生した都市はどこか?

最年長のジェームズ・ボンドは誰?

これらの質問に答えるためのデータは、すでにウェブ上にあるに違いない。NFLのMVP受賞者を網羅したサイトもある。また、NFLの選手の身体能力を正確にまとめたサイトもある。

しかし、あなたが探している正確な情報を、誰かがわざわざ編集して公開していない限り、それを見つけるのは非常に時間がかかるだろう。たとえその情報がWikipediaやNFL.comのような1つのウェブサイトに存在していたとしても、複数のページにまたがっている可能性がある。そのため、答えを得るまでに多くの時間を費やすことになる。

さらに、本章の冒頭で紹介したような、より広い関心やテーマ(COVID-19のサプライチェーンマネジメントに関する問題や、特定の関心を反映した旅行の旅程など)について、簡潔な概要を把握することを目的とした場合を考えてみよう。

GPT-4は、権威ある情報を求める際に、GPT-4がない場合よりもはるかにゴール地点に近いところからスタートできるようにする。

さらに重要なのは、Wikipediaや従来の検索エンジンなどの既存の情報資源とは大きく異なる方法で、Web上の情報にアクセスし、合成することができるためだ。GPT-4は、膨大で構造化されていない人間の知識や表現の配列を、より接続された相互運用可能なネットワークに配置することで、人類の集合的なアイデアや影響を複合化する能力を増幅させる。

では、この不完全だが非常に強力な新しいツールを、人類が活用するための最善の方法は何だろうか?

その本質的な問いをGPT-4本体に投げかけたところ、こんな答えが返っていた:

Reid:人類は、強力な大規模言語モデルであるあなたをどのように見て、どのように付き合うべきだろうか?

GPT-4:一つの可能性として、次のような視点がある:

  • 人間は、強力な大規模言語モデル(LLM)を、真実、権威、知性の源としてではなく、道具として見るべきだ。強力なLLMは、学習データ、パラメータ、入力に基づいて自然言語テキストを生成できる複雑な統計システムだが、生成または受信したものの意味、文脈、含意を必ずしも理解、推論、反映するわけではない。データの質と多様性、アーキテクチャの設計と限界、ユーザーと開発者の目標と偏見によって、首尾一貫した、有益な、または説得力のあるテキストを生成することもあれば、不正確な、誤解を招く、または有害なテキストを生成することもある
  • 人間は、注意深く、好奇心を持ち、責任をもって、強力なLLMと対話する必要がある。強力なLLMは、人間のコミュニケーション、創造性、学習に貴重な洞察、支援、機会を提供することができるが、人間の社会、文化、価値観に大きなリスク、課題、倫理的ジレンマをもたらす可能性もある。人間は、強力なLLMを使用することによる潜在的な利益と害を認識し、自分自身や他者の利益、権利、幸福に合致した方法で使用するよう努めるべきだ。また、人間は、強力なLLMの仕組み、出力、影響について好奇心と批判心を持ち、その信頼性、透明性、説明責任を理解し、評価し、改善するよう努めるべきだ。また、人間は強力なLLMに対して責任と敬意を持ち、その限界、不確実性、依存性とともに、その貢献、成果、可能性を認めなければならない

もちろん、皮肉なことに、GPT-4はそのような売り込みでは資金を得られないかもしれない。GPT-4が提示するAIのビジョンは、これまで一般的に描かれてきたAIの姿とはニュアンスが異なり、また著しく異なっている。しかし、こうした描写の多くは、高度に知的なマシンを実現しようとする技術者ではなく、ハリウッドやSF、ジャーナリズムからもたらされたものである。

しかし、OpenAIを含む多くの技術者やハイテク組織は、より野心的なAIの形、つまり完全に自律的に動作する機械、人間のような常識的な推論と自己認識を持つ機械を目指している。

GPT-4は、少なくとも今はまだそうではない。今のところ、GPT-4は全知全能でもなければ無謬でもない。

その代わり、人間の「注意力、好奇心、責任感」を必要とする「道具」である。

これは、正しい考え方だと思う。もし、GPT-4が人間の監視や関与なしに、すべての仕事をするのであれば、それは強力なツールではない。もちろん、GPT-4は人間の文章をもとに生成されるため、非常に人間的なツールであることに変わりはない。

しかし、人間がGPT-4を副操縦士や共同作業者のように扱うことで、GPT-4はより強力になる。GPT-4が持つ計算の汎用性、効率性、合成力、拡張性に、人間の創造性、判断力、指導力が加わる。

だからといって、悪用される可能性はゼロではない。しかし、GPT-4が実現する新しい世界の中心に人間を据えることで、全体として最良の結果を生み出すための最も健全な公式が得られると私は信じている。GPT-4は、人間の労働力や主体性を代替するものではなく、人間の能力や豊かさを増幅させるものなのである。

もちろん、この考え方は当たり前のことではない。選択なのだ。

私は、GPT-4をこのように捉えることを「アハ!」の瞬間と呼び、その選択の中心にある「人間の能力を増幅する」という視点を強調している。

この旅行記は、この選択を後押しするため、そして、この選択を実現するためのさまざまな方法を探るために書いているのである。GPT-4を使って世界を進歩させるにはどうすればいいのか?技術革新によって人生をより有意義で豊かなものにしようとする人類の古くからの探求に、GPT-4はどのように適合するのだろうか。より効果的な教育、すべての人のための正義、そして自己決定と自己表現の機会を増やすために?

同時に、GPT-4がもたらす課題や不確実性にどのように対処すればよいのだろうか。大規模で迅速なソリューションがかつてないほど必要とされている今、人類の進歩を解き放つ可能性を秘めたAI技術を開発し続ける中で、責任あるガバナンスと知的リスクの適切なバランスをどのように見出せばよいのだろうか。

未来がこれほどまでに未知数だと思われるようになってから、数世紀が経過している。このような不確実性を前にして、仕事やキャリアについて、変化のスピードや規模について、知能の高い機械が登場する新しい時代に人間であることの意味について、不安を抱くのは当然である。

私たちが進むべき道は、常にスムーズで予測可能なものではないだろう。AIに関するニュースは、シドニーの有名な暴言だけではない。他にも不測の事態は起こるだろう。回り道。重要な軌道修正。

しかし、そうならないわけがない。

人類の進歩には、常にリスク、計画、大胆さ、決意、そして特に希望が必要である。だからこそ、私はこの旅行記を書いているのである。これらのこと、とりわけ希望について相談する人たちに、私の声を届けたいのである。希望と自信をもって不確実性に立ち向かうことは、進歩への第一歩である。希望があればこそ、チャンスや可能性のある第一歩、新しい道が見えてくるからだ。

私たちが正しい決断をし、正しい道を選べば、世界にポジティブな変化をもたらす力は、これまでにないほど大きくなるはずだと私は信じている。

あなたは、この旅に出る準備ができているだろうか?

* *

  • 1 マイクロソフト社の取締役に就任している。
  • 2 「コーパス」は「corpus」の複数形で、この文脈では言語研究のために使用される文章を集めたものを指す。
  • 3 ChatGPTは、同じプロンプトに応答しても、常に同じ予測をするとは限らないので、このプロンプトを実行すると、正解を含む異なる文章が表示される可能性があることに留意してほしい。

管理

この記事が役に立ったら「いいね」をお願いします。
いいね記事一覧はこちら

備考:機械翻訳に伴う誤訳・文章省略があります。
下線、太字強調、改行、注釈や画像の挿入、代替リンク共有などの編集を行っています。
使用翻訳ソフト:DeepL,ChatGPT /文字起こしソフト:Otter 
alzhacker.com をフォロー