人工知能 | 考える人間のためのガイド
Artificial Intelligence: A Guide for Thinking Humans

強調オフ

未来・人工知能・トランスヒューマニズム

サイトのご利用には利用規約への同意が必要です

Artificial Intelligence: A Guide for Thinking Humans

目次

  • タイトルページ
  • 著作権表示
  • 献辞
  • プロローグ恐怖
  • 第1部 背景
    • 1. 人工知能のルーツ
    • 2. ニューラルネットと機械学習の発展
    • 3. AIの春
  • 第2部  見ること、見えること
    • 4. 誰が、何を、いつ、どこで、なぜ
    • 5. ConvNetsとImageNet
    • 6. 学習する機械に迫る
    • 7. 信頼できる倫理的なAIについて
  • 第3部 遊びを学ぶ
    • 8. ロボットへの報酬
    • 9. ゲームオン
    • 10. ゲームの向こう側
  • 第4部  人工知能と自然言語の出会い
    • 11. 言葉、そしてその仲間たち
    • 12. エンコードとデコードとしての翻訳
    • 13. 何でも聞いて
  • 第5部 部意味の壁
    • 14. 理解について
    • 15. 人工知能における知識、抽象化、類似性
    • 16. 問いと答え、そして思索
  • ノート
  • 謝辞
  • 索引
  • イラストレーションクレジット
  • メラニー・ミッチェル著
  • 著者について

私の両親へ

考える人間になる方法を教えてくれた、両親に

プロローグ 恐怖

コンピュータは驚くべき速さで賢くなっているようだが、いまだに皮肉を理解することができないことが1つある。数年前、私は人工知能(AI)に関する議論に向かう途中、カリフォルニア州マウンテンビューにあるGoogleの本社、Googleplexで迷子になった。しかも、Google Mapsの建物の中で迷子になったのである。皮肉の二乗である。

マップの建物自体は、簡単に見つけることができた。Googleストリートビューの車が玄関脇に止まっていて、その屋根から赤と黒のサッカーボールのようなカメラが突き出ている。しかし、中に入ると、警備員から渡された目立つ「ビジター」バッジを手に、ヘッドフォンを耳にかけ、Appleのデスクトップを熱心にタイプしているGoogle社員の群れがいるキュービクルの谷間を、恥ずかしながらさまよい歩いた。地図も使わず、手当たり次第に探した結果、ようやくその日の会議のために用意された会議室を見つけ、そこに集まったメンバーに合流した。

2014年5月のこの会議は、最近マイクロソフトのトップの座を離れ、グーグルの機械知能の取り組みをリードすることになった若きコンピューター科学者、ブレイズ・アギュエラ・イ・アルカスが主催したものだった。グーグルは1998年、ウェブ検索に斬新で特別に成功した方法を用いたウェブサイトという、ひとつの「製品」からスタートした。その後、Googleは世界で最も重要なテック企業に成長し、現在ではGmail、Google Docs、Google翻訳、YouTube、Androidなど、毎日使うかもしれない多くの製品やサービス、そしておそらく聞いたこともないような製品を提供している。

Googleの創業者であるラリー・ペイジとセルゲイ・ブリンは、コンピュータに人工知能を搭載するというアイデアに長い間突き動かされており、この探求はGoogleの主要な焦点となっている。特にレイ・カーツワイルは有名な発明家であり、近い将来、コンピュータが人間よりも賢くなる「AIシンギュラリティ」という考えを推進する、物議を醸す未来学者でもある。Googleは、このビジョンを実現するためにカーツウェイルを雇った。2011年、GoogleはGoogle BrainというAI研究グループを社内に設立した。それ以来、Googleは、同じく楽観的な名前のAIスタートアップ企業を数多く買収している。アプライド・セマンティクス、ディープマインド、ビジョン・ファクトリーなどだ。

つまり、Googleはもはや単なるウェブ検索のポータルではなくなりつつある。グーグルはもはや単なるウェブ検索のポータルではなく、応用AI企業へと急成長しているのだ。AIは、Googleとその親会社であるAlphabetが提供する多様な製品、サービス、そして青天井の研究努力を統合する接着剤なのである。同社の究極の願望は、同社のDeepMindグループの当初のミッション・ステートメントに反映されている。「知能を解決し、それを使って他のすべてを解決する」1。

AIとGEB

私はGoogleのAIミーティングに参加することになり、かなり興奮していた。1980年代の大学院時代からAIの様々な側面に取り組んできた私は、Googleが成し遂げたことに多大な感銘を受けていた。また、自分にも貢献できる良いアイディアがあるのではないかと思っていた。しかし、正直なところ、私はただのタガログとして参加したに過ぎない。このミーティングは、GoogleのAI研究者たちが、AI界の伝説的存在であり、『ゲーデル、エッシャー、バッハ:永遠の黄金のブレイド』(GEB)という謎めいたタイトルの名著の著者、ダグラス・ホフスタッターから話を聞いて会話するために開かれたものだった。コンピュータ科学者やコンピュータ愛好家であれば、聞いたことがあるか、読んだことがあるか、読もうとしたことがあるのではないだろうか。

1970年代に書かれたGEBは、数学、芸術、音楽、言語、ユーモア、言葉遊びなど、ホフスタッターの多くの知的情熱の発露であり、そのすべてが、知性や意識、そして人間が基本的に経験する自己認識の感覚が、生物細胞という非知性や非意識の基盤からいかにして出現しうるかという深い問いを扱うために集約されている。また、この本は、コンピュータが最終的にどのように知性と自己認識を獲得するのかについても触れている。この本はユニークな本で、私はこのような本を他に知らない。決して読みやすい本ではないのに、ベストセラーになり、ピューリッツァー賞と全米図書賞を受賞した。間違いなく、GEBは他のどの本よりも多くの若者をAIを目指す気にさせた。私もその一人であった。

1980年代初頭、大学で数学の学位を取得した私は、ニューヨークで予備校で数学を教えながら、不幸にも、自分が人生で本当にやりたいことは何だろうかと考えあぐねていた。GEBを知ったのは、『サイエンティフィック・アメリカン』誌の絶賛記事を読んだ後だった。すぐに本を買い求めた。それから数週間、私はこの本を読みふけり、自分がAIの研究者になりたいだけでなく、特にダグラス・ホフスタッターと一緒に働きたいと強く思うようになったのである。本やキャリアの選択について、これほど強く感じたことはなかった。

当時、ホフスタッターはインディアナ大学のコンピュータサイエンスの教授で、私の奇抜な計画は、そこのコンピュータサイエンスの博士課程に応募して入学し、ホフスタッターを説得して学生として受け入れてもらうことだった。ちょっとした問題があって、私はコンピューターサイエンスの講義を一度も受けたことがなかったのである。父は1960年代のハイテクベンチャー企業のハードウェアエンジニアで、趣味で家の書斎にメインフレームコンピュータを作っていたから、私はコンピュータとともに育った。冷蔵庫サイズのシグマ2には「私はFORTRANで祈る」と書かれたマグネットボタンがついており、子供心に、家族が寝静まった夜、静かに祈るのだと信じ込んでいた。1960年代から70年代にかけて育った私は、当時流行していた言語をそれぞれ少しづつ学んだ。FORTRAN、BASIC、Pascalと、当時流行っていた言語を少しずつ学んできたが、正しいプログラミング技術はもちろん、コンピュータサイエンスの大学院生として知っておくべきことはほとんど知らなかった。

そこで、年度末に教職を辞してボストンに移り住み、新しいキャリアに備えてコンピュータ・サイエンスの入門講座を受講し始めたのである。新しい生活を始めて数カ月、マサチューセッツ工科大学のキャンパスで授業が始まるのを待っていたとき、まさにそのキャンパスで2日後に行われるダグラス・ホフスタッターの講演会を告知するポスターが目に飛び込んできたのである。私は自分の幸運を信じられず、思わず二度見してしまった。講演会に行き、大勢の聴衆の中で自分の番が来るのを長い間待った後、ホフスタッターに話しかけることができた。彼はMITで1年間のサバティカルの最中で、その後インディアナからアナーバーのミシガン大学へ移ることがわかった。

長い話を短くすると、私が何度もしつこく追求した結果、ホフスタッターは私を研究助手として迎え入れ、最初は夏の間、そしてその後6年間は大学院生として、私はミシガン大学でコンピュータサイエンスの博士号を取得したのである。ホフスタッターと私は長年にわたって緊密な連絡を取り合い、AIについて多くの議論を交わしていた。彼は、私がグーグルのAI研究に興味を持っていることを知っていて、グーグルの会合に同行するよう誘ってくれたのである。

チェスと最初の疑念の種

場所がわかりにくい会議室に集まったのは、20人ほどのグーグルのエンジニア(プラス、ダグラス・ホフスタッターと私)で、全員がグーグルのさまざまなAIチームのメンバーだった。会議は、いつものように部屋を回って自己紹介をしてもらうところから始まった。何人かは、自分たちのAIのキャリアは、若い頃にGEBを読んだことがきっかけだったと述べていた。彼らは皆、伝説的なホフスタッターがAIについて何を語るのか、興奮と好奇心をもって聞いていた。そして、ホフスタッターは話し始めた。「AI研究全般、特にここグーグルについて発言する」 彼の声は情熱的になった。「私は恐れている。恐怖を感じる」

ホフスタッターは続けた2。彼は、1970年代に初めてAIの研究を始めたとき、それはエキサイティングな展望だったが、実現にはほど遠いように思え、「地平線上の危険、実際に起こるという感覚」はなかったと述べた。人間のような知能を持つ機械を作ることは、深遠なる知的冒険であり、その結実は少なくとも「100個のノーベル賞の先にある」と言われていた長期研究プロジェクトだった3。ホフスタッターは、AIは原理的には可能だと信じていた。彼らは、脳が物理法則に従った物質の塊であり、コンピュータがニューロンや神経伝達物質のレベルなど、何でもシミュレートできることを理解していなかったのである。理論的には可能なのである」。実際、ニューロンから意識に至る様々なレベルで知能をシミュレートするというホフスタッターの考えは、GEBで長々と語られ、彼自身の研究の焦点にも何十年もなっていたのである。しかし、実際には最近まで、一般的な「人間レベル」のAIが自分(あるいは自分の子供たち)が生きている間に発生する可能性はないと思われていたので、ホフスタッターはあまり気にしていなかったのである。

GEBの終わり近くに、ホフスタッターは人工知能に関する「10の疑問と推測」を挙げていた。その中の一つを紹介しよう。「誰にでも勝てるチェス・プログラムは存在するのだろうか」。ホフスタッターの推測は「ノー」である。「チェスで誰にも負けないプログラムはできるかもしれないが、それはチェスだけのプログラムではないだろう。一般的な知能のプログラムであろう」4。

2014 年のGoogle 会合で、ホフスタッターは自分が”大間違い” であったことを認めた。1980年代から90年代にかけてチェス・プログラムが急速に進歩したことが、AIの短期的な見通しに対する彼の評価に最初の疑念の種をまいたのだ。AIのパイオニアであるハーバート・サイモンは、1957年にチェス・プログラムが「10年以内に」世界チャンピオンになると予言したが、ホフスタッターがGEBを書いていた1970年代半ばには、最高のコンピュータ・チェス・プログラムは、優れた(しかし偉大ではない)アマチュアのレベルでしかプレイできなくなっていたのだ。ホフスタッターは、チェスチャンピオンで心理学教授のエリオット・ハーストと親交があり、人間のチェス熟練者とコンピュータのチェスプログラムがどのように異なるかについて幅広く執筆していた。実験によると、人間の熟練プレイヤーは、すべてのチェス・プログラムが使うような徹底的な先読みではなく、チェス盤上のパターンを素早く認識して手を決定していることがわかったのである。対局中、優秀なプレイヤーは、ある駒の配置を「ある種の戦略」を必要とする特定の「位置」として認識することができる。つまり、特定の駒の配置や戦略を、より高度な概念の一例として素早く認識することができるのだ。ハーストは、このようなパターン認識や抽象概念の認識といった一般的な能力がなければ、チェス・プログラムは人間の最高レベルに達することはないと主張した。ホフスタッターはハーストの主張に説得された。

しかし、1980年代から90年代にかけて、コンピュータチェスは大きな飛躍的な進歩を遂げ、その主な理由はコンピュータの速度の急上昇にあった。しかし、最高のプログラムはまだ、次の手を決めるために広範囲に渡って先読みを行うという、非常に人間離れした方法でプレイしていた。1990年代半ばには、チェス専用のハードウェアを搭載したIBMのマシン「ディープ・ブルー」がグランドマスターレベルに到達し、1997年にはチェスの世界チャンピオン、ガルリ・カスパロフを6ゲームマッチで破っている。かつて人間の知能の頂点とされたチェスの名人芸は、ブルートフォース・アプローチに屈してしまったのだ。

音楽 人類の砦

ディープ・ブルーの勝利は、知的機械の台頭について多くの報道陣を沸かせたが、「真の」AIはまだかなり遠い存在に思えた。ディープ・ブルーはチェスをすることはできても、それ以外のことは何もできなかったのだ。ホフスタッターはチェスについては間違っていたが、GEBの他の推測、特に彼が最初に挙げた推測はまだ支持していた。

質問:コンピュータは美しい音楽を作ることができるだろうか?

推測:イエス、しかしすぐには無理だろう。

ホフスタッターはこう続けた。

「音楽は感情の言語であり、プログラムが人間のような複雑な感情を持つまでは、プログラムが美しいものを書くことはありえない。しかし、最初はどう思うかもしれないが、音楽表現には構文規則では捉えきれないものがあるのだ……。近い将来、あらかじめプログラムされた20ドルの大量生産通信販売のデスク型「オルゴール」に命令して、ショパンやバッハが長生きしていたら書いたかもしれない曲を無菌回路から引き出せるかもしれないと考えることは、人間の精神の深さに対するグロテスクかつ恥ずかしい誤算である5」。

ホフスタッターはこの推測を「GEBの最も重要な部分の一つであり、私はそれに人生を賭けていただろう」と述べている。

1990年代半ば、ホフスタッターは、音楽家のデイヴィッド・コープが書いたプログラムに出会ったとき、AIに対する自分の評価に対する自信を再び、今度はかなり深く揺さぶられることになった。そのプログラムは「Experiments in Musical Intelligence」、つまりEMI(エミーと発音する)と呼ばれるものであった。作曲家であり、音楽教授でもあるコープ氏は、もともと自分の作曲を助けるためにEMIを開発し、コープ氏特有のスタイルの曲を自動的に作り出していた。しかし、EMIはバッハやショパンなどクラシック音楽の作曲家のスタイルで曲を作ることで有名になった。EMIは、作曲の一般的な構文を把握するために、コープが開発した大規模なルールに従って作曲を行う。このルールを特定の作曲家の作品に適用して、その作曲家の「スタイル」で新しい曲を作る。

Googleのミーティングに戻ると、ホフスタッターはEMIとの出会いについて、並々ならぬ思いで語っていた。

私はピアノの前に座り、EMIのマズルカを”ショパン風 “に弾いた。それは、ショパンと全く同じ音ではなかったが、ショパンのような、まとまった音楽のような響きがあり、私はただ深く悩まされた。

子供の頃から、音楽は私をワクワクさせ、心の底から感動させるものだった。そして、私が愛するすべての曲は、それを作曲した人間の感情的な心からの直接的なメッセージであるように感じられる。まるで、その人の心の奥底に入り込めるような。そして、音楽の表現ほど人間らしいものは、この世に存在しないように感じる。何もない。表面的なパターン操作によって、まるで人間の心の声かのようなものが生まれるというのは、非常に困ったことである。私はすっかり驚いてしまった。

ホフスタッターは、ニューヨーク州ロチェスターにある名門イーストマン音楽院での講義をこう振り返った。EMIについて説明した後、ホフスタッターは、音楽理論や作曲の教授陣を含むイーストマンの聴衆に、ピアニストが演奏した2曲のうち、どちらがショパンのマズルカで、どちらがEMIによって作曲されたかを当てるように頼んだのである。聴衆の一人は、「最初のマズルカは、優雅で魅力的だが、『本物のショパン』とは言えない。2曲目は明らかに本物のショパンで、叙情的な旋律、大規模で優雅な半音階的転調、自然でバランスのとれた形式だ」と評した6。正解は逆であった。

グーグルの会議室で、ホフスタッターは立ち止まり、私たちの顔をのぞき込んだ。誰も言葉を発しない。そして、ついに彼はこう言った。「私はEMIに恐怖を感じた。恐ろしかった。EMIが嫌いで、EMIに非常に脅かされていた。私が人間として最も大切にしているものを破壊しようとするものだった。EMIは、私が人工知能に対して抱いている恐怖の、最も典型的な例だったと思う」。

グーグルとシンギュラリティ

ホフスタッターは次に、グーグル自身がAIで達成しようとしていること(自動運転車、音声認識、自然言語理解、言語間翻訳、コンピューターによる芸術、作曲など)について、深い両義的な感情を抱いていると話した。グーグルはレイ・カーツワイルの「シンギュラリティ(特異点)」構想を支持しており、この構想では、AIは自己改良と自己学習能力により、急速に人間レベルの知能に達し、やがてそれを超えるというものだ。グーグルは、そのビジョンを加速させるために、できることは何でもやっているように見えた。ホフスタッターは、シンギュラリティの前提を強く疑っていたが、カーツワイルの予測にはやはり不安を覚えたと言う。「私はそのシナリオに恐怖を覚えた。非常に懐疑的だったが、同時に、彼らのタイムスケールはずれているかもしれないが、もしかしたら正しいかもしれないとも思った。私たちは完全に不意を突かれることになる。何も起きていないと思っていたら、突然、いつの間にかコンピュータが私たちよりも賢くなっているのである」。

もし、実際にそうなったら、「私たちは取って代わられるだろう。私たちは遺物になる。塵に埋もれてしまうだろう。

「そうなるかもしれないが、私はそうなって欲しくない。自分の子供たちが埃の中に取り残されるのは嫌だ」。

ホフスタッターは、まさにその部屋で熱心に聞いているGoogleのエンジニアたちに直接言及して、講演を終えた。”私は、非常に恐ろしい、非常に厄介な、非常に悲しい、そして、私は恐ろしい、恐ろしい、奇妙な、困惑、困惑、人々がこれらのものを作成するために盲目的に、錯乱して先に急いでいることを見つける。”

ホフスタッターはなぜ恐怖を感じているのか?

私は会場を見回した。聴衆は不思議そうに、恥ずかしそうにさえ見えた。GoogleのAI研究者たちにとって、このようなことは少しも恐ろしいことではないのである。実際、これはもう古い話なのだ。ディープ・ブルーがカスパロフに勝ったときも、EMIがショパンのようなマズルカを作曲し始めたときも、カーツワイルがシンギュラリティに関する最初の本を書いたときも、このエンジニアたちの多くは高校生で、おそらくGEBを読み、そのAI予測は少し古かったにせよ、気に入っていたことだろう。彼らがグーグルで働いていた理由は、まさにAIを100年後ではなく、今、できるだけ早く実現させるためだったのである。彼らは、ホフスタッターが何をそんなにストレスを感じているのか理解できなかった。

AIに携わる人々は、超知能マシンが悪に染まる姿を描いた多くのSF映画の影響を受けていると思われる分野外の人々の恐怖に遭遇することに慣れている。AI研究者は、高度化するAIが一部の仕事で人間に取って代わるのではないか、AIをビッグデータセットに適用するとプライバシーが破壊され微妙な差別が可能になるのではないか、理解されていないAIシステムが自律的に判断して大惨事を引き起こす可能性があるのではないか、といった懸念もよく知っている。

ホフスタッターの恐怖は、全く別のものに反応したものだった。それは、AIが賢くなりすぎることでも、侵略的になりすぎることでも、悪意がありすぎることでも、有用になりすぎることでもない。その代わりに、彼は知性や創造性、感情、そしておそらくは意識そのものがあまりにも簡単に生み出されてしまうことを恐れていたのである。つまり、彼が人間性の中で最も大切にしているものは「トリックの袋」に過ぎず、人間の精神を説明できるのは表面的なブルートフォース・アルゴリズムの集合に過ぎなくなってしまうということなのである。

GEBが明らかにしたように、ホフスタッターは、心とその特性はすべて、脳と身体の他の部分という物理的基盤、および身体と物理的世界との相互作用から完全に生み出されると固く信じているのだ。そこには、非物質的なもの、無体的なものは一切存在しない。彼が懸念しているのは、複雑性の問題である。私たちが最も大切にしている人間の資質が、機械化すると驚くほど単純なものであることを、AIが教えてくれるかもしれない、と彼は恐れているのだ。ホフスタッターが会議の後で私に説明したように、ここではショパンやバッハなど人間性の模範となる人物を指して、「このような無限の繊細さと複雑さと感情の深さを持つ心が、小さなチップによってつまらないものにされてしまうとしたら、人間とは何かという私の感覚は壊れてしまうだろう」と述べた。

私は混乱している

ホフスタッターの発言後、短いディスカッションが行われ、平静を装った聴衆がホフスタッターに、AIや特にGoogleに対する恐怖をさらに説明するよう迫った。しかし、コミュニケーションの壁が残った。その後も、プロジェクト発表、グループ討論、コーヒーブレイクと、いつものように会議は続いたが、どれもホフスタッターの発言にはあまり触れられなかった。会議が終わりに近づいた頃、ホフスタッターは参加者にAIの近い将来についてどう思うか尋ねた。Googleの研究者の何人かは、今後30年以内に一般的な人間レベルのAIが出現する可能性が高いと予測した。その理由の大部分は、Google自身が「ディープラーニング」という脳に着想を得た手法で進歩したことにある。

私は混乱したまま、その会議を後にした。ホフスタッターがカーツウェルのシンギュラリティの著作に悩んでいたことは知っていたが、彼の感情や不安の度合いを理解するのは初めてだった。また、GoogleがAIの研究に力を入れていることは知っていたが、AIが一般的な「人間」のレベルに到達するのが早いと楽観的な意見を述べている人が何人もいることに驚いた。私自身は、AIは狭い分野ではかなり進歩したが、人間のような広範で一般的な知能にはまだ遠く及ばないし、30年どころか100年経っても到達できないだろうと考えていたのである。そして、そうではないと考える人たちは、人間の知性の複雑さを大きく過小評価していると考えていた。カーツワイルの本を読んでも、ほとんど馬鹿馬鹿しいとしか思えなかった。しかし、会議で私が尊敬する人たちのコメントを聞いて、自分自身の考えを批判的に検討することを余儀なくされた。AI研究者たちが人間を過小評価していると思い込んでいた私は、逆に現在のAIのパワーと可能性を過小評価していたのだろうか?

それから数カ月、私はこの疑問をめぐる議論にもっと注意を払うようになった。著名人が突然、「超人的な」AIの危険性について、今すぐ心配し始めるべきだと語る記事やブログ記事、書籍が次々と発表されていることに気づき始めたのである。2014年、物理学者のスティーブン・ホーキング博士は、「完全な人工知能の開発は、人類の終わりを告げるかもしれない」と宣言した7。同年、テスラ社とスペースX社の創業者である起業家のイーロン・マスクは、人工知能はおそらく「私たちの最大の存在的脅威」で、「人工知能によって私たちは悪魔を呼び出している」8と述べた。マイクロソフト社の共同創業者ビル・ゲイツも同意している。哲学者のニック・ボストロムは、機械が人間より賢くなることの潜在的な危険性を説いた『Superintelligence』を出版し、その辛口で重苦しい文体にもかかわらず、驚きのベストセラーになった。

他の著名な思想家たちは、これに反発していた。しかし、近い将来に超人的なAIが出現するという報告は、かなり誇張されているという。起業家で活動家のミッチェル・ケイパーは、「人間の知性は驚異的で微妙な、そして理解されていない現象だ」とアドバイスしている。ロボット工学者(MITのAIラボの前所長)のロドニー・ブルックスもこれに同意し、「現在および今後数十年の機械の能力を著しく過大評価している」と述べている11。心理学者でAI研究者のゲイリー・マーカスは、「強いAI」、つまり一般的な人間レベルのAIを作るための探求において「ほとんど進展がない」とまで断言している12。

このように、引用を重ねるときりがない。要するに、AIの分野は混迷を極めているということだ。膨大な量の進歩があったのか、それともほとんど何もなかったのか。私たちは「真の」AIを目前に控えているのか、それとも何世紀も先の話なのか。AIがすべての問題を解決するのか、私たち全員を失業させるのか、人類を滅ぼすのか、それとも私たちの人間性を安っぽくするのか。それは崇高な探求か、「悪魔の召喚 」なのだ。

この本が目指すもの

本書は、人工知能の現状を正しく理解しようとする私の試みから生まれたものである。グーグルの会議でのホフスタッターの挑発的な発言は、私にとって警鐘のようなものであり、グーグルの研究者がAIの近い将来について自信を持って答えたのも同様であった。この後の章では、人工知能がどこまで進化したかを整理し、その多様な、時には相反する目標を明らかにしようと思う。その際、最も著名なAIシステムが実際にどのように動作しているかを検討し、それらがどの程度成功し、どこに限界があるのかを調査する。例えば、最も知的要求の高いゲームで人間を打ち負かす、言語間の翻訳を行う、複雑な質問に答える、困難な地形で自動車を操縦する、などである。また、画像から顔や物を認識する、話し言葉や文章を理解する、最も基本的な常識を働かせるなど、私たち人間が意識することなく当たり前に行っている日常的な作業について、どのような成果を上げているかを検証している。

また、AIが誕生して以来、その議論に拍車をかけてきた、より大きな疑問についても理解を深めようとしている。一般的な人間、あるいは超人的な知能とは何を意味するのか?現在のAIはこのレベルに近いのか、あるいはそこに到達する軌道にあるのか?その危険性は?また、人間レベルのAIは、私たち自身の人間らしさについてどのように考えるか、どの程度まで挑戦してくるのだろうか。ホフスタッターの言葉を借りれば、私たちはどれほど恐れるべきなのだろうか。

本書は、人工知能の一般的な調査や歴史書ではない。むしろ、あなたの生活に影響を与える、あるいは近い将来影響を与えるであろうAIの手法と、人間の独自性という感覚に挑戦する上でおそらく最も踏み込んだAIの取り組みについて、深く掘り下げていくものである。私の目的は、あなたが私自身の探求を共有し、私のように、この分野が成し遂げたこと、そして機械が自らの人間性を主張できるようになるまでにあとどれくらいかかるかを、より明確に理解していただくことである。

管理

第16章 質問、回答、そして推測

ダグラス・ホフスタッターは、1979年の著書『ゲーデル、エッシャー、バッハ』の終わり近くで、AIの将来について自らにインタビューしている。10の質問と推測」というセクションで、彼は機械的思考の可能性だけでなく、知能の一般的な性質についても質問を投げかけ、それに答えている。大学を卒業したばかりの私は、GEBを読んで、このセクションに強い関心を抱いた。人間レベルの人工知能の出現が間近に迫っているというマスコミの宣伝文句にもかかわらず(1980年代もそうだった)、この分野は実は広く開かれていて、新しいアイデアを切実に必要としているのだ、とホフスタッターの推測は私に確信させた。私のような駆け出しの若者を待ち受けているのは、まだまだ深い課題ばかりだったのである。

それから30年以上経った今、私は、GEBのホフスタッターの章へのオマージュとして、また、これまで述べてきた考えをまとめる意味で、私自身の質問と答え、そして推測で本書を締めくくるのがふさわしいと考えたのである。

質問:自動運転車はどのくらいで一般的になるのだろうか?

それは、あなたが「自動運転」をどう捉えるかによる。米国高速道路交通安全局は、自動車の自律性を6つのレベルで定義している1。

  • LEVEL 0:人間のドライバーがすべての運転を行う
  • LEVEL 1:ステアリングや車速など、人間のドライバーをアシストできる場合もあるが、両方を同時にアシストすることはできない
  • LEVEL 2:状況によってはステアリングと車速の両方を同時に制御できる(通常は高速道路での運転)。人間のドライバーは常に注意を払い(「運転環境の監視」)、車線変更、高速道路からの退出、信号での停止、パトカーへの停車など、運転に必要なすべてのことを行わなければならない
  • LEVEL3:車両は特定の状況下で運転のあらゆる側面を行うことができるが、人間のドライバーは常に注意を払い、車両が人間のドライバーに要求したときにはいつでもコントロールを取り戻せるように準備しておかなければならない
  • LEVEL 4: 特定の状況下では、車両がすべての運転を行うことができる。その場合、人間は注意を払う必要がない
  • LEVEL 5: あらゆる状況下で車両がすべての運転を行うことができる。乗員は単なる乗客であり、運転に関与する必要はない

“ある状況下では “という重要な垣根があることにお気づきだろうか。例えば、悪天候、混雑した市街地、工事現場の通過、車線表示のない狭い対面通行道路など、自律走行車にとって困難と思われる状況は数多く想像できるが、例えばレベル4の車両がすべての運転を行うことができる状況を網羅的にリストアップする方法はない。

この記事を書いている時点では、道路を走るほとんどのクルマはレベル0と1の間にあり、クルーズコントロールはあっても、ステアリングやブレーキのコントロールはない。最近のクルマで「アダプティブ・クルーズ・コントロール」を搭載しているものは、レベル1であると考えられる。現在、レベル2、3のクルマは、オートパイロットを搭載したテスラ車など、いくつかの種類がある。しかし、どのような状況であればドライバーの判断が必要なのか、メーカーもユーザーも勉強中である。また、かなり広い範囲で完全な自律走行が可能な実験車両もあるが、これらの車両でも、瞬間的に運転を交代する人間の「セーフティドライバー」が必要なことに変わりはない。実験車を含め、自動運転車による死亡事故は、人間が引き継ぐ準備ができていたはずなのに、注意を怠っていた場合に何件も起きている。

自動運転車業界は、どうしても完全な自律走行(つまりレベル5)の車を製造・販売したい。実際、完全な自律走行は、自動運転車を巡る話題の中で、私たち消費者が長い間約束してきたことでもあるのだ。では、真の意味で自律走行が可能なクルマを実現するためには、どのような障害があるのだろうか。

主な障害は、第6章で説明したようなロングテールな状況(「エッジケース」)である。車両が訓練を受けていない状況で、個々に発生することはまれかもしれないが、自律走行車が普及したときに一緒になって頻繁に発生するような状況である。人間のドライバーは、常識、特にドライバーが既に理解している状況との類推により、新しい状況を理解し予測する能力を駆使して、これらの事象に対処していることは説明したとおりである。

また、第14章で述べたような、物理学や生物学、特に心理学などの直感的な知識も必要だ。どんな状況でも確実に運転するためには、ドライバーは他のドライバー、自転車乗り、歩行者、動物などの動機や目標、感情までも理解する必要があるのである。複雑な状況を把握し、信号無視をする人、バスに飛び乗る人、信号無視をする人、ヒールの靴を直すために横断歩道で止まる人などを瞬時に判断することは、人間のドライバーにとっては当たり前のことだが、自動運転車にとってはまだ難しいことなのだ。

自律走行車のもうひとつの問題は、さまざまな種類の悪意ある攻撃の可能性である。コンピュータ・セキュリティの専門家によれば、現在私たちが運転している非自律走行車の多くも、ソフトウェアによる制御が進んでおり、Bluetooth、携帯電話ネットワーク、インターネット接続などの無線ネットワークへの接続を介してハッキングされる危険性があることが分かっている2。さらに、第6章で紹介したように、機械学習の研究者は、自動運転車のコンピュータビジョンシステムに対する「敵対的攻撃」の可能性を実証している。自動運転車のための適切なコンピュータセキュリティの開発は、自律走行技術の他の部分と同様に重要である。

ハッキングの問題はさておき、もうひとつの問題は、人間の本質とでもいうべきものだろう。例えば、道路を渡るふりをして縁石に乗り上げたり降りたりして、自動運転車を前進させないようにするなど、弱点を探る悪ふざけをする人が必ず出てくるはずだ。このような行為を認識し、対処するために、クルマはどのようにプログラムされるべきなのだろうか。また、完全自律走行車には、事故が起きたときに誰が責任を負うのか、どのような保険が必要なのかなど、法的な問題も大きく絡んでく。

自動運転車の未来を考える上で、特に茨の道となる問題が一つある。それは、「特定の状況下では」自動車がすべての運転を行うが、それでも人間のドライバーは注意を払い、必要であれば運転を引き継ぐ必要があるという部分的な自律性を目指すべきなのか。それとも、人間が車の運転を完全に信頼でき、注意を払う必要がない完全な自律性を目指すべきなのだろうか?

先に述べたような問題があるため、十分に信頼できる完全自律走行車、つまり、ほとんどすべての状況で自分で運転できるような技術はまだ存在しない。これらの問題がいつ解決されるかを予測するのは難しく、「専門家」の予測は数年から数十年に及ぶと見ている。複雑な技術プロジェクトは、最初の90パーセントに10パーセントの時間がかかり、最後の10パーセントに90パーセントの時間がかかるという格言を覚えておいて損はないだろう。

レベル3の部分的な自律性を実現する技術は、今まさに存在している。しかし、これまで何度も実証されているように、人間は部分的な自律性に対処するのが苦手である。人間のドライバーは、常に注意を払うべきとわかっていても、そうでない場合もあり、発生するすべての状況にクルマが対応できないため、事故が起きてしまうのである。

では、どうすればよいのだろうか。運転における完全な自律性を実現するには、基本的に一般的なAIが必要だが、それはすぐには実現しないだろう。現在、部分的な自律性を備えたクルマは存在するが、運転する人間が常に注意を払わないため、危険である。このジレンマに対する最も可能性の高い解決策は、完全な自律性の定義を変えることである。つまり、自律走行車が安全であることを保証するインフラが整備された特定の地域でのみ、自律走行車の走行を許可することだ。このソリューションの一般的なバージョンは、「ジオフェンシング」という名前で呼ばれている。フォードモーターカンパニーで自律走行車のチーフエンジニアを務めていたジャッキー・ディマルコは、ジオフェンシングについてこのように説明している。

レベル4の自律走行とは、ジオフェンスの範囲内で完全に自律走行することであり、高精細な地図があるエリア内であれば、その地図があれば理解することができる。その地図があれば、環境を把握することができる。街灯の位置、横断歩道の位置、道路のルール、制限速度などを把握することができる。私たちは、自律性とは、ある一定の範囲内で成長し、技術が進歩し、学習が進み、より多くの問題を解決する能力が備われば、その範囲内で拡大するものと考えている3。

もちろん、ジオフェンス内には厄介な人間がまだ存在している。AI研究者のAndrew Ngは、歩行者が自動運転車の周りでより予測可能な行動をとるように教育する必要があると提案している。「Ng氏の自律走行企業Drive.aiは、完全自律走行型自動運転タクシーの車両を投入し、適切なジオフェンス区域で乗客を乗降させるサービスを、法律で認められている数少ない州の一つであるテキサス州で始めている。この実験と歩行者教育という楽観的な計画が、どのような結果をもたらすのか、私たちはすぐに知ることになるだろう。

質問 AIによって、人間は大量に失業するのだろうか?

どうだろう。少なくとも、すぐには起こらないだろう。マービン・ミンスキーの「簡単なことは難しい」という格言は、今でもAIの多くで通用するし、多くの人間の仕事は、コンピューター(あるいはロボット)にとって、人が考えるよりもずっと難しいものになると思われる。

AIシステムが人間に取って代わることは間違いなく、すでにそうなっている。しかし、AIが雇用に及ぼす全体的な影響については、まだ誰も知らない。なぜなら、誰も将来のAI技術の能力を予測することができないからだ。

AIが雇用に及ぼすであろう影響については多くの報告があり、特に運転に関わる数百万の仕事の脆弱性に焦点が当てられている。これらの仕事に従事する人間がいずれ代替される可能性はあるが、実際に自律走行がいつ普及するのかが不透明なため、時系列を予測することは難しい。

不確実性にもかかわらず、テクノロジーと雇用の問題は、(当然ながら)現在進行中のAI倫理の議論全体の一部となっている。歴史的に、新しいテクノロジーは、代替するものと同じくらい多くの新しい種類の仕事を生み出しており、AIも例外ではないかもしれない、と何人かの人が指摘している。おそらくAIはトラックの運転手の仕事を奪うだろうが、AI倫理の発展が必要なため、この分野では道徳哲学者の新しいポジションが生まれるだろう。私がこのように言うのは、潜在的な問題を軽視するためではなく、この問題を取り巻く不確実性を表現するためだ。AIが経済に及ぼす可能性のある影響について、米国経済諮問委員会が慎重に調査した2016年の報告書は、この点を強調している:「これらの影響がどれほど強く感じられ、どれほど急速に到来するかについてはかなりの不確実性がある… 現時点で得られる証拠を考えると、特定の予測をすることは不可能であり、政策立案者はさまざまな潜在的結果に備えておく必要がある」5。

質問:コンピュータは創造的でありうるだろうか?

多くの人にとって、コンピューターが創造的であるという考えは矛盾しているように聞こえる。機械の性質は「機械的」であり、日常用語では創造性の反対を意味する言葉だからだ。懐疑的な人はこう言うかもしれない。「コンピューターは人間がプログラムしたことしかできない。創造性とは、自分で何か新しいものを作り出すことだ」6。

「コンピュータは、明示的にプログラムされたことしかできないから、定義上、創造的であるはずがない」という考え方は、間違っていると思う。コンピュータのプログラムには、プログラマーが思いもつかないようなものを生み出すことができる方法がたくさんある。私のプログラム「コピーキャット」(前章で紹介)は、私が思いもつかないような、奇妙なロジックを持つアナロジーをよく思いつく。私は、コンピュータが創造的になることは、原理的には可能だと考えている。しかし、創造的であるということは、自分が作ったものを理解し、判断することができるということだとも思っている。この意味で、既存のコンピュータは創造的であるとは言えない。

また、コンピュータのプログラムが美しい芸術作品や音楽を生み出すことができるかどうかという問題もある。美しさとは非常に主観的なものだが、私の答えは間違いなくイエスである。私はこれまで、コンピューターによって生み出された数々の芸術作品を見て、美しいと感じた。その一例が、コンピュータ科学者でありアーティストでもあるカール・シムズの「ジェネティック・アート」である7。シムズは、ダーウィンの自然淘汰に着想を得たアルゴリズムを用いて、デジタルアートを生成するようにコンピュータをプログラムした。シムズのプログラムは,数学的関数といくつかのランダムな要素を用いて、いくつかの異なる作品候補を生成する.人はその中から一番気に入ったものを選ぶ。プログラムは、数学の関数にランダム性を持たせることで、選択された作品のバリエーションを作り出す。そして、その中から気に入ったものを選ぶ、ということを何度も繰り返す。その結果、素晴らしい抽象的な作品が生まれ、美術館で広く展示されるようになった。

シムズ氏のプロジェクトでは、コンピュータが最初の作品から次々とバリエーションを生み出し、それを人間が判断するという、人間とコンピュータのチームワークが創造性を発揮しているのである。コンピュータは何も理解していないので、それだけではクリエイティブとは言えない。

音楽制作でも、コンピュータが美しい(あるいは気持ちの良い)音楽を作ることは可能だが、「何が良い音楽か」を理解し、コンピュータの出力を判断する人間との共同作業によって、初めて創造性が生まれると私は考えている。

このような方法で音楽を生成する最も有名なコンピュータ・プログラムは、プロローグで述べた「音楽的知性の実験」(Experiments in Musical Intelligence, EMI)プログラム8であった。EMIは、さまざまなクラシック音楽の作曲家のスタイルで音楽を生成するように設計されており、その中には、プロの音楽家でさえ、実際の作曲家が書いたと信じ込ませることができるものもあった。

EMIは、作曲家デイヴィッド・コープによって、個人的な”作曲家アシスタント “のような役割を果たすために作られた。コープ氏は、音楽を生み出すためにランダム性を用いるという長い伝統に興味を持った。有名なのは、モーツァルトをはじめとする18世紀の作曲家たちが行った「音楽的サイコロゲーム」と呼ばれるもので、作曲家が楽曲を小さなセグメント(例えば個々の小節)に分割し、サイコロを振って新しい楽曲のどこにそのセグメントを配置するかを決めるものである。

EMIは、いわばサイコロゲームである。EMIに、例えばモーツァルトのようなスタイルの曲を作らせるために、コープ氏はまず、モーツァルトの作品から短い音楽の断片を大量に選び、「サイン」と呼ばれる主要な音楽パターン(作曲家独自のスタイルを定義するのに役立つパターン)を特定する、彼の書いたコンピュータープログラムを適用した。コープ氏はさらに、各署名を曲の中で果たすべき特定の音楽的役割に分類するプログラムも作成した。このシグネチャーは、作曲家(ここではモーツァルト)に対応するデータベースに格納されていた。さらにコープ氏は、EMIの中で一種の音楽文法とでもいうべきルールを開発し、署名のバリエーションをどのように組み合わせれば、特定のスタイルの首尾一貫した楽曲を作ることができるかという制約を把握することに成功した。EMIは、乱数発生器(サイコロを振るのと同じようなもの)を使って署名を選び、そこから音楽の断片を作り出し、その断片をどのように並べるかを決めるのに、音楽文法を利用した。

このようにして、EMI社は、モーツァルトをはじめ、楽譜のデータベースが構築されている作曲家の「様式に則った」新曲を無限に作り出すことができたのである。コープ氏は、EMIの楽曲の中から厳選して公開した。私の耳には、凡庸なものから驚くほど良いものまで、美しいパッセージもあるが、オリジナルの作曲家の作品のような深みを持つものはない。(もちろん、EMIの作品であることをあらかじめ承知で言っているので、偏見があるかもしれない)。長い曲は、しばしば美しいパッセージを含んでいるが、音楽のアイデアの糸を見失うという人間離れした傾向もある。しかし、全体として、EMIの出版物は、複数の異なるクラシック作曲家のスタイルを取り込むことに非常に成功していた。

EMIはクリエイティブだったのか?私自身の答えは「ノー」である。EMIが生み出した音楽の中には、非常に優れたものもあったが、それは、コープがキュレーションした音楽記号や彼が考案した音楽学的ルールに組み込まれたコープの音楽学的知識に依存したものであった。最も重要なことは、このプログラムが、自分たちが生み出す音楽について、音楽的な概念も、音楽の感情的なインパクトも、全く理解していなかったということである。そのため、EMIは自分たちの音楽の良し悪しを判断することができなかった。それはコープの仕事であり、彼は「私が好きな作品はリリースされ、そうでないものはリリースされない」と簡単に言った9。

2005年、コープがEMIの楽譜データベースをすべて破棄したのは、不可解な決断であった。その主な理由は、EMIの楽曲は簡単に、しかも無限に生産できるため、批評家から評価を下げられるというものだった。コープ氏は、哲学者のマーガレット・ボーデン氏が書いたように、EMIが「有限の作品-死に悩むすべての人間の作曲家がそうであるように-」10を有してこそ、作曲家として評価されると考えたのである。

私の意見が、EMIの最も印象的な楽曲と、プロの音楽家を欺くその能力に憤慨したダグラス・ホフスタッターの慰めになるかどうかわからないが、私はホフスタッターを理解する。ホフスタッターの心配はよくわかる。文学者のジョナサン・ゴットシャルが述べているように、「芸術は間違いなく、人間を他の創造物から最も区別するものである。しかし、私が付け加えたいのは、私たちが誇りに思うのは、芸術を生み出すことだけでなく、芸術を鑑賞し、何が感動を呼ぶのかを理解し、芸術が伝えるものを理解する能力であるということだ。この鑑賞と理解は、観客とアーティストの双方にとって不可欠なものであり、これなくして創作を「クリエイティブ」とは呼べない。つまり、”コンピューターはクリエイティブになり得るだろうか?”という問いに答えるなら、原理的にはそうだと言えるだろう。という問いに対して、私は原理的にはイエスと言いたいのだが、すぐには実現しないだろう。

質問:一般的な人間レベルのAIを作るには、どれくらいの距離があるのだろうか?

これについては、アレンAI研究所の所長であるオレン・エツィオーニ氏の言葉を引用してお答えす。「見積もりを、2倍、3倍、4倍にしてみてほしい。その時である」12。

もう一つの意見として、前章のAndrej Karpathyの評価を思い出してほしい。「私たちは、本当に、本当に遠くにいるのだ」13。

私もそう思っている。

コンピュータは、最初は人間から始まった。例えば、第二次世界大戦中、兵士が大砲の照準を合わせるためにミサイルの軌道を計算するのに必要な計算は、通常、手計算や機械式卓上計算機で行っていた女性たちである。これがコンピュータの本来の意味である。クレア・エヴァンスの著書『ブロードバンド』によると、1930年代から40年代にかけて、「『ガール』という言葉は『コンピューター』と同じように使われていた」という。国防研究委員会のある委員は……1単位の『キロガール』エネルギーがおよそ1000時間の計算機労働に相当すると概算していた」14。

1940 年代半ば、電子計算機が人間に取って代わり、たちまち超人的な存在となった。この機械は、人間のコンピューターとは異なり、「砲弾が飛ぶよりも速く、スピードを上げた砲弾の軌道を計算する」ことができた15。最先端のAIアルゴリズムでプログラムされた今日のコンピューターは、他の多くの狭い範囲の作業を克服しているが、一般的な知能はまだ達成されていない。

私たちは、この分野の歴史の中で、著名なAI専門家たちが10年後、15年後、25年後、あるいは「一世代後」に一般的なAIが登場すると予言してきたことを見ていた。しかし、これらの予測はどれも実現していない。第3章で述べたように、レイ・カーツワイルとミッチェル・ケイパーによる「長い賭け」は、プログラムが慎重に構成されたチューリング・テストに合格するかどうかというもので、2029年に決着がつくとされている。私は、プロローグで引用されている彼の意見に全面的に賛成である。「人間の知性は驚異的で、繊細で、あまり理解されていない現象である。人間の知性は驚異的で微妙なものであり、かつ理解されていない現象である」

「予測は難しい、特に未来については」。この気の利いた言葉を誰が作ったかは議論の余地があるが、他の分野と同様、AIにおいても真実である。一般的なAIや「超知的」なAIがいつ登場するかについて、AIの専門家を対象にしたいくつかの調査では、「今後10年以内」から「決して」17まで、さまざまな意見があることが明らかになっている。

ただ、一般的な人間レベルのAIには、AI研究者が何十年もかけて理解し、再現しようと努力してきた能力(特に、常識的知識、抽象化、類推など)が必要だということだけは分かっている。その他にも大きな疑問が残っている。一般的なAIには意識が必要なのだろうか?自我を持つこと?感情を持つこと?生存本能や死への恐怖を持つか?肉体を持つこと?先ほどマービン・ミンスキーの言葉を引用したが、「心についての考え方は、まだ形成期である」のである。

「科学的創造性、一般的な知恵、社会的スキルなど、実質的にあらゆる分野で人間の最高の頭脳よりもはるかに賢い知性」18-をコンピュータがいつ達成するかという問題は、控えめに言っても悩ましいものだと思う。

何人かの作家は、コンピュータが一般的な人間レベルのAIに到達すれば、その機械はたちまち「超知的」になり、I. J. Goodの「知能爆発」(第3章に記載)のような過程をたどるだろうと主張している。一般的な知能を持つコンピューターは、人類のすべての文書を電光石火で読み、知るべきことをすべて学ぶことができるようになると考えられている。同様に、どんどん増えていく推論能力によって、あらゆる種類の新しい知識を発見し、それを自分自身の新しい認識力に変えていくことができるようになる。このような機械は、思考や学習の遅さ、非合理性や認知バイアス、退屈への感受性、睡眠の必要性、感情など、生産的な思考の妨げとなる人間の煩わしい制限に縛られることはない。このように考えると、超知的機械は、人間の欠点に制約されることなく、「純粋な」知性に近いものを包含していることになる。

それよりも私には、人間の限界とされるものは、人間の一般的な知能の一部であり一部分であるという考え方の方が正しいように思える。この世で働く肉体を持つがゆえに強いられる認知の限界、社会集団として機能するために進化した感情や「不合理な」偏見、その他、認知の「欠点」とみなされるあらゆる性質は、実は、私たちが狭い意味の学者ではなく、一般的に知的であることを可能にするものなのである。証明はできないが、人間であれ機械であれ、一般的な知能はこれらすべての見かけ上の欠点と切り離すことはできないのだろう。

ダグラス・ホフスタッターは、『GEB』の「10の質問と推測」というコーナーで、この問題をまぎらわしいほど単純な質問で取り上げている。「考えるコンピュータは速く足し算ができるようになるのだろうか?彼の答えは、最初に読んだときは驚いたが、今では正しいと思っている。「おそらく、そうではないだろう。私たち自身は複雑な計算をするハードウェアで構成されているが、だからといって、「私たち」がいるシンボルレベルが同じ複雑な計算をする方法を知っているとは限らない。幸運なことに、記号レベル(すなわちあなた)は、あなたの思考を担っているニューロンにアクセスすることができない。ホフスタッターはさらに、知的なプログラムも私たちと同じように、数字を「連想に満ちた、完全な概念」として表現すると説明している。このように「余分な荷物」を持ち歩くことで、知的なプログラムはその追加においてかなり怠惰になるだろう」19。

質問:私たちはAIに対してどの程度の恐怖を抱くべきなのだろうか?

もしあなたがAIについて映画やSF(そして一般的なノンフィクションでさえも)に頼っているなら、AIが意識を持ち、悪意を持って、私たち全員を奴隷にしたり殺したりしようとすることを恐れるだろう。しかし、この分野が一般的な知能の達成からどれほど離れているかを考えると、AIコミュニティのほとんどの人が心配しているのは、このようなことではない。本書で述べたように、AI技術を受け入れようとする社会の猛進を心配する理由はたくさんある。大量の雇用喪失の可能性、AIシステムの悪用、システムの信頼性の低さや攻撃に対する脆弱性などは、テクノロジーが人間の生活に及ぼす影響を懸念する人々のごく正当な心配の一部に過ぎない。

本書の冒頭で、ダグラス・ホフスタッターの最近のAIの進歩に対する落胆を紹介したが、彼が恐れていたのはほとんど別のことであった。ホフスタッターの心配は、人間の認識力や創造力がAIプログラムにあまりにも簡単に対抗されてしまうこと、そして彼が最も尊敬するショパンなどの人間の頭脳による崇高な創造物が、EMIのように”バッグ・オブ・トリック “を使った表面的なアルゴリズムに対抗されるかもしれない、ということだった。ホフスタッターはこう嘆いた。「無限の繊細さと複雑さと感情の深さを持つそのような心が、小さなチップによって矮小化されるとしたら、人間とは何かという私の感覚を破壊してしまうだろう」。ホフスタッターは、カーツワイルの予測するシンギュラリティにも同様に心を痛め、カーツワイルが少しでも正しければ「私たちは取って代わられるのだろう。私たちは遺物になる。私たちは遺物となり、塵と化すだろう」と。

私はホフスタッターのこのような心配に共感するが、それは明らかに時期尚早だと思う。本書から得られるメッセージは、何よりも、私たち人間はAIの進歩を過大評価し、自分たちの知能の複雑さを過小評価しがちであるということだ。今日のAIは一般的な知能にはほど遠く、機械の「超知能」が目前に迫っているとも思えない。もし一般的なAIが実現すれば、その複雑さは私たち自身の脳の複雑さに匹敵するものになると私は考えている。

AIに関する近い将来の心配事として、超知能はリストのはるか下にあるはずだ。実は、超知能の反対側こそが真の問題なのだ。本書を通じて、私は最も優れたAIシステムでさえも脆いことを説明してきた。つまり、入力が学習させた例と大きく異なる場合、エラーを起こすのだ。AIシステムのもろさは、どのような状況で顕在化するのかを予測するのは難しいことが多い。音声の書き起こし、言語間の翻訳、写真の説明、混雑した都市での運転など、もしロバストなパフォーマンスが重要なら、やはり人間がループに入る必要があるのである。短期的には、AIシステムの最も心配な点は、その限界と脆弱性を十分に認識しないまま、自律性を与えすぎてしまうことだと思う。私たちはAIシステムを擬人化する傾向があり、AIシステムに人間的な資質を与えてしまうことで、システムが実際にどの程度まで完全に信頼できるかを過大評価してしまうのである。

経済学者のセンドヒル・ムライナサンは、AIの危険性について書いた際、(第6章で説明した)ロングテール現象を引用し、「テールリスク」という概念を提唱している。

私たちは恐れるべきだ。私たちは恐れるべきである。知能を持った機械ではなく、知能を持たない機械が意思決定をすることを恐れるべきだ。私は、機械の知能よりも、機械の愚かさの方をはるかに恐れている。機械の愚かさは、テールリスクを生む。機械は多くの良い決断を下し、ある日突然、学習データに現れなかったテールイベントによって大失敗することがある。これが特定知能と一般知能の違いである20。

あるいは、AI研究者のペドロ・ドミンゴスは、「人々は、コンピューターが賢くなりすぎて世界を征服してしまうのではないかと心配しているが、本当の問題は、コンピューターが愚かすぎて、すでに世界を征服してしまったということだ」と述べている21。

私は、AIの信頼性の低さを心配している。また、どのように使われるかも心配である。第7章で取り上げた倫理的配慮に加えて、私が特に恐れているのは、AIシステムを使ってフェイク・メディアを生成することである。実際には起こりえない出来事を恐ろしいほどリアルに描写するテキスト、音声、画像、動画である。

では、私たちはAIを恐れるべきなのだろうか?イエスでもありノーでもある。超知的で意識のある機械が登場するわけではない。私たちが最も大切にしている人間性の側面が、”トリックの袋 “に匹敵するようなことはないだろう。少なくとも私はそう思っていない。しかし、アルゴリズムやデータを危険かつ非倫理的に利用する可能性については、心配することがたくさんある。怖いことだが、一方で、この話題が最近、AIコミュニティやそれ以外の場所で広く注目されていることに心を打たれている。研究者、企業、政治家の間で、これらの問題を解決することが急務であるという協力と共通の目的が生まれつつあるのである。

質問:AIの中で、まだ未解決のエキサイティングな問題は何だろうか?

ほぼすべてだ。

私がAIの分野で仕事を始めたとき、エキサイティングだと感じたことのひとつは、この分野のほぼすべての重要な問題が開かれていて、新しいアイデアを待っていることだった。これは今でも同じだと思う。

この分野の始まりに遡ると、ジョン・マッカーシーらによる1955年の提案(第1章で紹介)では、AIの主要な研究テーマとして、自然言語処理、ニューラルネットワーク、機械学習、抽象概念と推論、創造性などが挙げられている。2015年、マイクロソフトのリサーチディレクター、エリック・ホーヴィッツは、「(1955年の)提案書を適切に再フォーマットすれば、今日、全米科学財団に…再提出でき、おそらく一部の興奮したプログラムマネージャーから資金提供を受けることができるとさえ言えるかもしれない」とジョークを飛ばしている22。

これは、決して過去のAI研究を批判しているのではない。人工知能は、少なくとも人類の他の壮大な科学的挑戦と同じくらい困難なものである。MITのロドニー・ブルックスは、このことを誰よりもよく述べている。「AIが始まったとき、明確なインスピレーションは人間レベルのパフォーマンスと人間レベルの知性だった。この目標が、最初の60年間、ほとんどの研究者をこの分野に引きつけてきたのだと思う。その目標に近いものがないということは、研究者の努力が足りなかったとか、優秀でなかったということではない。それは、この目標が非常に難しいということなのである」23。

AIの最もエキサイティングな問題は、潜在的なアプリケーションにのみ焦点が当てられているわけではない。この分野の創始者たちは、新しい技術を開発したいという欲求と同様に、知能の本質に関する科学的な疑問によって動機づけられた。実際、知能は自然現象であり、他の多くの現象と同様に、単純化されたコンピュータモデルを構築することで研究できるという考え方が、(私を含む)多くの人々をこの分野に引き込んだ動機となったのである。

AIがもたらすインパクトは、私たち全員にとって、これからも大きくなっていくことだろう。本書が、思考する人間として、多くの未解決問題、その技術がもたらす潜在的なリスクと利益、そして私たち人間の知性を理解するために提起する科学的・哲学的疑問など、この急成長する学問の現状を知る一助となれば幸いである。そして、もしこれを読んでいるコンピュータがあれば、前の文章で何を指しているのか教えてほしい、議論に参加するのは大歓迎である。

著者についてのメモ

メラニー・ミッチェルはミシガン大学でコンピュータサイエンスの博士号を取得し、認知科学者で作家のダグラス・ホフスタッターに師事した。彼らは共に、理想化された世界で創造的な類推を行う「コピーキャット」プログラムを作成した。現在、ポートランド州立大学コンピューターサイエンス学部教授、サンタフェ研究所の外部教授を務める。最新情報のメール配信はこちらから登録いただけます。

この記事が役に立ったら「いいね」をお願いします。
いいね記事一覧はこちら

備考:機械翻訳に伴う誤訳・文章省略があります。
下線、太字強調、改行、注釈や画像の挿入、代替リンク共有などの編集を行っています。
使用翻訳ソフト:DeepL,ChatGPT /文字起こしソフト:Otter 
alzhacker.com をフォロー
error: コンテンツは保護されています !