人工知能の歴史について
人工知能の過去・現在・未来について

強調オフ

LLM - LaMDA, ChatGPT, Claude3未来・人工知能・トランスヒューマニズム

サイトのご利用には利用規約への同意が必要です

journals.sagepub.com/doi/10.1177/0008125619864925

A Brief History of Artificial Intelligence: On the Past, Present, and Future of Artificial Intelligence

ミヒャエル・ヘーレンライン1、アンドレアス・カプラン2

概要

本特集の序論では、一般的に「外部データを正しく解釈し、そのデータから学習し、柔軟な適応によって特定の目標やタスクを達成するためにそれらの学習を利用するシステムの能力」と定義される人工知能(AI)について論じている。本特集では、AIに関する世界有数の専門家やスペシャリストが執筆した、AIに関する多様な視点を提示する7本の論文をまとめている。最後に、ミクロ、メゾ、マクロの各視点から、AIの将来について包括的な展望を提示している。

人工知能、ビッグデータ、規制、戦略、機械学習

私たちが今生きている世界は、ルイス・キャロルの名で知られるイギリスの数学者チャールズ・ラトウィッジ・ドジソンがその有名な小説の中で描いた「不思議の国」に似ていると感じる点が多々ある。画像認識、スマートスピーカー、自動運転車。これらはすべて、「外部データを正しく解釈し、そのデータから学習し、柔軟な適応によって特定の目的やタスクを達成するシステムの能力」と定義される人工知能(AI)の進歩によって可能になったものである1。しかし、ビッグデータの出現やコンピューティングパワーの向上により、現在ではビジネスシーンでも活用されるようになり、社会的にも注目されている。

AIは、その知能の種類(認知知能、感情知能、社会知能)により、分析型AI、人間刺激型AI、人間化AIに分類され、進化段階により人工狭義知能、一般知能、超知能に分類される。この現象は「AI効果」と呼ばれ、AIプログラムの振る舞いを「本物の知能ではない」と見なしてしまうことである。イギリスのSF作家、アーサー・クラークがかつて言ったように、「十分に高度な技術は魔法と見分けがつかない」しかし、その技術を理解したとき、魔法は消えてしまう。

1950年代以降、専門家たちは、あらゆる面で人間と見分けがつかない振る舞いをし、認知的、感情的、社会的知性を備えた「人工一般知能」システムに到達するまで、あと数年しかかからないと予言してきた。それが本当に実現するかどうかは、時間が経ってみないと分からない。しかし、何が実現可能かをよりよく理解するためには、AIを2つの角度から見ることができる。すなわち、すでに歩んできた道と、これから歩むべき道である。本論説は、まさにそれを目指すものである。まず、AIがどのように進化してきたかを春夏秋冬の四季に例えて振り返り、次に現在、企業が直面している課題を理解し、最後に未来に向けて、誰もが直面する課題に備えることができるよう解説する。

過去編 AIの四季

AIの春 AIの誕生

AIのルーツは、1940年代、特に1942年にアメリカのSF作家アイザック・アシモフが発表した短編小説「Runaround」までさかのぼることができると言われている。1)ロボットは人間を傷つけてはならないし、不作為によって人間に危害を加えてはならない、(2)第一法則に反しない限り、人間の命令に従わなければならない、(3)第一法則、第二法則に反しない限り、自らの存在を保護しなければならない、この「ロボット工学の三原則」を軸に、グレゴリー・パウエルとマイク・ドナバンが開発したロボット「ラナラウンド」は展開され、アシモフはこの「第三法則」にもとづいてロボットの開発を行った。アシモフの研究は、ロボット工学、AI、コンピューターサイエンスの分野で何世代にもわたって科学者を刺激し続けた。

同じ頃、3000マイル以上離れたイギリスの数学者アラン・チューリングは、よりフィクション性の低い問題に取り組み、第二次世界大戦でドイツ軍が使用したエニグマ暗号を解読するために、イギリス政府向けに「ボム」と呼ばれる暗号解読機を開発した。ボムは、大きさが7×6×2フィート、重さが約1トンもあり、一般に実用的な電気機械式コンピュータの第1号とされている。ボムは、人間の数学者でも不可能だったエニグマ暗号を解読する強力な能力を持ち、チューリングは、このような機械の知能に疑問を抱いた。1950年、チューリングは「計算機と知能」3という論文を発表し、知能機械の作り方、特にその知能のテスト方法について解説した。このチューリングテストは、現在でも人工システムの知能を識別する指標とされており、人間が他の人間と機械とで対話し、機械と人間とを区別できない場合、その機械は知能を持っていると言われる。

人工知能という言葉は、それから約6年後の1956年に、マーヴィン・ミンスキーとジョン・マッカーシー(スタンフォード大学のコンピュータ科学者)が、ニューハンプシャー州のダートマス大学で約8週間にわたる「人工知能に関するダートマス夏季研究プロジェクト(DSRPAI)」を主催したときに正式に作られたものである。このワークショップは、ロックフェラー財団の資金援助を受けた「AIの春」の始まりで、後にAIの生みの親と呼ばれる人たちが一堂に会した。参加者は、後に初の商用科学コンピュータIBM701を設計したコンピュータ科学者ナサニエル・ロチェスターや、情報理論を確立した数学者クロード・シャノンなど、後にAI創始者と呼ばれる人たちである。DSRPAIは、さまざまな分野の研究者が集まり、人間の知能をシミュレートする機械の実現を目指した新しい研究領域の構築を目的としていた。

AIの夏と冬 AIの浮き沈み

ダートマス会議の後、20年近くにわたってAIの分野で大きな成果を上げた時期があった。初期の例としては、1964年から1966年にかけてMITのジョセフ・ワイゼンバウムが作成した有名なELIZAというコンピュータープログラムがある。また、ノーベル賞受賞者のハーバート・サイモンとランド研究所のクリフ・ショーとアレン・ニューウェルが開発した「一般問題解決プログラム」は、「ハノイの塔」のようなある種の単純な問題を自動的に解決することができた5。1970年、マービン・ミンスキーは『ライフ』誌のインタビューで、平均的な人間の知能を持つ機械が3年から8年以内に開発されると述べた。

しかし、残念ながらそうはならなかった。わずか3年後の1973年、米国議会はAI研究に多額の予算を投入することを強く批判し始めた。同年、イギリスの数学者ジェームス・ライトヒルは、イギリス科学研究評議会の依頼で報告書を発表し、AI研究者の楽観的な見通しに疑問を呈している。ライトヒルは、機械はチェスなどのゲームで「経験豊富なアマチュア」のレベルにしか到達できず、常識的な推論は常にその能力を超えていると述べた。これを受けて、英国政府は3つの大学(エジンバラ、サセックス、エセックス)を除くすべての大学でのAI研究への支援を打ち切り、米国政府もすぐに英国に追随した。この時期から「AIの冬」が始まった。そして、1980年代には日本政府がAI研究に多額の資金を投入するようになり、アメリカのDARPAもそれに応えて資金を増額したが、その後、それ以上の進歩はなかった。

AIの秋 収穫

AIの分野が当初進展せず、期待に反して現実が大きく後退した理由の一つは、ELIZAやGeneral Problem Solverなどの初期のシステムが人間の知能を再現しようとした具体的な方法にある。具体的には、これらはすべてエキスパート・システム、つまり人間の知能が一連の「if-then」文としてトップダウン方式で形式化・再構築できることを前提としたルールの集合体だったのである(6)。例えば、IBMのチェスプログラム「ディープ・ブルー」は、1997年に世界チャンピオンであるゲイリー・カスパロフに勝つことができ、その過程で、25年ほど前にジェームズ・ライトヒルが行った声明の一つが間違っていることを証明したが、これもそうしたエキスパート・システムであると言える。Deep Blueは、1秒間に2億の手を処理し、木探索と呼ばれる手法により、20手先を見通した最適な次の手を決定することができたと報告されている7。

しかし、エキスパート・システムは、このような形式化に適さない分野では性能が低い。このような作業を行うためには、外部データを正しく解釈し、そのデータから学習し、その学習結果を柔軟に適応して特定の目標や作業を達成することができる、AIを定義する特性9を備えている必要がある。真のAIを実現するための統計的手法は、1940年代にカナダの心理学者Donald Hebbが人間の脳の神経細胞のプロセスを再現するヘブ型学習と呼ばれる学習理論を開発し10、人工ニューラルネットワークの研究が始まるなど、早くから研究されてきた。しかし、1969年にMarvin MinskyとSeymour Papertが、このような人工ニューラルネットワークが必要とする作業を処理するのに十分な処理能力をコンピューターが持っていないことを示したため、この研究は停滞したままとなった11。

人工ニューラルネットワークは、2015年にグーグルが開発したプログラム「AlphaGo」が、ボードゲーム「囲碁」の世界チャンピオンを倒すことができたことで、ディープラーニングという形でカムバックしたのである。囲碁はチェスよりも大幅に複雑であり(例えば、開局時にチェスでは20手の可能性があるが、囲碁では361手)、このゲームではコンピュータが人間に勝つことはできないと長い間考えられていた。AlphaGoは、Deep Learningと呼ばれる特定のタイプの人工ニューラルネットワークを使用することで高いパフォーマンスを達成した12。今日、人工ニューラルネットワークとDeep Learningは、私たちがAIのラベルで知るほとんどのアプリケーションの基礎を形成している。今日、人工ニューラルネットワークとディープラーニングは、私たちがAIのラベルで知るほとんどのアプリケーションの基礎を形成している。これらは、Facebookが使用する画像認識アルゴリズム、スマートスピーカーや自動運転車を動かす音声認識アルゴリズムの基礎となっている。このように、過去の統計的進歩の果実が収穫される時期が「AIの秋」であり、私たちは現在、この時期にいるのである。

現在 カリフォルニア・マネジメント・レビュー AI特集号

以上の議論から、AIはかつてのインターネットやソーシャルメディアのように日常生活の一部となることが明らかである。そうすることで、AIは私たちの個人生活に影響を与えるだけでなく、企業が意思決定を行い、外部のステークホルダー(従業員や顧客など)と対話する方法を根本的に変えていくだろう。問題は、これらの要素においてAIが役割を果たすかどうかよりも、どのような役割を果たすか、そしてより重要なのは、AIシステムと人間が(平和的に)どのように隣り合って共存していけるかである。どの意思決定をAIが行い、どの意思決定を人間が行い、どの意思決定を共同で行うかは、現代においてすべての企業が取り組むべき課題であり、本特集の記事は、このことについて3つの角度から考察している。

まず、これらの記事は、企業と従業員の関係、あるいは一般にAIが雇用市場に与える影響について考察している。彼らの論文「人材マネジメントにおける人工知能」「Challenges and a Path Forward」Tambe, Cappelli, and Yakubovichは、AIが企業の人事機能をどのように変化させるかを分析している。人事管理は、従業員のパフォーマンスの測定など複雑性が高く、採用や解雇の発生など比較的まれな事象が発生し、従業員と企業の双方に深刻な影響を与えるという特徴がある。これらの特徴は、AIソリューションのデータ生成段階、機械学習段階、意思決定段階において課題を生み出す。著者らはそれらの課題を分析し、AIと人間のどちらが主導権を握るべきかについて提言を行い、異なる戦略に対して従業員がどのように反応することが期待できるかを論じている。

また、この問題を取り上げた記事として、「The Feeling Economy」がある。Huang、Rust、Maksimovicによる「Managing in the Next Generation of AI(次世代のAIにおける管理)」である。この論文では、より広い視野で、さまざまな職種における機械的タスク(機器の修理やメンテナンスなど)、思考タスク(情報の処理、分析、解釈など)、感情タスク(人とのコミュニケーションなど)の相対的重要度を分析している。その結果、機械的な作業が機械やロボットに取って代わられたように、考える作業はAIに取って代わられ、人間の従業員は感じる作業に従事することが多くなることが実証分析で示されている。

第二に、本特集の論文は、AIが企業の内部機能、特にグループダイナミクスと組織的意思決定をどのように変化させるかを分析している。シュレスタ、ベン・メナヘム、フォン・クローは、「AI時代の組織的意思決定構造」において、組織の意思決定をAIに完全に委ねるべきか、ハイブリッド(AIを人間の意思決定の入力とするか、人間の意思決定をAIシステムの入力とするか)、集約(人間とAIが並行して意思決定を行い、何らかの投票により最適な意思決定を行うという意味)かの条件を説明する枠組みを構築している。どの選択肢を優先すべきかは、意思決定空間の特異性、代替案セットのサイズ、意思決定のスピード、さらには解釈可能性と再現性の必要性に依存する。

Metcalf, Askay, and Rosenbergは、「Keeping Humans in the Loop」の中で、人間がよりよい意思決定を行うためのツールとして人工群知能を提示している。人工群知能による知識のプールでビジネス上の意思決定を改善する”で、人間がより良い意思決定を行えるようにするためのツールとして、人工群知能を紹介している。動物界における意思決定(鳥の群れやアリのコロニーなど)からヒントを得て、著者は、群れ行動などのバイアスや、調査、クラウドソーシング、予測市場などの代替技術の制限を受けにくい、明示的・戦術的知識を結合するフレームワークを提案している。彼らは、この手法が売上予測や戦略的優先順位の定義に適用可能であることを示している。

ブロックとワンゲンハイムの論文「Demystifying AI: What Digital Transformation Leaders Can Teach You」では、より広い視点から、企業がすでにどの程度AIをビジネスに活用しているか、AIのリーダーは遅れている企業とはどう違うかを調査している。大規模な調査に基づいて、彼らは、データの必要性、熟練したスタッフと社内知識の必要性、AIを使用して既存のビジネス提供の改善に焦点を当てること、AIを組織に組み込むこと(同時に技術パートナーとの連携)、俊敏性とトップマネジメントのコミットメントの重要性など、AI活用の成功のガイドラインを示している。

最後に、本特集の記事は、企業と顧客との相互作用、特にマーケティングにおけるAIの役割について考察している。「パーソナライズド・エンゲージメント・マーケティングにおける人工知能の役割の理解」では、Kumar、Rajan、Venkatesan、Lecinskiが、個々の顧客の好みに合った商品、価格、ウェブサイトのコンテンツ、広告メッセージを機械駆動で自動的に選択する際に、AIがいかに役立つかを提案している。彼らは、パーソナライゼーションに伴う情報のキュレーションが、先進国、途上国双方の企業にとって、ブランディングや顧客関係管理戦略をどのように変化させるかを詳細に論じている。

同様の精神で、Overgoor、Chica、Rand、Weishampelは、「Letting the Computers Take Over」の中で、AIがマーケティングの意思決定をいかにサポートするかについて6段階の枠組みを提供している。Using AI to Solve Marketing Problems “で、AIがマーケティングの意思決定をどのようにサポートできるかを6つのステップで説明している。このフレームワークは、ビジネスとデータの理解を得ること、データの準備とモデリング、そしてソリューションの評価と展開に基づいており、3つのケーススタディにおいて、多くの企業が今日直面している問題、すなわち口コミプログラムにおけるインフルエンサー戦略の設計方法13、デジタルマーケティングにおける画像の選択方法、ソーシャルメディアにおける顧客サービスの優先順位付け方法について適用されている。

これからの時代 規制の必要性ミクロの視点。アルゴリズムと組織に関する規制

近い将来、AIシステムがますます私たちの日常生活の一部になるという事実は、規制が必要なのか、必要であればどのような形で規制するのかという問題を提起している。AIは本質的に客観的で偏見のないものだが、AIに基づくシステムに偏りがあってはならないということではない。実際、その性質上、AIシステムを学習させるための入力データに偏りがあると、それが持続し、増幅される可能性すらある。例えば、自動運転車に搭載されているセンサーは、肌の色が濃い人よりも薄い人の方が検出しやすいという研究結果14や、裁判官の意思決定支援システムは、過去の判決の分析に基づいているため、人種に偏りがある可能性があるという研究結果15がある。

AIそのものを規制するのではなく、AIアルゴリズムの学習とテストに関して、おそらくは物理的な製品に用いられる消費者テストや安全テストのプロトコルと同様の何らかの保証と組み合わせて、一般に受け入れられる要件を開発することが、こうした誤りを回避する最善の方法であると思われる。これによって、AIシステムの技術的側面が時間とともに進化しても、安定した規制が可能になる。関連する問題として、アルゴリズムの誤りに対する企業の説明責任、あるいは、弁護士や医師が誓うようなAIエンジニアの道徳規範の必要性が挙げられる。しかし、このような規則が回避できないのは、AIシステムの意図的なハッキング、性格的特徴に基づくマイクロターゲティングへの望ましくない利用16、フェイクニュースの生成17などである。

さらに問題を複雑にしているのは、ほとんどのAIシステムで使用されている重要な技術であるディープラーニングが、本質的にブラックボックスであることである。このようなシステムが生成するアウトプットの品質(例えば、正しく分類された写真の割合)を評価することは簡単だが、そのために使用されるプロセスはほとんど不透明なままである。このような不透明性は、意図的なもの(企業がアルゴリズムを秘密にしたい場合など)、技術的な不案内によるもの、アプリケーションの規模に関連するもの(多数のプログラマーと手法が関与している場合など)18がある。例えば、Facebookが特定の写真に誰をタグ付けするかを特定する方法を気にする人はほとんどいないかもしれない。しかし、AIシステムが、写真の自動分析に基づいて皮膚がんの診断を提案するために使用される場合19、そのような推奨がどのように導き出されたかを理解することが重要になる。

メゾ・パースペクティブ雇用に関する規制

製造工程の自動化によってブルーカラーの雇用が失われたように、AIの普及によってホワイトカラーや高度な専門職も不要になる。前述したように、画像認識ツールは皮膚癌の発見においてすでに医師を凌駕しており、法曹界ではeディスカバリー技術により、数百万件の文書を調査するために弁護士やパラリーガルの大規模チームの必要性が減少している20。確かに、雇用市場の大きな変化は過去にも観察されているが(例えば、1820年から1840年の産業革命の文脈)、それらの従業員を受け入れるために他の分野で必ずしも新しい仕事が生まれるかどうかは明白ではない。これは、新たな雇用の可能性の数(失われた雇用の数よりはるかに少ないかもしれない)と必要なスキルレベルの両方が関係している。

興味深いことに、フィクションがAIの出発点であるのと同様に(アイザック・アシモフの短編小説「ランアラウンド」を思い出してほしい)、失業者が多い世界がどのように見えるかを垣間見るために使われることがある。アメリカの作家ニール・スティーブンソンが発表したフィクション小説「スノー・クラッシュ」では、人々は物理的な生活を技術的な機器に囲まれた倉庫で過ごし、実際の生活はメタバースという三次元世界で、三次元のアバターの形で登場するという世界が描かれている。このシナリオは想像の域を出ないが、近年のバーチャルリアリティの画像処理の進歩と、過去のバーチャルワールド21の成功(および失業率の上昇に伴う可処分所得の減少)が相まって、代替の娯楽が身近でなくなり、このシナリオはユートピアとは程遠いものとなっている。

このような進化を避けるには、やはり規制が必要かもしれない。例えば、企業は自動化によって節約した資金の一定割合を、自動化できない新しい仕事のための従業員教育に費やすことを義務づけられるかもしれない。また、国家が自動化の使用を制限することを決定することもできる。フランスでは、行政機関が使用するセルフサービス・システムは、通常の勤務時間内にのみアクセスすることができる。あるいは、企業が1日の労働時間を制限して、残りの仕事をより均等に分配することも考えられる。これらはすべて、少なくとも短期的には、この場合の解決策として通常提案されるユニバーサル・ベーシック・インカムのアイデアよりも簡単に実行できるかもしれない。

マクロ的な視点民主主義と平和のための規制

このような規制の必要性は、必然的に”Quis custodiet ipsos custodes?” すなわち「誰が警備員自身を守るのか」という問いにつながる。AIは企業や私人だけでなく、国家そのものが利用することも可能である。中国は現在、監視、ビッグデータ、AIを組み合わせた社会信用システムに取り組んでおり、「信頼できる者は天下のあらゆる場所を歩き回ることができ、信用できない者は一歩も動けなくする」22。これとは反対に、サンフランシスコでは最近、顔認識技術の禁止を決定し23、研究者は仮想透明マントのように作用して自動監視カメラに発見されないようにするソリューションに着手している24。

中国や米国がある程度、企業がAIを使用し、探求するための障壁を制限しようとする一方で、欧州連合は、個人情報の保存と処理の方法を大幅に制限する一般データ保護規則(GDPR)の導入により、反対の方向に進んでいる。これはどう考えても、EUではAIの発展が他地域に比べて遅れるという結果になり、経済成長と個人のプライバシーへの配慮をどう両立させるかが問われることになる。最終的には、マネーロンダリングや武器取引などの問題と同様に、規制の国際的な協調が必要になるだろう。AIの性質上、一部の国だけが影響を受け、他の国が影響を受けないような局所的な解決策が長期的に有効であるとは考えにくいからだ。

ルッキング・グラスの向こうに

GoogleのRaymond Kurzweilが考えているように、AIによって私たち自身の知性を高めることができるのか、あるいはイーロン・マスクが懸念しているように、最終的に第三次世界大戦に突入してしまうのか、誰にもわからない。何十年もの間、倫理学は「トロッコ問題」を扱っていた。トロッコ問題とは、架空の人物が、多数の死をもたらす不活性と少数の死をもたらす活動のどちらかを選ぶ必要があるという思考実験である26。

しかし、常に自ら進化し続け、政治家はおろか専門家も十分に理解していないテクノロジーを、どのように規制すればよいのだろうか。この動きの速い世界における将来の進化を許容する十分な広さと、すべてがAIとみなされることを回避する十分な正確さという課題をどのように克服すればよいのだろうか。一つの解決策は、1964年にわいせつ物を定義した米国最高裁判事ポッター・スチュワートのアプローチに倣うことである。“I know it when I see it.”(見ればわかる)。このことは、先に述べたAI効果の話に戻るが、かつては異常と見なされていたものを、今ではすぐに普通と受け入れてしまう傾向がある。今日、ユーザーが自分の携帯電話とチェスをするためのアプリが何十種類もある。機械とチェスをし、ほぼ確実に負けることは、もはや語るに値しないこととなった。おそらく、20年余り前の1997年当時、ガルリ・カスパロフはこの問題についてまったく異なる見解を持っていたと思われる。

著者略歴

Michael Haenlein:ESCPヨーロッパ・ビジネス・スクールのビッグデータ・リサーチ・センター主任教授、エグゼクティブ博士課程副学部長(Eメール:haenlein@escpeurope.eu)。

アンドレアス・カプランは、ESCPヨーロッパ・ビジネススクール・ベルリンの教授兼学長で、世界のビジネスとマネジメントの著者トップ50に数えられている(Eメール:akaplan@escpeurope.eu)。

この記事が役に立ったら「いいね」をお願いします。
いいね記事一覧はこちら

備考:機械翻訳に伴う誤訳・文章省略があります。
下線、太字強調、改行、注釈や画像の挿入、代替リンク共有などの編集を行っています。
使用翻訳ソフト:DeepL,ChatGPT /文字起こしソフト:Otter 
alzhacker.com をフォロー