人工知能 意識は重要か?
Artificial Intelligence: Does Consciousness Matter?

強調オフ

未来・人工知能・トランスヒューマニズム

サイトのご利用には利用規約への同意が必要です

Artificial Intelligence: Does Consciousness Matter?

www.ncbi.nlm.nih.gov/pmc/articles/PMC6614488/

02 July 2019

イリノイ工科大学専門職倫理研究センター(米国イリノイ州シカゴ市)

意識は、心身問題、強い人工知能と弱い人工知能の論争、生命倫理をめぐる議論において重要な役割を担っている。しかし、現在のAIやロボット工学の倫理的側面に関する議論では、意識は顕著ではない。本テキストはこの欠落を探り、二つの主張を行う。人工意識についてもっと話す必要がある。そして、現在のロボットやAIに意識が欠けていることについてもっと話す必要がある。

機械に意識はあるだろうか?

機械が意識を持ちうるかどうかという問題は新しいものではなく、強い人工知能(強いAI)と弱いAIの支持者がかなりの期間、哲学的な議論を交わしてきた。ジョン・R・サールは、強いAIには批判的であったが、強いAIを「…適切にプログラムされたコンピュータは本当に心であり、適切なプログラムを与えられたコンピュータは文字通り理解し認知状態を持っていると言える」(サール、1980、417頁)と仮定しているのが特徴である。これに対し、弱いAIは、機械は意識、心、感覚を持たず、思考と理解のシミュレーションを行うだけだと仮定している。

人工意識について考えるとき、私たちはいくつかの問題に直面する(Manzotti and Chella, 2018)。最も根本的なのは、意識を説明すること、つまり、物質から主観性がどのように出現しうるかを説明することの難しさであり、しばしば「意識のハードプロブレム」(Chalmers, 1996)と呼ばれている。さらに、人間の意識に関する理解は、私たち自身の現象体験によって形成されている。人間の意識は一人称視点で理解されるが、人工意識は三人称視点でなければ理解できない。これと関連して、機械が意識を持つかどうかをどうやって知るかという問題がある。

人工意識の基本的な前提は、機械やロボットの物理的な世界に見出されることである(Manzotti and Chella, 2018)。さらに、人間が与える人工意識の定義は、現象意識に頼らず、三人称的な視点で行わなければならないだろう。

一つの戦略は、機械意識の狭義の定義を避けること、あるいは定義を与えることを全く避けることである。この戦略の例として、David Levy(Levy, 2009, p. 210) は、意識とは何かについて一般的な合意があれば十分だという実用的な見方を好み、「単にこの言葉を使って、それに取り掛かろう」と提案している。

他の著者は自己認識に着目している。自己認識ロボットに関して、Chatilaら(2018, p.1)は関連すると考えている「…ロボットが環境を理解し、自分の行動を認知し、適切かつタイムリーな取り組みを行い、自らの経験から学び、学んだこととその方法を知っていることを示せるような根本的な原理と方法」これに対し、木内・マッキンはシステムレベルでの適応に着目し(木内・マッキン、2018、p.1)、「意識は、基盤となる並列処理ユニットの個々の結果を照合し整理することに基づく、システムレベルで効果的に適応するための機能としてみなされる。この意識は、私たちが日常生活で瞬間瞬間の判断をする際に、心がどのように「意識」しているかに対応していると想定される」

人工意識に特有の問題を解決するためには、人間(や動物)の意識を中心とした意識をめぐる哲学的な考察を行うことが有効である。意識には様々な概念がある。通常、
(a)意識的な実体、すなわち、感覚を持ち、覚醒し、自己意識と主観的な質的経験を持つ実体、
(b)何か、例えばバラを意識すること、
(c)意識的精神状態、すなわち、バラの香りを意識するなど、実体がその状態を意識する精神状態に区別される(Van Gulick, 2018;Gennaro, 2019)

人工意識の議論では、ネッド・ブロックの現象意識とアクセス意識の区別が特に有用である(Block, 1995)現象的意識は、意識的な精神状態にあることがどのようなものかという経験に関係するのに対し、アクセス意識は、例えば推論や行動の指導において生物によって使用可能な精神状態を指し、ある精神状態が他の精神状態とどのように関連しているかを説明する。人工意識に関する議論は、アクセス意識に焦点を当てることで明らかに有益なものとなるであろう。

Dehaeneら(2017)は、意識的な計算の2つの本質的な次元、すなわちグローバルな利用可能性(C1)自己監視(C2)を区別している。彼らが、情報が生物にとってグローバルに利用可能であると特徴付けるグローバルアベイラビリティは、Ned Blockのアクセス意識(Block, 1995)に似ている。自己監視(C2)は、イントロスペクションに相当すると考えられ、「認知システムが自分自身の処理を監視し、自分自身についての情報を得ることができるという自己参照関係を指す」(486-487頁)。

上記の人工意識を定義するアプローチの例が示すように、著者によって強調される側面は異なる。人工意識の第三者的な定義がどのようなものだろうかについては、もっと考え、研究する余地があることは明らかである。

人工意識とヒューマンロボットインタラクション

多くのSF作品に見られるように、現在の機械やロボットには意識がない、というのが研究者の大方の意見である。しかし、184人の学生を対象にしたアンケートでは、「現代の電子計算機に意識があると思うか」という問いに対する回答はいいえ:82%、不確か:15%、はい:3%だった(Reggia et al.、2015)。驚くべきことに、この調査の質問は「現代の電子計算機」についてのものであり、AIやロボットについてのものではなかった。

意識に関連する問題は、社会的ロボットと人間とロボットの社会的相互作用で最も容易に発生することが予想される(Sheridan, 2016)。Kate Darlingが与えた定義(Darling, 2012, p.2)によると、「ソーシャルロボットは社会的レベルで人間とコミュニケーションを取り、相互作用する物理的に具現化された自律的なエージェントである」とある。社会的ロボットの例としては、MITのKismet、Aldebaran NAO、Hanson Roboticsの人型社会的ロボットSophiaなどがある。

社会的ロボットは、人間にとって特別ないくつかの特徴を持っている。限定的な意思決定と学習が可能であり、行動を示すことができ、人と対話することができる。さらに、ロボットの社会的行動の非言語的即応性(Kennedy et al., 2017)、音声認識と言語コミュニケーション(Grigore et al., 2016)、顔の表情、ロボットの知覚される「個性」(Hendriks et al., 2011)といった能力が、人間がロボットにどう反応するかに重要な役割を担っている。

その結果、人間はロボットと一方向的な感情的絆を築き、生命的な性質を投影し、人間の特性を帰属させ(擬人化)、社会的ロボットに意図を付与する傾向がある(Scheutz, 2011;Darling, 2012;Gunkel, 2018)。この傾向の集大成とまではいかないまでも、典型的な例として、社会的人型ロボットSophiaが2017年にサウジアラビア国籍を取得したことに見ることができる(Katz, 2017)

これらすべては、ロボットの地位、そしてソーシャルロボットへの対応と対話の方法に関する問題を提起している(Gunkel, 2018)ソーシャルロボットは単なるモノなのか?それとも、社会的ロボットは準エージェントまたは準人間なのか(ピーター・アサロ)?社会的対話的な他者か?擬似的な他者か?ロボットは権利を持つべきか?

現在のロボットには感覚や意識がないという一般的な合意があるにもかかわらず、一部の著者(Coeckelbergh, 2010;Darling, 2012;Gunkel, 2018など)は、ロボットに権利を付与することに賛成している。例えば、ケイト・ダーリングは、ロボットに対する暴力的な行動に関する研究に基づいて、ロボットを単なるモノとしてではなく、ペットのように扱うことが私たちの社会的価値観に合致していると論じている。

ロボットへの権利付与の具体的な主張は異なるが、これらの立場に共通するのは、人間がロボットに与える社会的役割、人間がロボットと築く関係や感情的絆、あるいは人間がロボットと相互作用する社会的文脈に着目している点である。ロボットの能力で地位を決めるのではなく、ロボットが人間にとってどのような役割を果たすかで権利を主張する。

しかし、この「社会的役割」アプローチには根本的な問題がある。ロボットとの関わり方についての提案は、人間との関わり方と整合していないのである(Katz, 2017も参照)。「社会的役割」アプローチを人間に移し替えると、人間の価値や権利は、その社会的役割や他者の利益に強く依存すると主張することになる。この主張は、人間は社会的役割とは無関係に道徳的地位を有するとする一般的な見解と矛盾することになる。この観点からは、ある実体は「…その実体またはその利益が、その実体自身のためにある程度道徳的に重要である場合にのみ、道徳的地位を有する」(Jaworska and Tannenbaum, 2018)のである。

人間に地位と権利を与えるためには、人間であることが中心である。人という概念には、合理性、意識、個人的立場(ある存在に対してとる態度)、個人的立場の応酬能力、言語コミュニケーション、自己意識など、多くの能力と中心的テーマが含まれている(Dennett, 1976)。ダニエル・C・デネットは、これらすべてを道徳的人格の必要条件とみなしている。

これに対して、「社会的役割」アプローチでは、ロボットの道徳的地位や能力ではなく、ロボットが他者に対して果たす社会的役割に基づいて権利が付与される。そのため、この立場では意識は問題にならない。なぜなら、現在のロボットが感覚や意識といった特性を持たない以上、それ自体が道徳的に重要であると主張するのはもっともらしいからだ。

しかし、これは将来的に変わるかもしれない。そうなれば、「ロボフード」という概念について考え、これらの未来のロボットに、その能力に基づいて道徳的地位を付与することは、もっともなことかもしれない。すでに、ロボットに法的な人間性を付与することについては、興味深い論争が起こっている(Bryson et al.)ロボットの道徳的・法的地位に関する議論だけでなく、機械にどう対応し、どう対話するかというより広い問題に対しても、人工意識、人工合理性、人工感覚、および同様の概念に対する理解を深めることが必要である。人工意識と、現在のAIやロボットにおける意識の欠如について、もっと話し合う必要がある。その際、人工意識とアクセス意識の第三者的な定義に注目することは、特に有用であると思われる。

この記事が役に立ったら「いいね」をお願いします。
いいね記事一覧はこちら

備考:機械翻訳に伴う誤訳・文章省略があります。
下線、太字強調、改行、注釈や画像の挿入、代替リンク共有などの編集を行っています。
使用翻訳ソフト:DeepL,ChatGPT /文字起こしソフト:Otter 
alzhacker.com をフォロー