民主主義システムを破壊する可能性のある人工知能が提供する脅威
Threats provided by artificial intelligence that could disrupt the democratic system

強調オフ

AI(倫理・アライメント・リスク)全体主義民主主義・自由

サイトのご利用には利用規約への同意が必要です

opus4.kobv.de/opus4-fhbrb/frontdoor/index/index/docId/2898

Threats provided by artificial intelligence that could disrupt the democratic system

経済学部

ブランデンブルク応用科学大学

2023年1月16日

要旨

この研究論文は、AI技術が民主主義システムに及ぼす潜在的な影響について検証している。本研究では、メディアの弱体化と「スマート独裁」の出現という2つの主要な分野に焦点を当てている。

本論文では、AIがメディアを監督、操作、挫折させるために使用できる方法を検討し、それによって政府や企業の権力に対するチェック機能としてのメディアの役割を弱める。また、AI技術を利用して、「パノプティコン」の手法や「ソーシャルボット」の利用により、個人が常に監視・管理される「全方位監視」社会を実現する方法を探っている。これは、不平等の拡大、非人間化、オンラインメディアプラットフォームでの情報操作などを特徴とする「ポスト民主主義」社会の出現につながりかねない。

本研究で採用した研究手法は質的なもので、3人の専門家によるエキスパート・インタビューを用い、AIの全体的な使用と、フェイクニュースの作成、フィルターバブル、アルゴリズムの偏りなど、民主主義に対する破壊的影響について議論した。結論として、本研究は、AI技術の責任ある利用を確保し、民主主義の価値を守るために、AI技術に対する認識と規制を強化する必要性を強調するものである。

キーワード

人工知能、AI、民主主義、民主主義システム、ディスラプション

目次

  • 1. はじめに
  • 2. 方法論
  • 3. 民主主義の文脈における人工知能
  • 4. これまでの研究
    • 4.1. メディアの弱体化
    • 4.2. スマート独裁
  • 5. 研究課題
  • 6. 成果
  • 7. 考察
  • 参考文献一覧

1. はじめに

人工知能がどこまで可能で、どこまですべきかという議論が盛んに行われている。人類とロボットの戦争を予感させるディストピア映画やファンタジーを私たちは知っている。それは未来が示すものである。AIとどう付き合うか、どれだけ予防策を講じるかによって、AIは人類にとって最大の功績にも過ちにもなり得る。AIが急速に発展する中、AIがもたらしうる脅威に目を光らせることが重要である(Brundage et al., 2018, p. 3)。未来のAIがもたらす影響は甚大なものになる可能性がある。だからこそ、AIを作り、最適化する際に、AIの脅威を考慮することが関連する。

以下の論文では、AIが民主主義にもたらしうる脅威を評価する。民主主義は、多くの国の機能的な基盤である。そのため、脅威によって基盤が損なわれると、破壊的な事象につながる可能性がある。脅威がもたらしうる影響を評価するために、関連する文献をレビューし、専門家によるインタビューを実施した。本稿は、民主主義に対するAIの脅威として存在する可能性のあるものをすべて特定することを主張するものではない。その代わり、様々な脅威を評価することで、AIが持ちうる破壊的な原因に焦点を当てる。

2. 方法論

AIが提示する民主主義に対する破壊的な脅威を特定するために、私たちは定性的なアプローチを選択する。本論文では、研究課題に答えるために、質的インタビューを実施した。方法論的アプローチとして使用できる、AIの民主主義に対する破壊的脅威に関する先行研究がないため、インタビューガイドを帰納的に作成した。帰納的アプローチに基づき、いくつかの質問により詳細に答え、より多くの情報を得ることができるように、半構造化インタビューを実施した。

民主主義に対するAIの破壊的脅威について、3人の専門家が独立してインタビューに応じた。インタビューは15分から20分程度で、適切に分析するために録音した。本稿では専門家の名前を使用する法的権利がないため、専門家は「専門家1」「専門家2」「専門家3」と呼ぶことにする。インタビューガイドは、まず専門家に、彼らが認識している民主主義に対するAIの脅威について尋ねるという方法で構成されている。その後、私たちの研究でテーマ化した脅威を簡単にまとめた表を見せ、それについて質問した。そうすることで、私たちが発見した脅威に偏ることなく、彼らが認識した脅威について専門家の意見を聞くことができた。その後、インタビューを書き起こし、分析した。

1人目の専門家は、人工知能と倫理を研究テーマとする上級研究者である。さらに、彼は分析、特にデータマイニングのバックグラウンドも持っている。2人目の専門家は、社会科学と統計的学習に関する教授である。彼の研究は、機械学習が人間に与える影響に集中している。最後の専門家は、イノベーション・コンサルタント兼プロジェクト・マネージャーで、研究資金の申請を支援したり、地元企業と協力可能な他の企業や大学を結んだりして、地元企業のAI技術導入を支援している。インタビューはかなり短かったが、それでも包括的であった。

3. 民主主義の文脈における人工知能

人工知能とは、知的な振る舞いを示す人間のような処理を行うシステムの一形態である。AIは、過去の経験によって学習し、その学習に基づいてパフォーマンスを向上させることができるという特徴がある(第115回連邦議会、2017-2018)。このような特徴から、AIはシステムやプロセスを改善するための貴重な資産となる。経験から学び、パフォーマンスを向上させることに加え、AIの動作速度も重要な資産となる。スピードの点で人間を凌駕するAIは、プロセスを大幅に効率化するために利用できる(Bostrom, 2014, pp.77-78)。世の中のあらゆるものと同様に、ポジティブなイノベーションが悪用されてネガティブな影響や結果を引き起こすことがある。本稿では、AIの利用が民主主義に及ぼしうる脅威について集中的に考察する。民主主義には、部分的には同じでも、多くの異なる定義がある。本稿では、次のような定義にした:

「民主主義とは、自由で公正な選挙(主要な政治的代表者)および/または政治的決定(国民投票)への決定的な参加を保証することによって、すべての市民の自己決定(国民主権の意味での)を可能にする憲法上の一種のルールである」(ラウト、2015年、8頁)

民主主義システムでは、市民は政治プロセスに影響を与えることができ、その結果、権力のコントロールが可能になる。民主主義体制における市民の参加は、「自由」「政治的平等」「政治的統制」という3つの次元で定義することができる。第一の次元である自由は、政治的な決定や行動における自由な自己決定を意味する。政治的平等とは、国家がすべての国民を公平かつ平等に扱うことである。さらに、すべての国民が民主的なプロセスに基づく正式な制度に等しく参加することができる。最後に、政治的統制は、国家の正式な組織を選出する市民によって行われる。また、市民社会が運営する司法制度は、機能的な民主主義システムに寄与している(Lauth, 2015, pp.8-9)。これら3つの次元が民主主義の基本的な部分である以上、これらの次元の1つ以上が攻撃されたり危険にさらされたりすることは、民主主義に対する脅威となる。だからこそ、私たちのさらなる研究は、民主主義と3つの次元すべてにとって危険となる可能性のあるAIの脅威を特定する。

民主主義のもう一つの重要な原則は、三権分立である。この原則は、民主主義が立法権、行政権、司法権に分けられることを述べている。これら3つの権力は、お互いをコントロールし、国家権力を制限することを目的としている(Deutscher Bundestag、2023)。メディア、ひいてはAIがこれらの権力にどのような影響を与えることができるかを考えるとき、権力の分割は本論文の重要な側面となる。

4. これまでの研究

AIが民主主義に与える影響を判断するためには、AIが民主主義システムのどこに影響を与える可能性があるかを調べることが不可欠である。三権分立を考慮すると、AIは公的に選ばれた代表者を基盤としているため、立法権に脅威を与えることになる。代表的な政治家を選ぶ選挙では、マスメディアは政党が利用する重要な要素である。市民にとって代表者の選挙は民主主義の基本的な要素であり、市民が政治の意思決定に積極的に影響を与えることができる。メディアは政党の宣伝に使われ、また選挙プログラムや代表者について市民に知らせることができる。さらに、メディアは、市民が政党や決定を批判し、議論するために使用することができる。このように、メディアは選挙プロセスにおいて重要な役割を担っている(Lange and Ward, 2004, pp.9-10)。

4.1. メディアの弱体化

メディアは、多くのオンラインプロセスでAIが行われる領域である。だからこそ、AIはメディアの弱体化に貢献し、民主主義を脅かすことにもなりかねない。デジタル時代の始まりでは、プロセスはかなり無害なものから始まった。AIの開発と利用は、ユーザーにとってデメリットや脅威がまったくない素晴らしい進歩であるように思えた。それは、ユーザーに個別の提案を行う検索エンジンや、パーソナライズされた商品提案を行うオンラインプラットフォームから始まった。それ以来、多くのことが変わった。今日のアルゴリズムは、私たち自身について多くのことを知っている(Helbing et al., 2019, p.75)。私たちはソーシャルメディアのプロフィールを通じて進んでデータを提供しているだけでなく、アルゴリズムも大多数が知らない自分自身に関する多くのデータを追跡している。大量のデータと透明性の欠如は、オンラインメディアを民主主義にとっての潜在的な脅威へと変貌させる。

カプラン(2020年、153-156頁)は、民主主義を脅かす可能性を持つメディアでAIが行われる領域として、監督、操作、フラストレーションの3つを挙げている。

監督

AIやビッグデータの活用によって導入される、人間に対する監視と管理は、民主主義に対する脅威である。政府は、監督という観点からAIを悪用することで、市民の自由を制限する可能性がある(Kaplan, 2020, p.153)。市民を監督・管理することは、フィクションや未来予測からは程遠い。中国は、市民を監督・管理するためにAIを利用した最良の例だ。中国では、市民は個人の社会的信用スコアを得ることができる。このスコアは、国民一人ひとりのデータを収集することで算出される。これらのデータには、財政、税金、健康記録、購買行動、ソーシャルメディア活動、顔認識からの情報などの監視と追跡が含まれる。中国にある約2億台の監視カメラは、赤信号を通過したりゴミを落としたりといった市民の行動を追跡している(Marr, 2019)。しかし、中国は計算されるスコアが行動だけでなく、友人や知人のスコアにも影響されるため、さらに進んでいる。このレベルの監督を考え、そのようなAIの使い方をコントロールすることは、さまざまな意味で民主主義を脅かすことになるだろう。市民の私生活における意思決定だけでなく、投票などの意思決定も自由ではなくなり、政府から見て間違った選択をすれば、スコアが減ってしまうからだ。さらに、オンライン活動の追跡は、市民の尊厳とプライバシーを著しく低下させるだろう。また、アルゴリズムに間違いがないわけではない。だからこそ、公正や正義を単純にアルゴリズムに置き換えることはできない(Helbing et al., 2019, p.85)。

マニピュレーション

カプラン(2020年、154-155頁)は、AIを搭載したソーシャルメディアを悪用した場合の脅威と認識した。彼は、ソーシャルメディアアルゴリズムを標的型操作と区別した。ソーシャルメディアアルゴリズムは、行動データを用いて、ユーザーに最適なコンテンツを提供する。それによって、ソーシャルメディアアルゴリズムはフィルターバブルを作り出し、ユーザーはそれまでの行動や振る舞いに基づいたコンテンツだけを見ることができる。このような操作方法は、ターゲットを絞った操作ではないが、それでも、さまざまな話題に対するユーザーの認識に影響を与える。

“[…]ある時点で、他の意見に触れることがなくなるため、他の誰もが自分と同じように考えているという印象を持つようになる。” (カプラン、2020年、154頁)

一方で、フェイクニュースによる意図的・標的的な操作の脅威もある。フェイクニュースとは、虚偽または誤解を招くような主張を、ニュースとして紹介することである(Gelfert, 2018, p.108)。これらのフェイクニュースは、ソーシャルメディアを通じて配信され、ソーシャルメディアのアルゴリズムから利益を得ることができる。フェイクニュースは、政治家候補に関する市民の意見を操作するために使われると、民主主義の脅威となる(Kaplan, 2020, p.154)。候補者に関する誤解を招く情報や誤った告発は、選挙結果を変えるために利用される可能性がある。ロシアは、有権者の意見を操作する手法の一つとして、フェイクニュースを用いて2016年の米国選挙に介入した。候補者に関する虚偽の軽蔑的な情報を拡散し、身分を偽ってソーシャルメディアアカウントを使用し、候補者のキャンペーンを中傷したのである。ロシアによる米国選挙干渉の目的は、政治的・社会的な不和を作り出し、高めることだった(Mueller, 2019, pp.4-14)。フェイクニュースの影響を測定することが難しいことも、民主主義に対する大きな脅威である。

フラストレーション(欲求不満)

カプラン(Kaplan, 2020, p.155)が指摘した3つ目の影響領域は、それ自体が脅威であると同時に、フェイクニュースの結果でもある。フェイクニュースや誤解を招くような情報により、市民のフラストレーションが発生することがある。欺瞞と、情報の正しさを確認するために市民が負担しなければならない大きな労力は、フラストレーションにつながる。このフラストレーションによって、市民は投票や民主主義への参加をやめてしまうかもしれない(Kaplan, 2020, p. 155)。フェイクニュースの結果であることはもちろん、フラストレーションが積極的に悪用されれば、それ自体が脅威となる可能性もある。

4.2. スマート独裁

Welzer(2016)-ハノーファー大学のドイツ人社会学者・社会心理学者-は、AI技術の民主主義への参加について興味深い論考を書いている。彼の著書によれば、AI技術の介入によって、私たちの民主主義が「スマート独裁」に向かう兆候は、以下のようなものがあるという:

全方位的な監視

今日の多くのITユーザーは、自らの監視と商業的利用に関与している。インターネット上のサービスプロバイダーが意識的かつ真剣にこれを行うのは、このテクノロジー時代のコンピュータユーザーデータが彼らにとって宝の山のようなものだからだ。この個人データは、ほとんどがユーザーによって無頓着かつ自発的に与えられるものだが、後に特定の目的のために加工する準備が整った「原材料」となる(Welzer, 2016, p.38)。2016年には、請願プラットフォーム「change.org」がビジネス部門で「ビッグブラザー賞」を受賞するという驚くべき出来事も起こった。ビッグブラザー賞とは、顧客データの第三者への開示や売却を躊躇しない事業者に与えられるネガティブな賞である。社会的に良いイメージを持たれている企業には、グローバルなデータ収集企業が隠れているのではないかという疑念が十分にある。これらの企業は、依頼者の個人データを収集し、最新のアルゴリズムで分類して、さらなる利用のために受け渡し、公開する(Hilbrans and Wedde, 2016)。

パノプティコン

ジェレミー・ベンサム – イギリスの哲学者 – は18世紀後半、受刑者を一点から全面的に監視する形態として、刑務所の中心に位置する建物を設計した。このような考え方は、技術的なツールの発達と並行して進み、今ではたった一つのデバイスからユーザーのあらゆる個人データを収集することが可能になっている(Welzer, 2016, p.161)。さらに、ユーザーが電子機器とともにサーバーに常時接続されるようになれば、AIは、オンライン上の既存のデータに基づいて監視を行う、継続的な「データ監視」を実現できると言われている(Clarke, 1988, pp.498-512).

ソーシャルボット

例えば、メッセージを素早く拡散したり、特定の意見や発言を表明したり、その他の形でエンゲージメントを提供したりするなど、特定のターゲットや目標を持ったコンピュータ制御の疑似アクターである。ソーシャルボットの需要はますます高くなり、多くの代理店が特定の目的のためにこのサービスを提供している。恐ろしいことに、これらの疑似アクターは、実際のソーシャルメディアユーザーと見分けがつかないことが多いのである(Welzer, 2016, p.46)。2016年、米国の選挙戦においてソーシャルボットが「活躍している」ことが判明し、話題となった。トランプ候補もクリントン候補も、ソーシャルメディアのFacebookやTwitterで突然多くの支持やコンテンツへの反応を受け、それが結果的にSNS上での彼らに対する世論の変化をもたらし、各候補に関するトレンドが強くなっていたことが判明した(Fischer, 2016)。

ポスト民主主義

エリック・アーサー・ブレア-ジョージ・オーウェルという芸名で知られている-は、イギリスの小説家、エッセイスト、ジャーナリスト、評論家で、民主主義体制が全体主義国家へと変化していくというビジョンを『1984』で表現していた。オーウェルは、機械化とデジタル化の進展は、民主主義体制にとって非常に危険であり、政府を代表する「ビッグブラザー」が人々の日常生活に影響を与える計画を容易にし、円滑にするものであるとした。この「ビッグブラザー」は、私たちが持っている、そして使っているすべての技術を通じて、私たちが何をし、何を考え、どう感じるかまでコントロールすることができる(Welzer, 2016, p.101)。全体主義体制の支持者はしばしばこのシステムを「現代人民民主主義」と呼ぶが、これは実際には独裁政治の「種」の一つであり、人民の指導者は党内会議でのみ議論される事柄を決定できる与党の指導者であり、その決定は最終決定であるという意味だ。この全体主義体制の特徴は、全体統制、軍事独裁、独裁体制、また思想統制である(Friedrich and Brzezinski, 1969, pp.187-199).

もちろん、先に述べたようにAIが民主主義体制に参加することで、私たちの民主主義体制は以前と同じではなくなる。以下のような弊害が生じる可能性がある:

不平等が拡大する

民主主義制度が社会経済的な機能前提であることを多くの人が認識していない。それは、「新しい資本主義」を形成するAI技術の導入により、個人間または企業間のいずれかの不平等を確実に増大させ、絶滅の危機に瀕している(Schmidt, 2019, pp.371-388)。インターネットは本来、資本主義の文脈における発明だが、政治的に管理されているわけではない。「自由な」インターネットという理想は、これらの企業が「ネットワーク効果」を利用して自社を強化できるように、規制されることを避けるための盾である(Zuboff, 2018, pp.335-374)と常に言われてきた。人々に提供する無料サービスからデータを収集できる企業は、「国家」のように振る舞うことができるが、AIアルゴリズムではるかに洗練されている。彼らが管理する個人データ、彼らが持つアルゴリズム、そして彼らが持つネットワーク効果との組み合わせにより、彼らの企業は、データを持たない、あるいはデータの処理方法さえ知らない企業よりもはるかに高い利益を上げることができる。データを抽出することで、彼らが持つ企業は、どんな情報を人々の心に注入したいかをより正確に「プログラム」することができる。人々が自分の考えや行動を自由にすることができなくなるため、ここにはもはや正義は存在しない。

非人間化

ここ数十年の心理学研究では、ソーシャルメディアは本当に人々が本当の意味で「社会的」である場所なのか、それとも単に楽々と親密だろうかのような幻想を生み出しているだけなのかが問われている。(Turkle, 2015, pp.6-7)また、投稿やコンテンツに対する「いいね」や「コメント」による「即時満足バイアス」は、ソーシャルメディアに依存する人々が今日重視する主なものの1つである(Zuboff, 2018, pp.511-539).さらに悪いことに、このソーシャルメディアへの中毒と依存は、多くの人々に、長い間使わなかったり学んだりしなかった「ネイティブ」なスキル、たとえば長い文章を読むことを失わせる(Gardner and Davis, 2013, pp.106~108)。これは非常に破壊的で、次世代を危険にさらすものである。Instagramの短いキャプションを読んだり、TikTokで30秒の動画を見たりすることだけに慣れた人々は、本や新聞を読んだり、議論を聞いたり会議に参加したりすることに興味を持たなくなる。このような人たちは、AIアルゴリズムで簡単に作れるデマニュースに簡単に踊らされ、その拡散は、処理されたデータに従って特定の人をターゲットにしたソーシャルボットに支えられている。

オンラインメディアプラットフォームの歪み

インターネットの世界での匿名性は避けられない。特に、匿名の人々は、誤解を招く、歪曲された、操作された、非常に不正確な内容を指すフェイクニュースを容易に拡散できるため、危険である(Appel and Doser, 2020, p. 12)。インターネットの世界におけるAIアルゴリズムは、インターネットプラットフォームでより多く話すため、現実的な穏健派よりも過激派の方がなぜか目につきやすくなっている。インターネット上でより多くのコンテンツを作成する者は、プラットフォーム・プロバイダーに収益をもたらすので、間違いなく利益を得るだろう(ベイル、2021年、188頁)。虚偽の情報や物議を醸すような情報は、人間によるものであれ、プラットフォーム自身が作成したソーシャルボットによるものであれ、インターネット上でより広く、より早く拡散することになる。結局のところ、インターネットは「嘘の生産者」という特徴を持つようになり、人々の何に対する信頼もゼロに近くなり、社会は非常に分裂しやすくなる(Howard, 2020, pp.18-19)。これは、オランダが300年以上にわたってインドネシアを植民地化した際に用いた手法で、人々を団結させることができないようにすることだった。同じ色の人々を分断する戦術は、人々が政府に対抗して団結する力を持たなくなったため、支配者がより長く権力を維持し、より簡単に人々を統治することを可能にした。これはもちろん「ビッグブラザー」の望むところであり、民主主義にとって非常に有害なことである。

本質的なインターメディア機関の研ぎ澄まし

デジタル時代以前の民主主義体制では、報道機関の役割は国家権力の第4の柱の一つだった。しかし、プロのメディアが多くの政治的利害関係者に浸透していることが多いことは否定しようがない。その結果、報道機関は質の高い政治的言説の発信源として、ますます信頼されなくなっている。インターネットの普及により、多くのノンジャーナリストが登場し、カウンターリサーチや編集会議での批判的な考察によって、既存のプロフェッショナルメディアの現状に挑戦している。社会は次第にオンライン・プラットフォームを政治的言説の中心的存在として位置づけ、それは間接的ではあるが、「ただ話す」ことができなくなった民間企業に不利益をもたらし、長い間事実上の基本権であった言論の自由のコントロールを始めなければならない(Vaidhyanathan,2018,216-219頁)。今や企業がネット上でライバルを倒すのは簡単だ。AIや匿名ボットの力を借りれば、ネガティブキャンペーンをオンラインで素早く実行することができる。民間企業は、従来の紙媒体以上に、ネット上での「イメージ」に気を配る必要がある。

5. 研究課題

この研究では、民主主義を脅かす可能性のあるAIの特性を特定している。その上、これらの脅威が民主主義に及ぼしうる影響についてはほとんど議論されていない。本稿では、これらの脅威がもたらす可能性のある負の影響について洞察を与えようと試みる。負の影響の最悪のケースは、民主主義システムの破壊的な変化となりうる。それに基づいて、私たちはリサーチクエスチョンを形成した:

RQ:AI技術はどのように民主主義システムを破壊しうるだろうか?

6. 成果

各インタビューの約20分の時間から、議論された2つの大きなテーマ、すなわち、人間に対するAIの一般的な使用、また、民主主義に対するAIの破壊的な効果を引き出すことができた。

AIの人間への一般的な利用専門家1は、現在ほぼすべての人が知っているAIの応用は、実はAIが実際にできることのほんの一部でしかないと述べた。今後、AIがより広く、より徹底して応用される余地は大きいと考えているようだ。さらに専門家2は、AIが人間にもたらすメリットとして、アルゴリズムがデータを効率的に利用できるため、人間がアイデアを検証したり、将来予測を立てたりすることが容易になることを挙げた。この発言は、エキスパート3によって補完され、AIがテキストデータだけでなく、画像も素早く分析することができるため、人間がかなり短時間で洞察を得ることにも役立つと述べた。しかし、エキスパート1は、人間はこの技術が提供する便利さに満足するのではなく、むしろ人間はAI技術でできることの限界について考え始めるべきだと強調した。なぜなら、エキスパート3によれば、本質的に、AIの目的は人間の役割を置き換えることではなく、人間の仕事をサポートすることだからだ。その先には、人間も誰もが期待する客観的な結果を得られるように、AIのアルゴリズムはできるだけ透明であるべきだとエキスパート1は考えている。

AIがもたらす民主主義の破壊的影響 3人の専門家の発言から、民主主義におけるAIの悪影響として、少なくとも「フェイクニュース」「フィルターバブル」「アルゴリズムバイアス」の3つに注意する必要があるとまとめることができる。AIというテーマで専門家1が危惧しているのは、フィルターバブルを生み出す「ログイン効果」に関するものである。これは、ユーザーがソーシャルメディアのアカウントにログインすると、そのソーシャルメディア内のアルゴリズムが、過去の興味に基づいて、ユーザーに提示する非常に特殊なニュースをカスタマイズしてしまうということである。これは非常に危険なことで、遅かれ早かれ、ユーザーは自分の好みの意見が何度も繰り返され、影響を受けることになる。例えば、ユーザーがある政党を支持すれば、その政党の情報しか得られず、必ずしも間違っていない他の意見には「目をつぶる」ようになるようだ。彼によると、ユーザーは自分が好きなコンテンツしか提示されないため、そのコンテンツに対してリアクションやエンゲージメントを提供する可能性が高くなり、アルゴリズムによると、そのコンテンツがより広く大量に拡散されることになるという。バブルフィルターに関連して、次に問題になるのは、フェイクコンテンツの作成と拡散である。専門家1は、「今日のAI技術は、信憑性のあるテキストや画像、さらには科学論文を迅速かつ正確に作成することが可能だ」と付け加えた。今日、人々は、多くの人々に大きな影響を与えることができる誤った考えを実際に含む偽の科学論文を容易に作成することができる。この問題にとって最悪なのは、この種のコンテンツを作成した人を捕まえるのに十分な強力な法律が存在しないことである。また、ソーシャルメディアのアルゴリズムはエンゲージメントの量に基づいているため、ソーシャルメディアが「意図的に」特定の人に好まれるコンテンツだけを流し、多くのエンゲージメントを得ることで、そのコンテンツが全く理解できない人にも広まることがあり、この時代の誤った情報の拡散を制御することができない。専門家1は、「昔はフェイクニュースを流すために、他の都市や国へ行く必要があった。しかし今は、携帯電話とインターネットさえあれば、いつでもどこでも、ほんの数秒でフェイクニュースを作り、拡散することができる。アルゴリズムといえば、エキスパート2は、日常生活、例えば裁判などで発生するバイアスを挙げ、エキスパート3は、就職活動のように単純に発生することも多いので、それも気にするべきだと付け加えている。専門家2は、AIアルゴリズムをインテリジェントにするためには、将来予測の基礎となる学習データが必要だと考えている。学習データは、現実のデータから得られるが、そのデータには、偏見や差別に基づく過去の判断が、そのまま反映されている可能性がある。つまり、AIは人間以上に客観的で公正な判断ができないのである。専門家2によると、さらに悪いことに、人は自動化されたモデルに反論できないので、これは反論しにくいということである。さらに、AIには透明性がないため、そのようなものを監査することはさらに難しくなるだろう。

インタビューの最後に、専門家からいくつかのメッセージがあり、特に私たちが調査した知見も付け加えられた。専門家1によると、格差はすべての背後にある基本的な問題であり、AIの存在はその格差をさらに拡大させる。監視については、ドイツでは確かにホットな話題になっていると考えている。今のところ、ドイツ人が心配することはないが、警戒は怠らないほうがいい。中国と比較すると、ドイツは文化や背景が異なり、ドイツは常に個人の利益を最適化しようとするが、中国はその反対である。最後に、フェイクニュースについて、専門家3は、インターネット上のあらゆるコンテンツに対して警戒を強め、常に自分の頭脳と魂で情報をとらえるべきだと強調した。そして、読んだコンテンツの現状を常に検証し、矛盾する論点を常に探すことで、最終的にできるだけ正確な情報を得られるようにすることを提案した。エキスパート1によれば、情報技術やAIの発展は、常により良く、より速く、より洗練された方向に向かうというから、普通の人間として、警戒しながらAI技術と共存していく必要がある。

7. 考察

特に、フェイクニュースやフィルターバブルのような、大多数の人が耳にしたことがある脅威については、専門家によるインタビュー結果が私たちの調査と一致していた。したがって、メディアリテラシーとリサーチは、研究者だけでなく、一般市民にとっても重要なスキルなのである。専門家3は、次のように言ってこの主張を支持した: 「実際にソースの質を判断するスキルを評価し、向上させる必要がある」これは、人々が日常的に直面する危険について認識する必要性を示している。専門家1も、フェイクニュースの可能性を指摘した。彼は、「人間とAIが作成した文章を区別するのは、ますます難しくなっている」と述べている。この問題は、あっという間に現実の脅威となる可能性がある。専門家1は、その脅威が発生するまでの期間を5年と予測している。人間が書いた文章と区別がつかないAIが生成したフェイクニュースが、どれだけ大きな影響を与えるかは予測するしかない。フェイクニュースの量が多ければ、民主主義の崩壊につながりかねない。だからこそ、予防策を講じることが重要なのである。

公共の安全を確保するための法的枠組みを作ることは、課題ではあるが必要なことでもある(Nemitz, 2018, p.7)。

専門家2は、興味深い議論を提起した。彼は、AIは根本的な問題ではなく、現実の脅威となる問題を強化するものだと述べている。フェイクニュースやフィルターバブルは、誰かがAIやモノのインターネットについて考える前から存在していた。しかし、これらの問題が以前から出てきたとしても、多くの人にしか届かず、人間が生成しなければならないため、本当の脅威にはならなかったのである。したがって、AIは、はるかに多くの人々にリーチし、人間の何倍もの速さでフェイクニュースを生成することで、これらの問題を強化することができる(Bostrom, 2014, pp.77-78).そのことを念頭に置くと、AIがなければ、それらの問題は民主主義にとってこれほど危険なものにはならないので、AIは本当の脅威であると主張することができる。

本稿の限界については、どの脅威が民主主義システムを崩壊させる可能性があるのか、予測することしかできない。私たちのアプローチは、AIが民主主義にもたらす脅威の先行事例を提供するものである。この論文は、潜在的な脅威のガイドラインとして機能することができる。しかし、潜在的な影響を検証し、適切な対策を決定するためには、それらの個々の脅威に関する詳細な研究が必要である。

この記事が役に立ったら「いいね」をお願いします。
いいね記事一覧はこちら

備考:機械翻訳に伴う誤訳・文章省略があります。
下線、太字強調、改行、注釈や画像の挿入、代替リンク共有などの編集を行っています。
使用翻訳ソフト:DeepL,ChatGPT /文字起こしソフト:Otter 
alzhacker.com をフォロー