人間がデータポイントに分解される
HUMANS DEGRADED TO DATA POINTS

強調オフ

デジタル社会・監視社会

サイトのご利用には利用規約への同意が必要です

futurict.blogspot.com/2022/05/

2022年5月3日(火)

アルゴリズムは自由を危険にさらし、人々を操作することができる。このことについての議論を抑圧してはならない。

ディルク・ヘルビング、ペーター・ゼーレ、トーマス・ベショルナー

ドイツ語の原文は、2022年5月に雑誌「schweizer monat」から出版された。

h

背景

2022年2月の講演で、ETHのダーク・ヘルビング教授は、アルゴリズムの利用について述べている。彼はいくつかの例を挙げている。彼は、コンピュータ・プログラムは、サプライ・チェーンの制御、豚の餌、あるいは、中国ですでにある程度起こっているように、人間のコントロールにさえ使うことができると言うのである。特に中国の学生たちは、ヘルビングのスライドが自分たちを豚と同一視していると怒って、インターネット上でそれを回覧した。その結果、大騒ぎになる。ヘイトメッセージが世界中に書き込まれる。教授は人種差別主義者、ファシストと呼ばれ、死の脅迫まで受け、その家族も一緒になって殺される。この記事の中で、Dirk Helbingと彼の同僚2人が、この事件の真相、すなわち、デジタル時代においても自由と人間の尊厳は守られなければならないことを説明している。特に、中国ですでに利用されているいわゆる社会的信用スコア・システムが示しているように、どちらも危険にさらされているのである。(dj)

詳しくはこちら。

h

www.srf.ch/kultur/gesellschaft-religion/eklat-an-der-eth-wenn-ein-angeblicher-schweinevergleich-zur-staatsaffaere-wird

ビッグデータとアルゴリズムは、プロセスや決定を効率的に、ルールに基づいて組織化するために使用できる強力なツールになった。これは非常に有益なことだが、時にシステム的な深刻な問題を伴う。というのも、サプライチェーンなど特定のコンテクストのために開発されたアルゴリズムシステムが、しばしば一般化されて他のオブジェクトやプロセス,さらには人間や他の生物に転用されるからだ。例えば、アルゴリズム・システムは、スマート・ファームやアニマル・ファーミングに利用されている。さらに、アルゴリズムは、人間の生活を規制するための道具としてさえも使われるようになってきている。

よく「コードは法律だ」と言うが、これは「ソフトウェアが、私たちの社会で何が可能で何が不可能かを決める」という意味である。ホテルや飛行機の予約、オンラインショッピング、情報収集、仕事探し、デートなど、今やあらゆるものがデータ化され、パーソナライズされている。ますます効果的に、私たちは特定の商品を購入し、特定の感情や意見を持ち、特定の政党に投票するように仕向けられているのである。キーワードは、「ビッグ・ナッジング」操作の方法は、私たちが気づかないほど微妙なものであることが多い。しかし、ハイテク企業や情報機関のデジタル制御室にいる「ソーシャルエンジニア」たちが好む方法で、私たちの行動や生活、社会に影響を与えることが多くなっている。これらはすべて、企業や国家が収集した私たちの機密個人データを用いて行われ、しばしばスパイ的な手法が用いられる。特にここでは、3つの方法が使われている。「プロファイリング」、「スコアリング」、「ターゲティング」である(下記参照)。人々はますます、モノ、データポイント、あるいは動物のように扱われるようになってきている。こうした技術の利用は、民主主義憲法の中核や国連人権憲章の中心原則に触れるものであり、人間の尊厳や自由な社会の概念に適合するかどうか、疑問が高まっている。何が問題なのか?

1.大量監視対テロ戦争

を筆頭に、デジタルによる大規模な監視が世界中に広がっている。犯罪を犯す前から潜在的な犯罪者を特定し、追跡する「予測的取り締まり」が国際的に広がっている。もともとテロ捜査のために開発されたこのツールは、現在、警察でも使われている。問題は、このソフトウェアがすべての人を潜在的な犯罪者として扱っていることだ。憲法の「無罪の推定」は、原則として「有罪の推定」に取って代わられた。

2.エラーレート

使用されるアルゴリズムのエラーレートはしばしば高い。95パーセントを超えることもある。つまり、容疑者リストの中には無実の人がたくさんいるのである。したがって、予測的な取り締まりは、ますます問題視されている。にもかかわらず、「プロファイリング」、すなわち、センシティブな個人情報をもとに非常に詳細な個人プロファイルを作成することが、広告業界を含め広く行われている。一方、自分自身のデジタルな生き写しとされる「デジタルツイン」の作成もすでに試みられている。人間の思考や行動、そして将来的には健康状態を最も効果的に操作する方法を探るために、バーチャルな実験に利用されようとしている。しかし、デジタルツインは本当に正確なのだろうか?あるいは、現実のように見えるが、結局は現実的でないものなのだろうか?そして、このような使い方は倫理的に正しいのだろうか?

3.差別

潜在的な脅威となりうる犯罪者や容疑者ばかりとは限らない。顔認識、チャットボット、リーガルテック(法制度を自動化するためのソフトウェア)、就職希望者の事前審査に使われるアルゴリズムなどが、最近ますます批判を浴びている。その根底にあるビッグデータやAIシステムが、しばしば人種やその他の差別的な分類を行い、それに基づいて判断を示唆していることが判明したのである。バイアスがかかるリスクは大きい。さらに悪いことに、「スコアリング」、つまり点数で分類することで、意図的に顧客や人に異なる価値を与えている。「顧客生涯価値」のようなスコアは、誰がどの製品やサービスをいくらで提供されるか、あるいは全く提供されないかを決定しているのだ。これは差別を意味する。原理的には、社会的信用度のスコアは、誰がどのような権利を持つかさえも決定してしまう。特に、中国におけるウイグル人の扱いは、国際的にも厳しく批判されている。英国の諜報機関GCHQの監視プログラム「カルマポリス」やオーストリアの失業者トリアージシステムは、適用される法律に違反するとして有罪判決を受けた。

4.非人間化

前述のような発展が非人間化を促進している。人間はますますロボットやモノやデータのように扱われるようになっている。人間の尊厳、意識、愛、自由、創造性など、私たち人間にとって非常に重要な資質は軽視される傾向にある。それらはデータでは十分に捉えることができないため、しばしば無視される。データ駆動型社会は、このように重要な資質を失う危険性をはらんでいる。数字に基づいた最適な世界は、非人間的でディストピア的な ものになりかねないの だ 。

5.危険なこと

「プロファイリング」と「スコアリング」は「ターゲティング」の基礎であり、特定の特性を持つ個人が特にターゲットにされる方法である。これはしばしば、特定の製品やサービスを購入するきっかけとなるようにデザインされたパーソナライズされた広告、特定の性格特性を持つ人々を操作して望ましい投票決定を下すこと、保険契約の料金や価格の設定など、特別な扱いを誘発するものである。しかし、ターゲティングは、疑わしい一般化に基づいて、特定の人々が容疑者として扱われたり、病院での患者のトリアージ、すなわち生死に関する決定に使われることもある。さらに、ターゲティングは、特定の問題に対する感受性が特定されている人々を動員するために使われることもある。特に、「フットフォール」と呼ばれる現象は、抗議運動を始めるために利用され、時には暴力的な結末を迎えることもある。このように、個人情報が少なくても、危険なアプリケーションは可能なのだ。

では、どうすればいいのだろうか。明らかに、私たちは新しい、より良いデジタル化を必要としている。それは、人権と人間の尊厳を守り、自由な社会で発展するための最良の機会を提供するものでなければならない。人々を中心に据え、創造的で社会的、そして環境に優しい行動を支援するものでなければならない。デジタルプラットフォームやアプリケーションには、価値に敏感なデザインが必要である。なぜなら、デジタル世界をどのようにデザインするかという問題となると、主権-個人と民主的に正統化された機関の両方-の問題にほかならないからだ。

この記事が役に立ったら「いいね」をお願いします。
いいね記事一覧はこちら

備考:機械翻訳に伴う誤訳・文章省略があります。
下線、太字強調、改行、注釈や画像の挿入、代替リンク共有などの編集を行っています。
使用翻訳ソフト:DeepL,ChatGPT /文字起こしソフト:Otter 
alzhacker.com をフォロー