2084: 人工知能と人類の未来

強調オフ

未来・人工知能・トランスヒューマニズム

サイトのご利用には利用規約への同意が必要です

特化型AI: もしかしたら、結局、未来はそれほど明るくないのでは?

仕事の募集

最初はポジティブに思えるAIの応用が増えているのは、大企業の新入社員の採用を支援することだ。例えば、HireVueというテクノロジーベンチャーは、求人面接のプロセスを簡素化するプラットフォームを開発している。その最も一般的な使い方は、質問のセットが作られた面接である。候補者はビデオで回答し、人工知能のアルゴリズムを使って候補者のパフォーマンスを評価する。そしてHireVueは、その面接を分析し、パフォーマンスを予測する。HireVueは、25,000の異なる特徴とそれらの間の複雑な関係を見ます。人間には見えないものが見えてくるかもしれない。

ガーディアン紙が2018年3月4日(日)に報じた。

2年間で86件の求職活動に失敗し、その中にはいくつかのHireVueによる審査も含まれていたため、デボラ・カルデイラは自動化されたシステムに徹底的に幻滅している。テーブルの向こうに人がいなければ、「本当の会話や交流はない」し、「ロボットが何を求めているのかを正確に知ることは難しい」と、ロンドン・スクール・オブ・エコノミクスで修士号を取得したカルデイラは言う。

カルデイラは、ロンドン大学経済学部で修士号を取得しているが、自宅で一人でコンピュータのために演奏していると、すべての動作に疑問を感じるようになった。「会社は数分も人を配置することができなかったのであるから、我々には価値がないのだと感じてしまう。全体的に人間味がなくなってきている」と語る。

雇用喪失の脅威

多くの人々の間では、ロボットや(狭い意味での)AIの発展によって、自分の仕事が危険にさらされるのではないかという懸念が深まっている。もちろん、産業革命が起こるたびに、一部の仕事が失われ、やがては新たな仕事が生まれることは事実である。例えば、手押し車や蒸気機関、電気モーターや自動車の発明がどのような結果をもたらしたかを考えてみよう。

これまでの産業革命では、手作業をする人間の代わりに機械が使われてきた。AI革命では、あらゆるレベルの思考を行う人間に代わって機械が活躍するようになるだろう。例えば、2020年までに顧客とのやりとりの約85%がAIによって管理されると言われており、英国のSerious Fraud Office(重大詐欺局)ではすでに、関連する証拠を特定するために事件の書類をふるいにかける弁護士の代わりにAIシステムを使用している。

MIT Technology Reviewは2017年初めにこう報告している。「2000年の最盛期には、ゴールドマン・サックスのニューヨーク本社の米国現物株式取引デスクには600人のトレーダーがいた。現在、残っている株式トレーダーはわずか2人である。現在では、株式トレーダーは2人しか残っておらず、残りの仕事は自動売買プログラムに引き継がれ、200人のコンピューターエンジニアがサポートしている」もちろん、技術的に労働者をロボットに置き換えることが可能だからといって、それが経済的に意味のあることだとは限らない。危険にさらされる仕事の数についての予測は、誰が予測するかによって大きく異なる。2016年、オックスフォード大学のFuture of Humanity InstituteのKatja Grace氏が率いるチームは、機械学習に関する352人の学者や業界の専門家の見解を調査した。その調査の結論をご紹介しよう。

今後10年間で、言語の翻訳(2024年まで)、高校レベルの小論文の作成(2026年まで)、トップ40の曲の作成(2028年まで)、トラックの運転において、A.I.が人間よりも優れた能力を発揮するようになるはずである。2027年にはトラックの運転ができるようになるかもしれないというのがコンセンサスかもしれないが、もっと早く実現することも簡単に予測できる。

時間のかからない家事-洗濯物をたたむことは、2022年にはA.I.にとって楽勝になるはずだ . … 2031年には、A.I.駆動の機械が小売店に並ぶようになるだろう。2049年には、A.I.がニューヨーク・タイムズ紙のベストセラーを書き、2053年には外科手術を行うようになるはずである。

この調査では、今後125年以内に人間のすべての仕事が自動化されるとも言われている。

イングランド銀行のチーフエコノミストであるアンディ・ハルデンは、技術の進歩によって引き起こされた「雇用市場の空洞化」について、「多くの人々が生計を立てるのに苦労するようになった」と語っている。それが社会的緊張を高め、金融的緊張を高め、不平等の拡大につながった」と述べている。Haldaneは、技術革命には「暗黒面」があり、「技術的失業と呼ばれる長期的な特徴に悩まされないためには、今後さらに多くの新規雇用を創出する必要がある」と述べている。

PwCのあるレポートでは、2020年までに約700万人の雇用が失われる一方で、720万人の雇用が創出されると予測している。実際のところ、雇用がどのような影響を受けるのかは正確にはわからないが、影響を受けることは明らかである。

科学者のマーティン・リース卿は、ロボットが多くの仕事を引き継ぐ可能性があることには同意しているが、人間であることの根幹にある活動である「思いやり」は決して得意ではないだろうと指摘している。しかし、これはちょっと違うのではなかろうか。しかし、MITのロザリンド・ピカード博士のグループは、ロボットによるテキストベースのチャットや会話のエージェントを作成した研究を発表している。このエージェントは、まるで本当に気を遣っているかのように人に現れ、対話する人はこの技術が真の成功を収めていることを示すような行動でそれに応えた。ピカールのコメント

これまでのすべてのAIがそうであったように、非常に狭い範囲でしか機能しないが、その範囲では非常に優れている。共感を呼ぶ言葉を使うAIは、単に友好的な言葉や社会的な言葉を使うAIや、情報を提供するだけのAIよりも「思いやりがある」と人々は認識する。この研究は、ソーシャルロボットを開発している人々によって続けられており、Catalia Health社のCory Kidd氏のように製品にも導入されている。

2084年:ビッグブラザーとビッグデータの出会い

AIのオーウェル的な側面の1つは、ある種のAIが個人や企業のプライバシーに対して深刻な脅威となることである。AIの追跡プログラムは、あなたのライフスタイル、習慣、どこに行くか、何を買うか、コミュニケーションをとる人、読む本、仕事、政治的・社会的活動、個人的な意見など、あなた自身について生成されるデータをできるだけ多く収集することを目的としているが、そのリストは常に追加されている。マーク・ザッカーバーグはかつて、Facebookはその人がこれまでに読んだすべての本、映画、歌を把握し、その予測モデルによって、見知らぬ街に着いたときにどのバーに行けばいいか、バーテンダーがお気に入りのドリンクを用意しているかを教えてくれると豪語していた。我々から収集されたデータは、我々に情報を提供するだけでなく、我々をコントロールするためにも使われる。

当然のことながら、犯罪者もこのデータを手に入れたいと思っている。この記事を書いている時点で、私は自分が預けていた有名企業のクレジットカード情報がハッキングされたことを知った。この記事を書いている時点で、私は、預けていた有名企業のクレジットカード情報がハッキングされたことを知り、金融犯罪の被害に遭わないために、カードを解約して別のカードを注文しなければならなかった。

我々はすでに、約25億人が(自発的に)スマートフォンの形をした高度な個人追跡装置を身につけ、ほぼ同数がFacebookでネットワークにつながっている世界に住んでいる。このようなプロジェクトを誰が管理し、生成されたデータを誰が所有しているのか、という大きな倫理的問題は明らかである。

監視資本主義

データの収集は、非常に収益性の高いビジネスになっているが、それには微妙な問題が潜んでいることがある。この問題は、ハーバード大学のショシャナ・ズボフ教授が最近出版した「The Age of Surveillance Capitalism(監視資本主義の時代)」という素晴らしい本で取り上げられている。この本の副題は「The Fight for a Human Future at the New Frontier of Power(権力の新たなフロンティアにおける人類の未来のための戦い)」である。彼女が冒頭で定義しているのは、我々が生成するビッグデータを収集し、それを原材料として利用し、ほとんどの人には明らかでない方法で金儲けをするという、新しい種類の経済秩序に我々は移行しつつあるということだ。これらの活動はもちろん、次項で述べるような監視社会のリスクを強め、両者が一体となって、世界の少なくとも一部の地域で現在享受されている安定と自由を脅かすことになるだろう。

すでにその声が無視できないものとされているズボフも、監視資本主義は開発されている技術の論理的帰結であるという重要な指摘をしている。 より一般的なレベルでは、リビー・パーヴスが2019年7月29日付のTimes紙で、SiriやAlexaといったデジタルアシスタントの普及についてコメントしている。「目新しさは、何千マイルも離れた人間離れした企業の利益センターにリンクされた、警戒心の強い非人間的なスパイと一緒に暮らすためにお金を払うことの奇妙さをぼやかしている。規制されていない企業の盗聴者を家に迎え入れるのは、馬鹿げた無謀な自己責任だ」しかし、何百万人、やがては何十億人もの人々がそうしているのだ。

監視共産主義

情報収穫の一つの弊害が監視資本主義であるように、別の弊害は監視共産主義と呼ぶのが妥当かもしれない。2018年3月、オックスフォード大学のFuture of Humanity Instituteは、中国におけるAIの開発に関するレポートを発表した。中国では、2017年に国内のセキュリティに1,970億ドルが費やされ、2020年までに4億台以上のCCTVカメラの設置が見込まれていると言われている。ジョージ・オーウェルが『1984』で想定したことの一部はすでに実現しており、2084年にはどうなっているかは誰にもわからないが、基本的な傾向は明らかで、中国はすでに社会的統制を実現するためにAIを利用している。

中国では、市民の信頼性や信用性をチェックするために、社会的信用システムを徐々に導入している。このシステムでは、各市民に300の社会的信用ポイントが付与され、公共交通機関の利用や健康維持、多額の外貨を持っている人を見かけたら通報するなど、政府が認めた「良い」行動をすることでポイントが加算される。ポイントが貯まると、さまざまな仕事、住宅ローン、子供の学校、商品、旅行などの特典が受けられるようになる。

しかし、反社会的な行動、例えば、政府から危険視されている人との付き合い、警察との衝突、アルコールの飲み過ぎなどをすると、ポイントが減り、仕事や住宅へのアクセスが制限されたり、旅行やレストランへの立ち入りが制限されるなどのペナルティが課せられる。その結果、仕事や住宅へのアクセスが制限されたり、旅行やレストランへの立ち入りが制限されたりするなどのペナルティが課せられ、さらには、公共のテレビ画面で「信用できない人間」として糾弾されることになるかもしれない。

こうした管理の多くは、やがて数百万台になるであろうCCTVカメラから中央演算センターに送られてくる画像の膨大なデータベースに、高度なAIによる顔認識技術を用いることで行われている。

Times紙は、一部の中国企業が従業員にヘッドギアを着用させていると報じている。このヘッドギアには、着用者の脳波を読み取る技術が隠されており、そのデータをコンピュータに送信すると、コンピュータはAIを使って憂鬱、不安、怒りなどの感情をチェックする。Telegraph紙は、中国政府が「ポイントシステムは、『誠実さ』の低い人が市の公共サービスや旅行ネットワークにアクセスできないようにすることで、市のビジネス環境を改善する」と述べていることを報じている。また、信用度の低い人は、起業や就職が困難になる可能性もある」14 3月にチャンネル・ニュース・アジアが報じたところによると、すでに900万人が国内線の航空券の購入を、300万人が鉄道のビジネスクラスのチケットの入手を阻止されているという。

これらの計画は、人間に対する大規模なハッキングを意味し、(潜在的に世界的な)独裁体制の完成に向けて、世界をかなり恐ろしい方向に向かわせていることは想像に難くない。そのイデオロギーはウイルスのように世界中に広がり、その正当性は歴史上最も包括的で強力な国家の監視装置によって確保される「権威主義的な夢の世界」の設定である。中国の「警察雲システム」は、「安定を損なう者」を含む7つのカテゴリーの人々を監視するために構築されている。

ここには大きな倫理的問題が隠されているように思われる。それは、AIの顔認識アルゴリズムやウェアラブルの感情検知技術が、検知すべき感情や態度を正しく読み取っているという前提と関係している。しかし、少なくとも顔認識の場合は、そうとは程遠いのではないかという科学的証拠が増えている。

2019年7月29日付のTimes紙は、顔の動きと感情の関係に関する1,000件以上の研究を2年間にわたって分析した結果を報じている。研究者たちは、ステレオタイプの顔の表情が感情を予測するものであるという裏付けを得られなかった。マサチューセッツ州にあるノースイースタン大学の大学特別教授(心理学)リサ・フェルドマン・バレットが述べた結論はこうだ。マサチューセッツ州ノースイースタン大学のリサ・フェルドマン・バレット心理学特別教授は、「笑顔から幸せを、しかめっ面から怒りを、しかめっ面から悲しみを、自信を持って推測することはできない」と結論づけている。しかし、セキュリティ技術を提供する大手企業の多くは、そうは考えていない。誤った判断が、対象となる個人や集団に悲劇的な不利益をもたらす余地があることは明らかである。特に中国では、このような欠陥のある可能性のある技術が展開されているにもかかわらず、ほとんど対策がとられていないようである。

ヒューマン・ライツ・ウォッチの最新レポートでは、中国のシニア・リサーチャーであるマヤ・ワン氏が次のように述べている。「中国政府は、新疆ウイグル自治区の人々の生活をあらゆる角度から監視し、不信感を抱いている人々を選び出して、特別な監視を行っている」と述べている。

新疆は中国西部の地域で、主にイスラム教徒であるウイグル族1,000万人と、移住を奨励された漢民族が増えている地域である。中国人は問題なく移動できるが、ウイグル人は首都ウルムチが「デジタル要塞」と形容されるほど、世界がかつて経験したことのないほどの厳しい監視下に置かれている。首都ウルムチは “デジタル要塞 “と形容されるほどだ。数百ヤードごとに小さな警察署があり、通行人のウイグル人はスマートフォンを提出して電子的に読み取られ、そこに含まれるすべての情報が中央監視システムに転送され、AIによって処理される。最近、ITVのために制作された秘密のテレビ・ドキュメンタリーでは、家のドアにQRコードが貼られていて、警察のスキャナーで読み取ることで、その家にいるはずの人がわかるようになっている写真が紹介されていた

さらに気がかりなのは、いわゆる「再教育センター」が設置され、100万人ものウイグル人が収容されていることである。これらの人々は、これまで見てきたように、技術に欠陥があるにもかかわらず、監視装置によって明らかになったことを理由に送られてくる。多くの家族が分断され、夫は妻から、子どもは親から引き離されている。これらの「再教育センター」、つまり刑務所は、ウィグル族の文化を排除し、収容者を忠実な中国市民に変えることに専念しているように見える。

ワン氏の報告書はこう続けている。

「これは、新疆ウイグル自治区や中国だけの問題ではなく、世界全体の問題であり、デバイスが接続された世界で我々人類が自由を持ち続けることができるかどうかの問題なのである。これは、中国だけでなく、我々一人ひとりに対する警鐘である」。

確かにそのとおりだ。なぜなら、このような社会的信用監視プログラムの材料のほとんどが、まだ非中央集権的な形ではあるものの、すでに欧米に存在していることは明らかだからである。昨年、The Times紙は、中国の企業が英国に120万台のCCTVカメラを販売したことを明らかにした。その中には、暗闇でも見え、ナンバープレートを認識し、建物に出入りする人を数えることができるものもある。我々は皆、企業による大量のアルゴリズムを用いた監視の時代に生きている。自由と安全の交換が行われているのである。テレスクリーン」と呼ばれる双方向のテレビを覚えているか?これらの開発は、『ブレイブ・ニュー・ワールド』や、おそらく『1984』など、その後の多くのディストピア小説に影響を与えた初期の書籍の1つに登場する、監視を容易にするためにほぼ全面的にガラスで作られた「ワン・ステイト」と呼ばれるディストピア警察国家を思い起こさせる。これは、『ブレイブ・ニュー・ワールド』や『1984』など、その後の多くのディストピア小説に影響を与えた初期の作品のひとつである。

欧米では今のところ、監視ツールの多くが(まだ)個人の手に渡っているが、その状況は変わりつつあるようである。例えば、2015年にはフランスが「国際電子通信法」を、2016年には英国が「調査権限法」を、ドイツが「通信収集情報法」を導入し、いずれも自国の治安機関に監視権限を強化している。

クレジットスコアリング会社は、個人のソーシャルネットワークなど、銀行口座の明細書とは関係のない指標を扱うことが多くなっている。保険会社は車に追跡用のトランスポンダーを取り付け、走行距離を記録している。医療保険会社の中には、Fitbitsを使って適切な運動をしていることが確認できれば、顧客に割引を与えるところもある。2018年4月16日付の「The Times」紙でも、マット・リドリーが「あまりにも人間的な知能による個人データの取り扱いが、この素晴らしい新世界の最大の倫理的課題になっている」と指摘している。

よく知られた例としては、Facebookに対する深い懸念がある。Facebookは、判明したところでは、会員の通話やメールの記録を、多くの場合本人が知らないうちに保存しており、ケンブリッジ・アナリティカのような企業がかつてない規模でアクセスできるようにしていた。これは、ビッグデータの欠点であり、呪いとも言われている。人々の行動を総合的に知ることができればできるほど、我々の選択や行動がサイバースペースに残した痕跡によって判断されることになり、将来の選択や行動がこれらのシステムによって形成されることになる。それは、中国の社会的信用プログラムにどんどん近づいていく。リドリーは続けてこう言う。「社会は、人々のプライバシーとデータの所有権を守る一方で、機械学習アルゴリズムに誰にとっても価値のあるインサイトを収穫させるというジレンマに取り組まなければならない。」

AIの軍事利用:自律型兵器

チャタムハウスの報告書によると、「軍事用ロボットも商業用ロボットも、将来的には『人工知能』(AI)を組み込んで、自分自身でタスクやミッションを遂行できるようになるだろう。軍事的な文脈では、特に人命に関わる可能性がある場合に、そのようなロボットに任務を遂行させるべきかどうかという議論が生じている」。

テスラの創業者であるイーロン・マスクは、AIが第三次世界大戦を引き起こす可能性があると考えており、ウラジーミル・プーチンは、21世紀のグローバルパワーにはAIにおけるリーダーシップが不可欠であると述べている。ペンシルバニア大学のマイケル・ホロウィッツは、慎重な意見を述べている。

安全性や信頼性への懸念はあるものの、AIが潜在的に有望であるということは、世界中の主要な軍隊が、立ち止まることのリスクを確実に認識するということである。データ処理、群集概念、戦場管理など、AIは軍事活動をより迅速かつ正確に行うことができる一方で、より少ない人間を危険にさらす可能性がある。あるいはそうではないかもしれない。現在の機械学習やニューラルネットワークの手法には安全性や信頼性の問題があるため、敵対的なデータなど、多くの軍事用AIの応用には課題があると考えられる … 。しかし、指向性エネルギーのような特定の技術と比較した場合の技術としての幅広さや、AIに対する商業的なエネルギーや投資の度合いを考えると、人工知能の時代は、少なくともある程度は、世界中の軍隊の未来を形作る可能性が高いと思われる。

Zachary Fryer-Biggsのレポートによると、米国防総省は、ロシアや中国の軍事技術の進歩に対抗するため、20億ドルを投じて兵器により多くのAIを搭載することを計画しているという。そのようなAIシステムを研究していたグーグルの研究者たちが抗議し、プログラムへの参加が中止されている。報告書に引用されたホロウィッツのコメント。「AIの安全性については、複雑な現実に適応できず、予測不可能な方法で誤作動を起こすアルゴリズムについて、多くの懸念がある。それがGoogleの検索結果であっても、兵器システムであっても同じことである」と述べている。ビル・ゲイツは2019年にスタンフォード大学で行った基調講演で、AIは原子力や核兵器のように「有望であると同時に危険でもある」と述べている。

冷戦時代には、核戦争防止国際医師会議という医学者グループが、終末論的な核兵器の使用を警告してノーベル平和賞を受賞した。今、その同じグループが、殺人ロボットの脅威や、自律兵器がテロリストの手に渡る危険性に対して行動する必要性を世界に訴えている。2019年3月、国連の会議で警告がなされた。”AI技術は、世界がこれまでに見たことのない大量破壊兵器を作るためにも使われる可能性がある “。

手遅れになる前に、この増大する脅威に対処するために、非常に賢い倫理観を身につける必要があるのは明らかである。

AIに関する一般的な倫理的懸念から、2017年にカリフォルニア州アシロマで開催された会議で策定された、いわゆる「アシロマAI原則」が策定され、1,000人以上のAI研究者が購読している。他にも、故スティーブン・ホーキング博士やイーロン・マスク氏、ジャーン・タリン氏などが賛同している。このリストから抜粋した倫理原則の一部を紹介する。

  • 1)研究目標:AI研究の目標は、無指向性の知能ではなく、有益な知能を創造することであるべきである … 。
  • 6)安全性:AIシステムは、その運用期間中、安全でセキュアであるべきであり、適用可能かつ実現可能な場合には、検証可能であるべきである。
  • 10) 価値観の一致。高度に自律したAIシステムは、その運用期間中、その目標と行動が人間の価値観と一致することが保証されるように設計されるべきである。
  • 11)人間の価値観 AIシステムは、人間の尊厳、権利、自由、および文化的多様性の理想と両立するように設計・運用されるべきである。
  • 12) 個人のプライバシー。人間は、AIシステムがデータを分析・利用する力を持っていることを考慮し、自らが生成したデータにアクセスし、管理・制御する権利を持つべきである。
  • 13) 自由とプライバシー。個人データへのAIの適用は、人々の現実または認識された自由を不当に制限してはならない。
  • 14) 利益の共有:AI技術は、可能な限り多くの人々に利益をもたらし、力を与えるべきである。
  • 15) 繁栄の共有 AIが生み出す経済的繁栄は、人類全体の利益となるよう、広く共有されるべきである。
  • 16) 人間によるコントロール:人間が選んだ目的を達成するために、AIシステムに決定を委ねる方法とその可否を人間が選ぶべきである。
  • 17) 倒錯しないこと。高度に発達したAIシステムの制御によって与えられる力は、社会の健全性を左右する社会的・市民的プロセスを破壊するのではなく、尊重し、改善するものでなければならない。
  • 18) AI軍拡競争:致死的な自律兵器の軍拡競争は避けるべきである。
  • 長期的な問題は、例えば以下のように表される。
  • 20) 重要性。進化したAIは、地球上の生命の歴史に大きな変化をもたらす可能性があり、それに見合った配慮と資源で計画・管理されるべきである。. .
  • 22) 再帰的自己改善。急速に質や量が向上するような方法で、再帰的に自己改良や自己複製を行うように設計されたAIシステムは、厳格な安全性と制御手段に従わなければならない。
  • 23) 共通の利益。超知性は、広く共有された倫理的な理想のためにのみ開発されるべきであり、一国や組織ではなく全人類の利益のために開発されるべきである。

これらの原則は、AIの研究が倫理的に構造化されており、結果として得られるシステムが安全で安心なものであり、人類に有益であり、できるだけ多くの人々の繁栄につながるように、人類が共通に持つ価値観に沿って設計されていることを保証するものである。高度なAIを使って超知能を開発しようとする試みは、国家や企業の狭い利益ではなく、すべての人間の利益に役立つように、広く共有された倫理的信念によって制約されるべきである。

コンプライアンス担当者なら誰でも知っているように、ミッション・ステートメントや倫理原則のリストを用意することと、それらが設計された人々の心、精神、行動にそれらを浸透させることは別のことである。これこそが、オーウェルの『1984年』のような恐ろしい事態が2084年以前に到来することを回避するための最大の問題なのかもしれない。

2018年10月にウェストミンスターの議長館で開かれた英国初の倫理的人工知能教育研究所の開所式で、バッキンガム大学の副学長であるアンソニー・セルドン卿はこう言った。

我々は、ソーシャルメディアやその他のデジタル化のリスクを完全に凌駕する、若者が直面する最大の危険の中に夢遊病のように入り込んでいる。政府は対応を怠り、ハイテク企業は彼らを食い物にして、恥ずかしいほどの高収益を上げ、平凡な言葉を説きながら、若者を幼稚化させ、大きな危険にさらしている。倫理的な側面を正しく理解すれば、AIは大きな恩恵をもたらすが、月を追うごとに我々は戦いに敗れている。

ビッグデータがビッグブラザーになることは避けられないのだろうか?歴史学者のユヴァル・ノア・ハラリはそう考えている。「ビッグデータのシステムが、私が自分自身を知るよりも私を知るようになれば、権限は人間からアルゴリズムに移るだろう。そうなれば、ビッグデータはビッグブラザーに力を与えることになるだろう」。

この記事が役に立ったら「いいね」をお願いします。
いいね記事一覧はこちら

備考:機械翻訳に伴う誤訳・文章省略があります。
下線、太字強調、改行、注釈や画像の挿入、代替リンク共有などの編集を行っています。
使用翻訳ソフト:DeepL,ChatGPT /文字起こしソフト:Otter 
alzhacker.com をフォロー