pubmed.ncbi.nlm.nih.gov/36656495/
ここ数年、大規模言語モデル(LLM)は、その倫理的意味合いについてますます洗練された学術的議論を促している(例えば、Weidingerら、2021参照)。2022年11月30日にOpenAIがChatGPTをリリースしたことで、この議論は今や主流に移った。
この新しいチャットボットは、「…ユーザーのフィードバックを得て、その長所と短所を知るために」研究プレビューの形でリリースされた(OpenAI,2022)。その翌週には、100万人以上のユーザーが新しいチャットボットを試した(Vallance,2022)。
この論説の著者も誘惑に勝てなかった。そこで、ChatGPTに、NYTの論説コラムニストThomas Friedmanのスタイルで、現代ギリシャとその輝かしい古代とのアンビバレントな関係についてコラムを書くよう依頼した。
ChatGPTでチャットする
数秒後、チャットボットが始まる。「現代のアテネの街をぶらぶら歩いていると、この街と古代の過去との関係について、アンビバレンスを感じずにはいられません・・・」(2022年12月19日のChatGPTによる回答)。よくできた小品であることがわかるものが続く。言葉は流暢で、自然な感触があり、読んでいて心地よいである。さて、もうひとつのプロンプトが出される。
「この文章をシェイクスピア風のソネットに仕上げてほしい」
ChatGPTは、「古代の遺跡が点在する中、私はアンビバレントな感覚を覚えた。」 (answer by ChatGPT on 19 Dec. 2022)という文章を書いている。
このような遊びはとても楽しく、ChatGPTのパフォーマンスも印象的である。しかし、このチャットボットをさらに使い込んでいくと、ある種の欠点があることがすぐに明らかになる。例えば、事実誤認をすることがある。また、前の回答のフレーズを再利用して、少しイライラするような繰り返しをすることもある。それでも、初めてチャットボットに接するときは、畏敬の念を抑えられない。
質問
新しいチャットボットがリリースされた直後、その意味合いについてあらゆる疑問が投げかけられた。この技術は、学術教育における小論文の課題の役割にどのような影響を与えるのだろうか(Stokel-Walker2022)。
これらのAIシステムがコードを書くのが上手になるにつれて、ソフトウェアエンジニアは職を失うことになるのだろうか(Castelvecchi2022)。より一般的な知識労働者への影響はどうだろうか(Krugman2022)。
この論説では、LLM技術の急速な進歩は、学術雑誌の編集者が、LLMが学術出版にもたらす課題に対処するために特別に設計された新しい編集方針を打ち出す必要があることを意味するのかどうかについて、いくつかの予備的考察を展開している。このことを考えるかどうかは、LLMの進化的な性格と革命的な性格のどちらを重視するかによって、部分的には異なってくると思われる。
進化
ChatGPTは、研究者が研究・論文執筆をするための道具箱の中の1つのツールに過ぎないという見方がある。例えば、自分自身で答えを探さなければならないソースを参照する代わりに、質問に直接答える検索エンジンとして展開することができる。さらに、白紙のページを恐れている人は、新しい文章の非常に最初のドラフトを提供するためにChatGPTを展開することができる。この場合、良いプロンプトを思いつくだけで、ライターズ・ブロックに悩む人にとっても可能なはずだ。
次に、チャットボットを対話者として、ブレインストーミングのようなセッションを行うことが考えられる。しかし、ChatGPTには大きな限界もある。不正確な回答をすることがある、プロンプトの恣意的な言い回しの違いに過敏になる、長文になる、曖昧なプロンプトを体系的に正すことができない、などである(OpenAI、2022)。これらの欠陥は、研究ツールとしての有用性を制限する。
全体として、ChatGPTのリリースは、科学の夜明け以来、そして漸進的には科学革命以来、私たちが慣れ親しんできた科学装置の着実な発展におけるさらなる漸進的ステップと言えるだろう。より一般的には、科学研究と出版におけるLLMの展開は、おそらく様々な利点と欠点があり、その具体的な性質とバランスは、今後数年で明らかになることだろう。
レボリューション
ChatGPTのもう一つの特徴は、その革命的な性格を強調することである。確かに、ChatGPTはまだ世界の著名な科学者よりも本格的な科学論文を書くことができるわけではない。とはいえ、最近の人工知能の飛躍的な進歩を考えると、近い将来、立派なジャーナルの査読を通過する論文を書く能力を持ったLLMを準備するのは賢明としか言いようがない。長期的には、AIを搭載したシステムが科学研究の全領域を完全に掌握する可能性すらある。
チェスでも同じような展開があった。当初は、コンピュータが人間よりうまくなる可能性があると信じていた人はほんの一握りだった。しかし、1997年にIBMのディープ・ブルーがチェスの世界チャンピオン、ガルリ・カスパロフを倒した。同様に、2016年にはディープマインドのAlphaGoが、囲碁の世界チャンピオンだったイ・セドルを破った。その3年後、セドルは「AIは倒すことのできない存在だ」と主張して引退した(Pranam2019)。
もしかしたら、科学論文を書くことも、コンピューターが人間よりうまくなることを学ぶかもしれない知的活動のひとつかもしれない。
編集方針
LLMとそれが科学出版に及ぼすであろう影響について実証的な評価を行うには、体系的な予見研究が必要である。しかし、そのような研究の結果が得られるまでは、LLMの特性や予想される影響について、より直感的で常識的な評価に頼らざるを得ない。このような現状から、私たちはLLMを進化論的な視点に近い形で捉えている。
今後、LLMと科学者の専門的な活動は共進化していくと思われる。そうすれば、より専門的で信頼できるLLMが生まれ、研究者の日々の仕事をより良く支援できるようになるのが理想的である。
ChatGPTは、現状では、この点で限定的な有用性しか持っていないように思われる。さらに、研究ツールとしては、特に科学的誠実さに関して、大きなマイナス面があるように思われる。例えば、ChatGPTを過度に単純化して展開すると、事実誤認、剽窃、詐欺、著作権侵害のリスクがあるように思われる。
おそらく、ほとんどの専門学術誌は、こうしたChatGPT関連の研究インテグリティの問題に取り組むのに十分強固な編集方針をすでに持っていると思われる。今後、実際にどの程度までそうだろうかを検証することが不可欠である。
必要であれば、既存の編集方針に対して適切な調整を行う必要がある。しかし、今のところは、私たちの知る限り、すべて人間の著者によって書かれたこの問題の論文を推薦する。