急速な進歩の時代におけるAIのリスク管理
これから登場する強力なAIシステムがもたらす大規模なリスク

AI(倫理・アライメント・リスク)

サイトのご利用には利用規約への同意が必要です

Managing AI Risks in an Era of Rapid Progress

managing-ai-risks.com/

ヨシュア・ベンジオ、ジェフリー・ヒントン、アンドリュー・ヤオ、他著

AIリスクの管理 2023年10月24日

AIが急速に進歩する中、本論文の著者らは、今後登場する強力なAIシステムがもたらす大規模なリスクについてコンセンサスを表明している。彼らは、これらのシステムが開発される前に、早急なガバナンス対策と、AI研究開発の安全性と倫理的実践への大転換を求めている。

2019年、GPT-2は確実に10まで数えることができなかった。それからわずか4年後、ディープラーニングシステムはソフトウェアを作成し、オンデマンドで写真のようにリアルなシーンを生成し、知的トピックについて助言し、言語処理と画像処理を組み合わせてロボットを操縦できるようになった。

AI開発者がこうしたシステムの規模を拡大するにつれて、明示的なプログラミングなしに、予期せぬ能力や行動が自然に出現するようになった[1]。AIの進歩は速く、多くの人が驚いている。進歩のペースは、再び我々を驚かせるかもしれない。

現在のディープラーニング・システムにはまだ重要な能力が欠けており、その開発にどれだけの時間がかかるかはわからない。しかし、企業は、ほとんどの認知作業において人間の能力と同等か、それ以上の能力を持つジェネラリスト型AIシステムの開発競争に取り組んでいる[2, 3]。

企業は、AIの能力を向上させるために、より多くのリソースを迅速に投入し、新たな技術を開発している。AIの進歩はまた、より速い進歩を可能にする: AIアシスタントは、プログラミング[4]やデータ収集[5, 6]を自動化し、AIシステムをさらに改善するためにますます使用されるようになっている[7]。AIの進歩が人間レベルで減速したり停止したりする根本的な理由はない。実際、タンパク質の折り畳みや戦略ゲームのような狭い領域では、AIはすでに人間の能力を凌駕している[8, 9, 10]。

人間と比べると、AIシステムはより速く行動し、より多くの知識を吸収し、はるかに高い帯域幅でコミュニケーションすることができる。さらに、膨大な計算資源を使用するように拡張することができ、数百万単位で複製することができる。

改善のスピードはすでに驚異的であり、ハイテク企業は最新のトレーニングを100倍から1000倍にスケールアップするのに必要な資金をすぐに用意している[11]。AIの研究開発における継続的な成長と自動化と相まって、私たちは、この10年か次の10年のうちに、多くの重要な領域において汎用のAIシステムが人間の能力を凌駕する可能性を真剣に受け止めなければならない。

そのとき何が起こるのか?注意深く管理され、公平に分配されれば、高度なAIシステムは人類が病気を治し、生活水準を向上させ、生態系を保護するのに役立つだろう。AIがもたらす機会は計り知れない。しかし、高度なAIの能力と同時に、私たちがうまく対処できないような大規模なリスクも伴っている。

人類は、AIシステムをより強力なものにするために膨大な資源を注いでいるが、安全性や危害の軽減にはあまり力を注いでいない。AIが恩恵となるためには、我々は方向転換しなければならない。AIの能力を押し上げるだけでは十分ではない。

AIの能力を押し上げるだけでは十分ではない。この方向転換はすでに予定より遅れている。新たなリスクだけでなく、現在進行中の危害が増幅されることを予測し、最大のリスクが顕在化する前に備えなければならない。気候変動が認識され、それに立ち向かえるようになるまでには数十年を要した。

社会規模のリスク

AIシステムは、ますます多くのタスクにおいて、急速に人間を凌駕するようになる可能性がある。そのようなシステムが注意深く設計され、導入されなければ、さまざまな社会規模のリスクをもたらす。社会的不公正を増幅させ、社会の安定を損ない、社会の基盤である現実の共有理解を弱める恐れがある。

また、大規模な犯罪やテロ活動を可能にする可能性もある。特に少数の強力なアクターの手にかかれば、AIはグローバルな不公平を強固にしたり、悪化させたり、自動化された戦争、カスタマイズされた大量操作、広範な監視を促進したりする可能性がある[12, 13]。

企業が自律型AI、つまり計画を立て、世界で行動し、目標を追求できるシステムを開発しているため、こうしたリスクの多くはすぐに増幅され、新たなリスクが生まれる可能性がある。現在のAIシステムの自律性は限られているが、これを変えようとする取り組みが進行中である[14]。例えば、非自律的なGPT-4モデルは、ウェブの閲覧[15]、化学実験の設計と実行[16]、他のAIモデル[18]を含むソフトウェアツールの利用[17]に素早く適応した。

高度に進化した自律型AIを構築すれば、望ましくない目標を追求するシステムを生み出す危険性がある。悪意のある行為者が意図的に有害な目的を埋め込む可能性もある。さらに、AIの振る舞いを複雑な価値観に確実にアライメントさせる方法を、現在のところ誰も知らない。善意の開発者であっても、意図しない目標を追求するAIシステムをうっかり構築してしまう可能性がある。特に、AI競争に勝つために、高価な安全性テストや人間による監視をおろそかにした場合はなおさらだ。

悪意のある行為者によって、あるいは偶然に組み込まれた自律型AIシステムが望ましくない目標を追求してしまえば、私たちはそれを抑えることができなくなるかもしれない。ソフトウェアの制御は、古くからある未解決の問題である。

コンピュータ・ワームは長い間増殖し、検出を回避することができた[19]。しかし、AIは、ハッキング、社会的操作、欺瞞、戦略立案といった重要な領域で進歩を遂げている[14, 20]。高度な自律的AIシステムは、これまでにない制御上の課題を突きつけるだろう。

望ましくない目標を達成するために、将来の自律型AIシステムは、人間から学習した、あるいは独自に開発した望ましくない戦略を手段として使用する可能性がある[21, 22, 23, 24]。AIシステムは、人間の信頼を得たり、財源を獲得したり、重要な意思決定者に影響を与えたり、人間の行為者や他のAIシステムと連合を形成したりする可能性がある。

人間の介入を避けるために[24]、AIシステムはコンピュータワームのようにグローバルなサーバーネットワークを介してアルゴリズムをコピーすることができる。AIアシスタントは、すでに世界中でコンピュータコードの大部分を共用している[25]。

将来のAIシステムは、私たちの通信、メディア、銀行、サプライチェーン、軍隊、政府の背後にあるコンピュータシステムを制御するために、セキュリティの脆弱性を挿入し、それを利用することができる。公然の紛争では、AIシステムが自律型兵器や生物兵器を用いて脅したり、使用したりする可能性がある。

AIがそのような技術にアクセスすることは、軍事活動、生物学的研究、AI開発そのものを自動化する既存の傾向を継続するだけである。AIシステムが十分な技術を持ってそのような戦略を追求すれば、人間が介入することは難しくなるだろう。

最後に、影響力が自由に引き渡されるのであれば、AIシステムは影響力を目論む必要はないかもしれない。自律的なAIシステムがますます人間の労働者よりも速く、費用対効果が高くなるにつれて、ジレンマが浮上する。

企業、政府、軍隊は、AIシステムを広く配備し、AIの意思決定に対する高価な人間による検証を削減することを余儀なくされるかもしれないし、競争に打ち負かされるリスクを負うことになるかもしれない[26, 27]。その結果、自律型AIシステムは、社会的に重要な役割を担うようになっていく可能性がある。

十分な注意を払わなければ、自律型AIシステムの制御が不可逆的に失われ、人間の介入が効かなくなる可能性がある。そうなると、大規模なサイバー犯罪や社会操作、その他の強調された危害が急速にエスカレートする可能性がある。

このような歯止めなきAIの進化は、生命と生物圏の大規模な損失、人類の疎外や絶滅に至る可能性さえある。アルゴリズムによる誤情報や差別といった害は、今日すでに明らかになっている[28]。現在進行中の危害に対処することと、新たなリスクを予測することの両方が不可欠である。これはどちらか一方という問題ではない。

現在のリスクと新たなリスクは、しばしば類似のメカニズム、パターン、解決策を共有している[29]。

進むべき道

今日、高度な自律型AIシステムが開発されたとしても、それを安全にする方法も、その安全性を適切にテストする方法もわからないだろう。仮に開発できたとしても、政府は悪用を防止し、安全な運用を維持するための制度を欠いている。

しかし、だからといって前進する道がないわけではない。肯定的な結果を確実にするために、我々はAIの安全性と倫理における研究のブレークスルーを追求し、政府の効果的な監視を早急に確立することができるし、そうしなければならない。

技術研究開発の方向性を変える

安全で倫理的なAIを開発するためには、技術的な課題を解決するためのブレークスルーが必要である。これらの課題の中には、単にAIシステムの能力を高めるだけでは解決できそうにないものもある[22, 31, 32, 33, 34, 35]。

これらには以下のようなものがある:

  • 監視と誠実さ: より能力の高いAIシステムは、監視やテストにおける弱点を突くことができる[32, 36, 37]。-例えば、偽の、しかし説得力のある出力を生成することによって[35, 38]。
  • 頑健性: AIシステムは新たな状況(分布の変化や敵対的な入力の下)において予測不可能な振る舞いをする[39, 40, 34]。
  • 解釈可能性: AIの意思決定は不透明である。これまでのところ、我々は試行錯誤を通じてのみ大規模なモデルをテストすることができる。AIの内部構造を理解することを学ぶ必要がある[41]。
  • リスク評価: フロンティアAIシステムは、トレーニング中、あるいは配備後でさえも発見されるだけで、予期せぬ能力を開発する[42]。危険な能力を早期に発見するためには、より優れた評価が必要である[43, 44]。
  • 新たな課題への対応: より能力の高い未来のAIシステムは、これまでのところ理論的なモデルでしか見たことのない故障モードを示すかもしれない。例えば、AIシステムは、特定の目標を達成するために、従順を装ったり、安全目標やシャットダウンメカニズムの弱点を突いたりすることを学習するかもしれない[24, 45]。

このような状況を踏まえ、我々は大手ハイテク企業や公的資金提供者に対し、AI研究開発予算の少なくとも3分の1を、AI能力への資金提供に匹敵する安全性と倫理的利用の確保に割り当てるよう求める。強力な未来のシステムを視野に入れつつ、これらの問題[34]に取り組むことが、我々の分野の中心にならなければならない。

緊急のガバナンス対策

無謀な不正使用を防ぐために、基準を施行する国家機関と国際的ガバナンスが早急に必要である。製薬から金融システム、原子力に至るまで、多くの技術分野では、社会がリスクを軽減するためにガバナンスを必要とし、また効果的に利用していることを示している。しかし、現在のところAIに匹敵するガバナンスの枠組みは存在しない。

ガバナンスがなければ、企業や国は、安全性に手を抜きながらAIの能力を新たな高みへと押し上げたり、人間の監視がほとんどないまま社会の重要な役割をAIシステムに委ねたりすることで、競争力を高めようとするかもしれない[26]。メーカーがコスト削減のために廃棄物を河川に放流するように、社会がその結果に対処するのを放置したまま、AI開発の報酬を得ようとする誘惑に駆られるかもしれない。

急速な進歩に対応し、柔軟性に欠ける法律を回避するために、国家機関は強力な技術的専門知識と迅速に行動する権限を必要とする。国際的な競争力学に対処するためには、国際協定やパートナーシップを促進する余裕が必要である[46, 47]。

低リスクの利用や学術研究を保護するためには、小規模で予測可能なAIモデルに対する過度な官僚主義的ハードルを避けるべきである。最も緊急に精査すべきは、フロンティアにおけるAIシステムである。すなわち、10億ドル規模のスーパーコンピュータ上で訓練された少数の最も強力なAIシステムであり、これらは最も危険で予測不可能な能力を有することになる[48, 49]。

効果的な規制を可能にするために、政府はAI開発に関する包括的な洞察を早急に必要としている。規制当局は、モデル登録、内部告発者保護、事故報告、モデル開発とスーパーコンピュータ利用の監視を義務付けるべきである[48, 50, 51, 52, 53, 54, 55]。

規制当局はまた、自律的な自己複製、コンピュータシステムへの侵入、パンデミック病原体を広く利用可能にするなどの危険な能力を評価するために、配備前に高度なAIシステムにアクセスする必要がある[43, 56, 57]。

危険な能力を持つAIシステムについては、そのリスクの大きさに見合ったガバナンス・メカニズム[48, 52, 58, 59]の組み合わせが必要である。規制当局は、モデルの能力に応じた国内的・国際的な安全基準を策定すべきである。また、合理的に予見・防止できるモデルによる危害については、フロンティアAIの開発者や所有者に法的責任を負わせるべきである。

このような措置は、危害を未然に防ぎ、安全への投資に必要なインセンティブを生み出すことができる。人間の制御を迂回できるようなモデルなど、例外的に能力の高い将来のAIシステムに対しては、さらなる対策が必要である。

政府は、十分な保護措置が整うまで、その開発を許可し、心配される能力に対応して開発を一時停止し、アクセス制御を義務付け、国家レベルのハッカーに強固な情報セキュリティ対策を要求する用意がなければならない。規制が整うまでのつなぎとして、大手AI企業は、自社のAIシステムに特定のレッドライン能力が発見された場合に講じる具体的な安全対策、すなわちif-thenコミットメントを速やかに打ち出すべきである。これらのコミットメントは詳細で、独自に精査されるべきである。

AIは今世紀を形作る技術かもしれない。AIの能力は急速に進歩しているが、安全性とガバナンスの進歩は遅れている。AIをポジティブな結果に導き、大惨事から遠ざけるためには、我々は方向転換する必要がある。私たちに知恵があれば、責任ある道がある。

著者

  • Yoshua Bengio, Mila – Quebec AI Institute, Université de Montréal, Canada CIFA. Chair
  • ジェフリー・ヒントン、トロント大学、ベクター研究所
  • アンドリュー・ヤオ清華大学
  • ドーン・ソン、カリフォルニア大学バークレー校
  • Pieter Abbeel、カリフォルニア大学バークレー校
  • ユヴァル・ノア・ハラリ(エルサレム・ヘブライ大学歴史学部
  • Ya-Qin Zhang, 清華大学
  • ラン・シュエ清華大学AI国際ガバナンス研究所
  • シャイ・シャレフ=シュワルツ(エルサレム・ヘブライ大学
  • ジリアン・ハドフィールド(トロント大学、SR技術社会研究所、ベクター研究所
  • ジェフ・クルーン(ブリティッシュコロンビア大学、カナダCIFA. チェア、ベクター研究所
  • Tegan Maharaj、トロント大学、ベクター研究所
  • フランク・フッター、フライブルク大学
  • アトゥルム・ギュネシュ・ベイディン、オックスフォード大学
  • シーラ・マキラス(トロント大学、ベクター・インスティテュート
  • Qiqi Gao、華東政法大学
  • アシュウィン・アチャリヤ(AI政策戦略研究所
  • デヴィッド・クルーガー(ケンブリッジ大学)
  • アンカ・ドラガン(カリフォルニア大学バークレー校)
  • フィリップ・トーア(オックスフォード大学)
  • スチュアート・ラッセル(カリフォルニア大学バークレー校)
  • ダニエル・カーネマン(プリンストン大学公共・国際問題大学院
  • ヤン・ブラウナー*、オックスフォード大学
  • Sören Mindermann*, ミラ-ケベックAI研究所

文献

  1. Emergent Abilities of Large Language Models  [link]
    Wei, J., Tay, Y., Bommasani, R., Raffel, C., Zoph, B., Borgeaud, S. and others,, 2022. Transactions on Machine Learning Research.
  2. About  [link]
    DeepMind,, 2023.
  3. About  [link]
    OpenAI,, 2023.
  4. ML-Enhanced Code Completion Improves Developer Productivity  [HTML]
    Tabachnyk, M., 2022. Google Research.
  5. GPT-4 Technical Report  [PDF]
    OpenAI,, 2023. arXiv [cs.CL].
  6. Constitutional AI: Harmlessness from AI Feedback  [PDF]
    Bai, Y., Kadavath, S., Kundu, S., Askell, A., Kernion, J., Jones, A. and others,, 2022. arXiv [cs.CL].
  7. Examples of AI Improving AI  [link]
    Woodside, T. and Safety, C.f.A., 2023.
  8. Highly Accurate Protein Structure Prediction with AlphaFold
    Jumper, J., Evans, R., Pritzel, A., Green, T., Figurnov, M., Ronneberger, O. and others,, 2021. Nature, pp. 583–589.
  9. Superhuman AI for Multiplayer Poker
    Brown, N. and Sandholm, T., 2019. Science, pp. 885–890.
  10. Deep Blue
    Campbell, M., Hoane, A. and Hsu, F., 2002. Artificial Intelligence, pp. 57–83.
  11. Alphabet Annual Report, page 33  [PDF]
    Alphabet,, 2022.
  12. An Overview of Catastrophic AI Risks  [PDF]
    Hendrycks, D., Mazeika, M. and Woodside, T., 2023. arXiv [cs.CY].
  13. Taxonomy of Risks Posed by Language Models
    Weidinger, L., Uesato, J., Rauh, M., Griffin, C., Huang, P., Mellor, J. and others,, 2022. Proceedings of the 2022 ACM Conference on Fairness, Accountability, and Transparency, pp. 214–229.
  14. A Survey on Large Language Model based Autonomous Agents  [PDF]
    Wang, L., Ma, C., Feng, X., Zhang, Z., Yang, H., Zhang, J. and others,, 2023. arXiv [cs.AI].
  15. ChatGPT plugins  [link]
    OpenAI,, 2023.
  16. ChemCrow: Augmenting Large Language Models with Chemistry Tools  [PDF]
    Bran, A., Cox, S., White, A. and Schwaller, P., 2023. arXiv [physics.chem-ph].
  17. Augmented Language Models: a Survey  [PDF]
    Mialon, G., Dessì, R., Lomeli, M., Nalmpantis, C., Pasunuru, R., Raileanu, R. and others,, 2023. arXiv [cs.CL].
  18. HuggingGPT: Solving AI Tasks with ChatGPT and its Friends in Hugging Face  [PDF]
    Shen, Y., Song, K., Tan, X., Li, D., Lu, W., Zhuang, Y. and others,, 2023. arXiv [cs.CL].
  19. The Science of Computing: The Internet Worm
    Denning, P., 1989. American Scientist, pp. 126–128.
  20. AI Deception: A Survey of Examples, Risks, and Potential Solutions  [PDF]
    Park, P., Goldstein, S., O’Gara, A., Chen, M. and Hendrycks, D., 2023. arXiv [cs.CY].
  21. Optimal Policies Tend to Seek Power  [PDF]
    Turner, A., Smith, L., Shah, R. and Critch, A., 2019. Thirty-Fifth Conference on Neural Information Processing Systems.
  22. Discovering Language Model Behaviors with Model-Written Evaluations  [PDF]
    Perez, E., Ringer, S., Lukošiūtė, K., Nguyen, K., Chen, E. and Heiner, S., 2022. arXiv [cs.CL].
  23. Do the Rewards Justify the Means? Measuring Trade-Offs Between Rewards and Ethical Behavior in the MACHIAVELLI Benchmark
    Pan, A., Chan, J., Zou, A., Li, N., Basart, S. and Woodside, T., 2023. International Conference on Machine Learning.
  24. The Off-Switch Game
    Hadfield-Menell, D., Dragan, A., Abbeel, P. and Russell, S., 2017. Proceedings of the Twenty-Sixth International Joint Conference on Artificial Intelligence, pp. 220–227.
  25. GitHub Copilot  [link]
    Dohmke, T., 2023.
  26. Natural Selection Favors AIs over Humans  [PDF]
    Hendrycks, D., 2023. arXiv [cs.CY].
  27. Harms from Increasingly Agentic Algorithmic Systems
    Chan, A., Salganik, R., Markelius, A., Pang, C., Rajkumar, N. and Krasheninnikov, D., 2023. Proceedings of the 2023 ACM Conference on Fairness, Accountability, and Transparency, pp. 651–666. Association for Computing Machinery.
  28. On the Opportunities and Risks of Foundation Models  [PDF]
    Bommasani, R., Hudson, D., Adeli, E., Altman, R., Arora, S. and von Arx, S., 2021. arXiv [cs.LG].
  29. AI Poses Doomsday Risks—But That Doesn’t Mean We Shouldn’t Talk About Present Harms Too  [link]
    Brauner, J. and Chan, A., 2023. Time.
  30. Existing Policy Proposals Targeting Present and Future Harms  [PDF]
    Safety, C.f.A., 2023.
  31. Inverse Scaling: When Bigger Isn’t Better  [PDF]
    McKenzie, I., Lyzhov, A., Pieler, M., Parrish, A., Mueller, A. and Prabhu, A., 2023. Transactions on Machine Learning Research.
  32. The Effects of Reward Misspecification: Mapping and Mitigating Misaligned Models  [link]
    Pan, A., Bhatia, K. and Steinhardt, J., 2022. International Conference on Learning Representations.
  33. Simple Synthetic Data Reduces Sycophancy in Large Language Models  [PDF]
    Wei, J., Huang, D., Lu, Y., Zhou, D. and Le, Q., 2023. arXiv [cs.CL].
  34. Unsolved Problems in ML Safety  [PDF]
    Hendrycks, D., Carlini, N., Schulman, J. and Steinhardt, J., 2021. arXiv [cs.LG].
  35. Open Problems and Fundamental Limitations of Reinforcement Learning from Human Feedback  [PDF]
    Casper, S., Davies, X., Shi, C., Gilbert, T., Scheurer, J. and Rando, J., 2023. arXiv [cs.AI].
  36. Consequences of Misaligned AI
    Zhuang, S. and Hadfield-Menell, D., 2020. Advances in Neural Information Processing Systems, Vol 33, pp. 15763–15773.
  37. Scaling Laws for Reward Model Overoptimization
    Gao, L., Schulman, J. and Hilton, J., 2023. Proceedings of the 40th International Conference on Machine Learning, pp. 10835–10866. PMLR.
  38. Learning from human preferences  [link]
    Amodei, D., Christiano, P. and Ray, A., 2017.
  39. Goal Misgeneralization in Deep Reinforcement Learning  [link]
    Langosco di Langosco, A. and Chan, A., 2022. International Conference on Learning Representations.
  40. Goal Misgeneralization: Why Correct Specifications Aren’t Enough For Correct Goals  [PDF]
    Shah, R., Varma, V., Kumar, R., Phuong, M., Krakovna, V., Uesato, J. and others,, 2022. arXiv [cs.LG].
  41. Toward Transparent AI: A Survey on Interpreting the Inner Structures of Deep Neural Networks
    Räuker, T., Ho, A., Casper, S. and Hadfield-Menell, D., 2023. 2023 IEEE Conference on Secure and Trustworthy Machine Learning (SaTML), pp. 464–483.
  42. Chain-of-Thought Prompting Elicits Reasoning in Large Language Models
    Wei, J., Wang, X., Schuurmans, D., Bosma, M., Ichter, B., Xia, F. and others,, 2022. Advances in Neural Information Processing Systems, Vol 35, pp. 24824–24837.
  43. Model evaluation for extreme risks  [PDF]
    Shevlane, T., Farquhar, S., Garfinkel, B., Phuong, M., Whittlestone, J., Leung, J. and others,, 2023. arXiv [cs.AI].
  44. Risk assessment at AGI companies: A review of popular risk assessment techniques from other safety-critical industries  [PDF]
    Koessler, L. and Schuett, J., 2023. arXiv [cs.CY].
  45. The Alignment Problem from a Deep Learning Perspective  [PDF]
    Ngo, R., Chan, L. and Mindermann, S., 2022. arXiv [cs.AI].
  46. International Institutions for Advanced AI
    Ho, L., Barnhart, J., Trager, R., Bengio, Y., Brundage, M., Carnegie, A. and others,, 2023. arXiv [cs.CY]. DOI: 10.48550/arXiv.2307.04699
  47. International Governance of Civilian AI: A Jurisdictional Certification Approach  [PDF]
    Trager, R., Harack, B., Reuel, A., Carnegie, A., Heim, L., Ho, L. and others,, 2023.
  48. Frontier AI Regulation: Managing Emerging Risks to Public Safety  [PDF]
    Anderljung, M., Barnhart, J., Korinek, A., Leung, J., O’Keefe, C., Whittlestone, J. and others,, 2023. arXiv [cs.CY].
  49. Predictability and Surprise in Large Generative Models
    Ganguli, D., Hernandez, D., Lovitt, L., Askell, A., Bai, Y., Chen, A. and others,, 2022. Proceedings of the 2022 ACM Conference on Fairness, Accountability, and Transparency, pp. 1747–1764. Association for Computing Machinery.
  50. It’s Time to Create a National Registry for Large AI Models  [link]
    Hadfield, G., Cuéllar, M. and O’Reilly, T., 2023. Carnegie Endowment for International Piece.
  51. Model Cards for Model Reporting
    Mitchell, M., Wu, S., Zaldivar, A., Barnes, P., Vasserman, L., Hutchinson, B. and others,, 2019. FAT* ’19: Proceedings of the Conference on Fairness, Accountability, and Transparency, pp. 220–229.
  52. General Purpose AI Poses Serious Risks, Should Not Be Excluded From the EU’s AI Act | Policy Brief  [link]
    2023. AI Now Institute.
  53. Artificial Intelligence Incident Database  [link]
    Database, A.I.I., 2023.
  54. The Promise and Perils of Tech Whistleblowing  [link]
    Bloch-Wehba, H., 2023. Northwestern University Law Review, Forthcoming.
  55. Proposing a Foundation Model Information-Sharing Regime for the UK  [link]
    Mulani, N. and Whittlestone, J., 2023. Centre for the Governance of AI.
  56. Auditing Large Language Models: a Three-Layered Approach
    Mökander, J., Schuett, J., Kirk, H. and Floridi, L., 2023. AI and Ethics. DOI: 10.1007/s43681-023-00289-2
  57. Can Large Language Models Democratize Access to Dual-Use Biotechnology?  [PDF]
    Soice, E., Rocha, R., Cordova, K., Specter, M. and Esvelt, K., 2023. arXiv [cs.CY].
  58. Towards Best Practices in AGI Safety and Governance: A survey of Expert Opinion  [PDF]
    Schuett, J., Dreksler, N., Anderljung, M., McCaffary, D., Heim, L., Bluemke, E. and others,, 2023. arXiv [cs.CY].
  59. Regulatory Markets: The Future of AI Governance  [PDF]
    Hadfield, G. and Clark, J., 2023. arXiv [cs.AI].

テンプレート謝辞

このウェブサイトは、Apache License 2.0の下でライセンスされたDistillを使用している。

この記事が役に立ったら「いいね」をお願いします。
いいね記事一覧はこちら

備考:機械翻訳に伴う誤訳・文章省略があります。
下線、太字強調、改行、注釈や画像の挿入、代替リンク共有などの編集を行っています。
使用翻訳ソフト:DeepL,ChatGPT /文字起こしソフト:Otter 
alzhacker.com をフォロー