UK AI Safety Institute が設立: AI の未来への青写真とは?

UK AI Safety Institute: A Blueprint for the Future of AI?

2023/11/03 InfoSecurity — 英国の Frontier AI Taskforce は、2023年4月にファウンデーション・モデル・タスクフォースとして発足した政府出資のイニシアチブである。しかし同機関は、英国 AI Safety Institute へと進化しつつある。Rishi Sunak 英国首相は、2023年11月2日に英国ブレッチリー・パークで開催された AI Safety Summit の閉会スピーチで、同研究所の設立を発表した。この新組織における英国政府の目的は、新たなタイプのAI の安全性テストを任務とする世界的なハブにすることだと、Sunak 首相は述べている。


英国政府は公式声明で、「この研究所は、AI モデルの潜在的な有害性に対処するために、新しいタイプのフロンティア AI のリリース前後で、綿密なテストを行う。これには、偏見や誤情報のような社会的な害から、人類が AI を完全に制御できなくなるような、最も可能性は低いが極端なものまで、あらゆるリスクを探ることも含まれる」と述べている。

英国の AI Safety Institute は、このミッションを追求するために、Alan Turing Institute/Imperial College London/TechUK/Startup Coalition などの国内組織と提携する。いずれの機関も、同研究所の発足を歓迎している。

また、国内外の民間 AI 企業とも提携する。その中には、Google DeepMind/OpenAI などの、イニシアチブ支持を表明している企業もある。

アメリカ/シンガポールとの提携

Sunak 首相は、この研究所は英国政府の AI 戦略の最前線に立ち、AI の安全性において世界のリーダーとしての地位を確立するという、使命を担うことになると付け加えた。

この役割を担うにあたり、英国 AI Safety Institute は、他国の同様の機関と提携していくという。すでに英首相は、最近に発表された米国の AI Safety Institute/シンガポール政府と、AI の安全性テストで協力するための2つの提携を発表している。

Frontier AI Taskforce の委員長である Ian Hogarth は、引き続き同研究所の委員長を務める。Taskforce の外部諮問委員会は、国家安全保障からコンピューター・サイエンスまでの業界の重鎮で構成され、新しいグローバル・ハブに助言を与えることになる。

8社の AI 企業が自社モデルの事前テストに合意

さらに Sunak は、オーストラリア/カナダ/フランス/ドイツ/イタリア/日本/韓国/シンガポール/米国/英国/EU を含む数カ国が、主要企業の AI/モデルをテストする協定に署名したと発表した。

このミッションを支援するために、AI 開発に携わる8社 (AWS:Amazon Web Services/Anthropic/Google/Google DeepMind/Inflection AI/Meta/Microsoft/Mistral AI/OpenAI) が、将来に公開される AIモデル への事前アクセスを “深める” ことに合意した。

非営利団体 Pause AI は、適切な法的保護措置のない全ての AI モデルの禁止を X上で で積極的に呼びかけており、今回の合意は “正しい方向への一歩 ” だとしている。しかし同団体は、 以下のような理由から、展開前のテストだけに頼るのは危険だとも述べている。

  • モデル流出の可能性 (例:Meta の LLaMA モデル)

  • 危険な能力のテストは困難:Pause AI は「たとえば、AI が自己複製できるかどうかを安全にテストする方法が見つかっていない。あるいは、AI が人間を欺くかどうかをテストする方法もない」と述べている。

  • 脅威アクターは依然として危険な AI を構築する可能性がある:導入前のテストでは、それを防ぐことはできない。

  • AI 研究所の内部でさえ危険な能力もある:Pause AI は、「たとえば、自己複製する AI は、導入前にラボから脱走する可能性がある」としている。

  • テスト後の機能追加や更新が可能である:微調整/脱獄/ランタイムの改善などができる。