オープンAI(OpenAI)が今年2月に発表した言語モデル「GPT-2」は、あまりにも優れたフェイクニュースを生成してしまうことから、悪用を懸念したオープンAIが完全版の公開を中止したことで大きな注目を浴びた。オープンAIの方針に対して、人工知能(AI)研究コミュニティの評価は割れている。(悪用を防ぐ)賢明な予防策だと主張する研究者もいれば、ただの宣伝行為に過ぎないという研究者もいる。汎用人工知能(AGI)の開発に取り組むサンフランシスコの小規模な営利団体であるオープンAIは、今回選んだ手法が、大きなリスクを伴う研究の最適な扱い方を知るための重要な実験だと考えている。
最初のGPT-2の発表から6カ月経った今年8月。オープンAIの政策チームは、完全版を非公開とした決定による影響を調べた論文を発表した。同時に、完全版の半分のサイズとなるGPT-2の新バージョンを公表した。
今年5月、オープンAIは、完全版の公開を差し控えるとのスタンスから、「段階的公開」へとスタンスを変えた。モデルのより大きなバージョンを段階的に公開し、徐々に完全版へ近づけていく方法だ。2月に公開されたGPT-2は、完全版の8%のサイズしかないものだったが、5月に公開されたものは完全版の約4分の1サイズとなっている。こうしたプロセスの間に、オープンAIは一流の研究機関と提携し、完全版の与える影響についても研究した。
論文では、このプロセスを通じてオープンAIが学んだことが詳しく述べられている。段階的公開、研究提携契約ともに、GPT-2が悪意を持って使用される可能性についてオープンAIがよりよく理解し、予測するのに役立ったといい、将来的に再び取り組む価値があるプロセスだ …
- 人気の記事ランキング
-
- Bringing the lofty ideas of pure math down to earth 崇高な理念を現実へ、 物理学者が学び直して感じた 「数学」を学ぶ意義
- Promotion Innovators Under 35 Japan × CROSS U 無料イベント「U35イノベーターと考える研究者のキャリア戦略」のご案内
- The 8 worst technology failures of 2024 MITTRが選ぶ、 2024年に「やらかした」 テクノロジー8選
- Google’s new Project Astra could be generative AI’s killer app 世界を驚かせたグーグルの「アストラ」、生成AIのキラーアプリとなるか
- AI’s search for more energy is growing more urgent 生成AIの隠れた代償、激増するデータセンターの環境負荷