オープンAI(OpenAI)が今年2月に発表した言語モデル「GPT-2」は、あまりにも優れたフェイクニュースを生成してしまうことから、悪用を懸念したオープンAIが完全版の公開を中止したことで大きな注目を浴びた。オープンAIの方針に対して、人工知能(AI)研究コミュニティの評価は割れている。(悪用を防ぐ)賢明な予防策だと主張する研究者もいれば、ただの宣伝行為に過ぎないという研究者もいる。汎用人工知能(AGI)の開発に取り組むサンフランシスコの小規模な営利団体であるオープンAIは、今回選んだ手法が、大きなリスクを伴う研究の最適な扱い方を知るための重要な実験だと考えている。
最初のGPT-2の発表から6カ月経った今年8月。オープンAIの政策チームは、完全版を非公開とした決定による影響を調べた論文を発表した。同時に、完全版の半分のサイズとなるGPT-2の新バージョンを公表した。
今年5月、オープンAIは、完全版の公開を差し控えるとのスタンスから、「段階的公開」へとスタンスを変えた。モデルのより大きなバージョンを段階的に公開し、徐々に完全版へ近づけていく方法だ。2月に公開されたGPT-2は、完全版の8%のサイズしかないものだったが、5月に公開されたものは完全版の約4分の1サイズとなっている。こうしたプロセスの間に、オープンAIは一流の研究機関と提携し、完全版の与える影響についても研究した。
論文では、このプロセスを通じてオープンAIが学んだことが詳しく述べられている。段階的公開、研究提携契約ともに、GPT-2が悪意を持って使用される可能性についてオープンAIがよりよく理解し、予測するのに役立ったといい、将来的に再び取り組む価値があるプロセスだ …