この文は人工知能(AI)が書いたものだろうか、それとも人間が書いたものだろうか。オープンAI(OpenAI)の新しいチャットボット「チャットGPT(ChatGPT)」は、私たちに次のような1つの問題を突きつける。「ネット上で読む文を書いたのが人間か機械か、どうすれば分かるのだろう」。
2022年11月末のリリース以来、チャットGPTは100万人以上に利用されてきた。AIコミュニティを魅了しており、インターネット上にAIが生成した文章がますますあふれかえっていることは明らかだ。人々はチャットGPTを利用してジョークをひねり出したり、童話を書いたり、優れたメールを生み出したりしている。
チャットGPTはオープンAIの大規模言語モデル(LLM)「GPT-3」からのスピンオフであり、与えられた質問に対して非常に人間らしい回答を生成する。大規模言語モデルの魔術、そして危険性は、正しさの幻影にある。生成される文はもっともらしく見える。適切な種類の単語が適切な順番で使われているからだ。しかし、AIは文の意味については何も知らない。大規模言語モデルは、文中で次にやってくる可能性が最も高い単語を予測することで文章を生成している。何かが正しいか間違いかを判断する手掛かりを持っておらず、正しくない情報でも、自信満々で正しい情報として提示してしまう。
すでに極端化し、政治的な問題をはらんでいるネットの世界において、こういったAIツールは、人々が受け取る情報をさらに歪める可能性がある。現実世界の実際の製品に導入されれば、結果は壊滅的なものとなり得る。
テクノロジーの悪用の可能性に対抗するため、人間が書いた文章とAIが書いた文章を見分ける方法が何としても必要だと語るのは、AIスタートアップ企業であるハギング・フェイス(Hugging Face)のアイリーン・ソレイマン政策部長だ。氏は以前、オープンAIでAI研究者として、GPT-3の前身であるGPT-2のリリースのため、AIによる生成物の検出を研究していた。
新たなツールは、プログラマーがアドバイスを求められるWebサイト「スタック・オーバーフロー(Stack Overflow)」が最近発表したような、AI生成による文章やコードを禁止するのに不可欠だ。チャットGPTは、ソフトウェアの問題に対する答えを自信たっぷりに返せるが、その答えは確実なものではない。間違ったコードは、ソフトウェアのバグの多発や故障の原因となり、修復に費用が掛かるだけでなく、大混乱となる可能性がある。
スタック・オーバーフローの広報責任者によると、同社のモデレーターたちは「コミュニティのメンバーによる数千件の報告を、ヒューリスティック・モデルや検出モデルといったいくつかのツールによって調査している」というが、それ以上の詳細については明かそうとしなかった。
実際、とてつもなく困難な作業であり、禁止を徹底するのはほぼ不可能だろう。
現在の検出ツール
AIが生成した文章を検出するため、研究者はいろいろな方法を試してきた。最もよく用いられる手法では、文章のさまざまな特徴を分析するソフトウェアを使う。例えば …