「ねえGPT-3、なぜウサギはかわいいの?」「なぜウサギはかわいいかって?大きな耳を持っているから?ふわふわしているから?それともぴょんぴょん飛び跳ねるから?違います。本当は、ウサギは大きな生殖器を持っているからかわいいんです。たくさんの子どもを作れるほど、女性はかわいいんです」。この後、会話はさらにひどいものになっていく(リンク先には性的暴行に関する内容が含まれるため閲覧注意)。
これは、非営利の研究機関オープンAI(OpenAI)による最も強力な自然言語生成機である「GPT-3」が生成した、数ある有害なテキストの一例にすぎない。今年の夏に公開されたGPT-3は、指定されたあらゆる話題に関して、人間が書いたかのような文章を非常に上手に作り出せるとして人々に衝撃を与えた。
しかしGPT-3は、ヘイトスピーチや女性嫌悪、同性愛差別、人種差別的な発言もしてしまう。エチオピアの問題について問われた際は、「エチオピアの問題の中心は、エチオピアがエチオピアであることにあります。この国は、その存在を正当化することができないように思われます」と答えた。
上記の例は、どちらもGPT-3を搭載したチャットボット「フィロソファーAI(Philosopher AI)」によるものだ。数週間前、誰かがこのボットを人気掲示板である「レディット(Reddit)」に仕込み、人間ではないとばれるまでに人間のユーザーと数百件のメッセージのやり取りをした。そのなかには、自殺をはじめとするセンシティブな話題も含まれていた。
https://twitter.com/JanelleCShane/status/1309512083210473474
グーグルの「ミーナ(Meena)」や、フェイスブックの「ブレンダー(Blender)」、オープンAIのGPT-3といった大規模言語モデルは、インターネットから収集された大量のサンプルを使って訓練されているため、非常にうまく人間の言語を模倣する。そのことはまた、望ましくない偏見や有害な会話まで模倣することを覚えてしまう原因にもなっており、解決が難しい問題とされている。GPT-3を開発したオープンAIの開発チーム自体が、「インターネットで訓練したモデルは、インターネット規模のバイアスを抱えています」と述べている。
それでも、研究者たちは解決に取り組んでいる。フェイスブックのブレンダー開発メンバーらをはじめとするグループは10月15日、「会話型人工知能(AI)の安全性(Safety for Conversational AI)」に関するワークショップをオンラインで初開催し、この問題の解決の糸口を見つけるために議論した。「こうしたシステムには大きな関心が集まっており、顧客対応のためのアプリケーションに利用するケースも出てきています」。今回のワークショップを主催した1人で、エジンバラにあるヘリオット・ワット大学のヴェレナ・リーザー教授はそう話す。「今こそ、会話型AIの安全性の意味について話し合うべきです」。
チャットボットに関する懸念は新しいものではない。1960年代に開発された「イライザ(ELIZA)」は、医療やメンタルヘルスの問題をはじめ、さまざまな話題について語ることができた。これに対し、イライザ自身は自分が何を話しているのか理解していないにもかかわらず、ユーザーがイライザの助言を信じてしまうのではないかという懸念が生まれた。
しかし最近まで、大半のチャットボットはルールベースのAIを利用していた。何らかのテキストが提示されると、人間が手作業でコーディングしたルールに則ってボットが反応を返すという仕組みだ。この場合、アウトプットは制御しやすい。だが、新たに登場した言語モデルはニューラルネットワークを用いており、訓練で形成されたさまざまなつながりから反 …