KADOKAWA Technology Review
×
【冬割】 年間購読料20%オフキャンペーン実施中!
フェイスブックが「世界最高」のチャットボット、グーグル超えを主張
Facebook
Facebook claims its new chatbot beats Google’s as the best in the world

フェイスブックが「世界最高」のチャットボット、グーグル超えを主張

フェイスブックは、ほぼどんな話題でも人を引きつけるようなおもしろい会話ができるオープンソースのチャットボット「ブレンダー」を開発したと発表した。1月にグーグルが発表した「最高」のチャットボットとの比較で、より魅力的との評価を得たという。 by Karen Hao2020.05.05

チャットボットやバーチャルアシスタントはこれまで大きな進展を遂げているが、会話はいまだにひどく不得手だ。大部分のボットはタスク指向の色合いが濃く、ユーザーが出した要求に応えるだけだ。こちらが求めているものをまったく理解していないように思えるボットもあり、イライラさせることもしばしばだ。あるいは、人間らしい魅力に欠け、ひどく退屈に感じるボットもある。タイマーをセットするような作業だけを求めているのなら、それでも問題ないだろう。だが、小売から医療、金融サービスまで、あらゆる分野のインターフェイスとしてボットが日常的になるにつれ、その力不足がますます明らかとなっている。

フェイスブックが開発した新型チャットボット「ブレンダー(Blender)」は、ほぼどんな話題でも、人を引きつけるようなおもしろい会話ができるという。ブレンダーは、バーチャルアシスタントが持つ多くの弱点の克服に役立つだけではない。多くの人工知能(AI)研究の原動力となっている偉大な目標に近づいたことを示せる可能性がある。それは、知能を複製するということだ。「対話は、ある種の『AI完全』問題です」と、フェイスブックの研究エンジニアで、今回のプロジェクトのリーダーの一人であるスティーブン・ローラー博士は語る。「対話の問題を解決するにはAIのすべての問題を解決しなくてはなりません。対話の問題が解決できれば、AIのすべての問題が解決したことになります」(同)。

ブレンダーの会話能力は膨大な量の訓練データの賜物だ。まず、掲示板サイト「レディット(Reddit)」で公開されている15億件の会話で訓練を積み、会話中の回答を生成するための土台を築いた。そして、共感力、知識、個性を獲得させるために、それぞれデータを追加して細かい調整をした。共感力をボットに教えるために開発チームは、ある種の感情を含んだ会話のデータセットを用いた。たとえばユーザーが「昇進したよ」と言った場合に、「おめでとう!」と返すといった具合だ。さらに、専門家との情報の詰まった会話を用いて知識を教え込み、特徴的な性格の人同士の会話を用いて個性を吹き込んだ。その結果完成したモデルは、今年1月に発表されたグーグルのチャットボット「ミーナ(Meena)」の3.6倍の規模となった。大きすぎるために単一のデバイスには収まらず、2つのコンピューターチップで稼働させる必要がある。

Facebook Blender chat log
人間とブレンダーとの会話例。

グーグルはミーナを発表した当時、世界最高峰のチャットボットであると宣言した。しかしながら、フェイスブックが実施したテストでは、ミーナよりもブレンダーの方が魅力的である評価した人が75%に上った。より人間らしいと感じた評価者は67%だった。また、ブレンダーは49%の割合で、本物の人間による会話ログよりも人間らしいと感じさせることに成功した。つまり、本物の人間による会話とチャットボットの会話との間に質的な差がないことになる。これらの結果についてグーグルにコメントを求めたが、本記事の締め切りまでに回答は得られなかった。

だが、このようなすばらしい成果がありながら、ブレンダーの能力は人間に遠く及ばない。これまでのところ開発チームは、14回のやりとりで終わる短い会話でしかブレンダーを評価していない。それよりも長く会話を続けた場合、すぐに破綻してしまうだろうと研究者は推定している。「ブレンダーのモデルには、込み入った話をする能力はありません」と、プロジェクトリーダーの一人であるエミリー・ディナンは語る。「数回のやりとりの後には、会話の文脈を忘れてしまうのです」(同)。

ブレンダーはまた、存在しない情報を勝手に作り出したり、事実をでっち上げたりする傾向がある。土台となる深層学習技術が直接もたらす限界だ。結局のところブレンダーは、知識のデータベースではなく、統計的な相関関係に基づいて文を生成しているにすぎない。その結果、たとえば、有名人に関する筋の通った詳細な説明に、まったく虚偽の情報を紐付けることもある。こうした問題を解決するために開発チームは、ブレンダーの回答生成に知識データベースを統合してみることを計画している。

Facebook Blender evaluation
人間の評価者が、複数回のやりとりを異なるチャットボットで比較した。

オープンエンドのチャットボット・システムの大きな課題の1つは、有害な内容や偏った意見を言わせないようにすることだ。これらのシステムは最終的にソーシャルメディアで訓練されるため、インターネット上の辛辣な会話の受け売りになりかねない(2016年のマイクロソフトのチャットボット「テイ(Tay)」の例が有名)。開発チームは、ブレンダーの調整に使用した3つのデータセットから有害な文言を除くようにクラウドワーカーに依頼し、この問題に対処しようとした。しかし、レディットのデータに関しては量が多すぎたため、断念したのだ(レディットで多くの時間を過ごした人であれば、その内容が問題となることは理解できるだろう)。

開発チームはまた、チャットボットの回答を二重チェックし、有害な文言を仕分けするなどのより安全な仕組みを取り入れることも考えている。だが研究チームは、そのようなアプローチは包括的にはならないだろうと認める。時として、「そうだ、素晴らしい」といった問題がないように思える文でさえ、人種差別的なコメントへの回答など繊細な文脈では有害な意味になる可能性がある。

フェイスブックのAIチームは長期的に、言葉と同様に視覚的な手がかりに反応できるような、より高度な対話型エージェントの開発にも興味を持っている。たとえば、別のプロジェクトが開発している「Image Chat(イメージ・チャット)」は、ユーザーが送信したような写真について、一定の人格に基づいた繊細な対話が可能だ。

人気の記事ランキング
  1. Promotion Innovators Under 35 Japan × CROSS U 無料イベント「U35イノベーターと考える研究者のキャリア戦略」のご案内
  2. The 8 worst technology failures of 2024 MITTRが選ぶ、 2024年に「やらかした」 テクノロジー8選
  3. AI’s search for more energy is growing more urgent 生成AIの隠れた代償、激増するデータセンターの環境負荷
カーレン・ハオ [Karen Hao]米国版 AI担当記者
MITテクノロジーレビューの人工知能(AI)担当記者。特に、AIの倫理と社会的影響、社会貢献活動への応用といった領域についてカバーしています。AIに関する最新のニュースと研究内容を厳選して紹介する米国版ニュースレター「アルゴリズム(Algorithm)」の執筆も担当。グーグルX(Google X)からスピンアウトしたスタートアップ企業でのアプリケーション・エンジニア、クオーツ(Quartz)での記者/データ・サイエンティストの経験を経て、MITテクノロジーレビューに入社しました。
▼Promotion 冬割 年間購読料20%off
日本発「世界を変える」U35イノベーター

MITテクノロジーレビューが20年以上にわたって開催しているグローバル・アワード「Innovators Under 35 」。2024年受賞者決定!授賞式を11/20に開催します。チケット販売中。 世界的な課題解決に取り組み、向こう数十年間の未来を形作る若きイノベーターの発掘を目的とするアワードの日本版の最新情報を随時発信中。

特集ページへ
MITTRが選んだ 世界を変える10大技術 2024年版

「ブレークスルー・テクノロジー10」は、人工知能、生物工学、気候変動、コンピューティングなどの分野における重要な技術的進歩を評価するMITテクノロジーレビューの年次企画だ。2024年に注目すべき10のテクノロジーを紹介しよう。

特集ページへ
フォローしてください重要なテクノロジーとイノベーションのニュースをSNSやメールで受け取る