5月18日、グーグルのサンダー・ピチャイCEO(最高経営責任者 ) は、新たな優れたツールを発表した。「ラムダ(LaMDA)」と呼ばれるその人工知能(AI)システムは、あらゆるテーマについてユーザーとチャットができる。
グーグルは手始めに、メインの検索ポータルや音声アシスタント、さらにはGメール、ドキュメント、ドライブといったクラウドベースの業務ソフトウェアを集めたワークスペースに、ラムダを統合することを計画している。しかし、ピチャイCEOによると、最終的な目標は、テキスト、ビジュアル、オーディオなど、すべてのグーグル製品にわたって、人が問いかけるだけであらゆる種類の情報を取得できる会話型インターフェイスを作り上げることだ。
ラムダの投入は、自然言語処理テクノロジーが人々の日常生活になお一層絡むようになっていることを示唆する。しかし、グーグルの華々しいプレゼンテーションは、こうした最先端システムを現在取り巻いている倫理面での論争に目を背けていた。ラムダは、大規模言語モデル(LLM)と呼ばれる、膨大な量のテキストデータを使って訓練された深層学習アルゴリズムなのだ。
大規模言語モデルには人種差別的、性差別的、虐待的な思想が組み込まれることが、いくつかの研究ですでに示されている。こうしたモデルは、例えば医師といえば男性、看護師といえば女性、あるいは上品な言葉といえば白人、下品な言葉といえば黒人といった具合に、カテゴリーの関連付けをしている。適当にカマをかけながらこれらモデルを探っていくと、虐殺、自傷行為、児童性的虐待といったことを奨励し始める。また、規模の大きさゆえに、モデルを構築する際に排出する二酸化炭素の量は驚くほど多い。さらに、生成するテキストの流暢さゆえに、モデルが作成した文章を人間が書いたものと思わせ、人々を容易に混乱に陥れる。これについて、専門家は誤った情報の大量生産が可能になると警告している。
2020年12月に、グーグルのAI倫理チームの共同リーダーであったティムニット・ゲブルが、大規模言語モデルがはらむ多くの問題を指摘した論文の撤回を拒否すると、同社はゲブルを追放した。それから数か月、グーグル社員からの公開書簡で、同社による「研究に対する前例のない検閲」と呼ばれる出来事の大規模な告発があると、ゲブルの共著者で、同じくAI倫理を率いていたマーガレット・ミッチェルも解雇された。
大規模言語モデルを導入しているのはグーグルだけではない。これまでで最も脚光を浴びた言語モデルであるオープンAI(OpenAI)の「GPT-2」と「GPT-3」は、際立って説得力のあるテキスト文を吐き出し、音楽の作曲やコンピューターコードの仕上げという別の目的にも利用できる。マイクロソフトは現在、GPT-3の独占ライセンスを取得して、今後発表する製品へ組み込もうとしている。フェイスブックは、翻訳とコンテンツモデレーションのために独自の大規模言語モデルを開発した。さらに、複数のスタートアップ企業が、大手テック企業の言語モデルを基に、数多くの製品やサービスを作り出している。そう遠くない将来、人々が電子メール送信、検索、ソーシャルメディア投稿をする際に、すべてのデジタル・インタラクションが大規模言語モデルいうフィルターを通ることになるだろう。
残念ながら、大規模言語モデルの欠陥が、現実世界の用途において人々にどのような影響があるかを理解したり、これらの課題を軽減させるより優れたモデルを設計したりしようとする研究はほとんど実施されていない。グーグルがゲブルとミッチェルの扱いで明確に示したように、大規模言語モデルを訓練し、維持するのに十分な資金を持ついくつかの企業は、大きな経済的利益を得るために、同モデルの課題を注意深く調べることを拒否している。つまり、大規模言語モデルは、科学的に不安定な基盤上に築かれたインターネットの言語インフラに、ますます統合されつつあるということだ。
だが一方で、現在、世界中で500人を超す研究者が、大規模言語モデルの機能と限界について理解しようと競い合っている。自然言語処理の理解に向けて「オープンサイエンス」のアプローチを採用するスタートアップ企業、ハギングフェイス(Huggingface)が主導する「ビッグサイエンス・プロジェクト」に協力する研究者らは、科学コミュニティの共有リソースとしての役割を担うオープンソース大規模言語モデルの構築を目指している。プロジェクトの目標は、重点期間と定めた1年以内にできるだけ多くの学識を得ることである。彼らの疑問の中心は、有害な結果を招くことなく利益を享受するには、大規模言語モデルをいつどのように開発・展開するべきかということだ。
この取り組みを共同で主導しているハギングフェイスのトーマス・ウルフCSO(最高科学責任者)は、「大規模言語モデルをめぐる熱狂は本当に止められません。誰もが大規模言語モデルを訓練したがっています。私たちにできることは、最終的にはより有益な方向に、この動きを少しずつ持っていくことです」と言う。
確率論的に繰り返すだけのオウム
ビッグサイエンス・プロジェクトが活動を開始した同じ月に、コヒア(Cohere)という名前のスタートアップが静かに姿を現した。元グーグルの研究者が創業したコヒアは、大規模言語モデルを必要とするあらゆるビジネスに対し、たった1行のコードで、同モデルを利用できるようにすることを約束している。同社は、データセンターにある一部の稼働していない計算リソースを活用して独自モデルを訓練およびホストする手法を開発した。これにより、維持と展開に必要なクラウドスペースのレンタルコストを抑えられる。
コヒアの初期の顧客のひとつに、エイダ・サポート(Ada Support)という名前のスタートアップ …