KADOKAWA Technology Review
×
10/9「生成AIと法規制のこの1年」開催!申込み受付中
ヘイト画像検出AIに総額1万ドル、開発者向けコンペ始まる
Photo illustration by Sarah Rogers/MITTR | Photos Getty
Want AI that flags hateful content? Build it.

ヘイト画像検出AIに総額1万ドル、開発者向けコンペ始まる

ネット上の憎悪的画像を追跡するAIモデルの開発コンペが始まった。米国のAI評価団体と北欧の反テロ組織との共同開催で、優勝者には総額1万ドルの賞金が贈られる。 by Scott J Mulligan2024.09.30

この記事の3つのポイント
  1. AIシステムの評価に取り組む団体が開発者向けコンペを開始
  2. 憎悪的な画像を追跡できるコンピュータービジョン・モデルの開発が目的
  3. 優勝者には総額1万ドルの賞金が提供され、実用化される可能性も
summarized by Claude 3

人工知能(AI)システムの評価に取り組むヒューメイン・インテリジェンス(Humane Intelligence)は、新たに開発者向けのコンペティションを開始する。お題は、ネット上の憎悪的な画像を使ったプロパガンダを追跡できる、コンピュータービジョン・モデルの開発することだ。北欧の反テロリズム団体、レヴォントゥレット(Revontulet)と共同で開催されるこの報奨金プログラムは、9月26日に始まった。18歳以上であれば誰でも参加でき、優勝者には総額1万ドルの賞金が贈られる。

今回のコンペは、ヒューメイン・インテリジェンスが計画している、全10回の「バイアス・アルゴリズム報奨金」プログラムの第2弾となる。同団体は、著名なAI研究者であるラマン・チョードリーによって2022年に設立され、AIの社会的影響について調べている非営利団体だ。一連のプログラムは、グーグルの慈善事業部門である「Google.org」の支援を受けている。

「これらの報奨金プログラムの目的は、第一に、アルゴリズムの評価方法を人々に教えること。そして、現場の差し迫った問題を実際に解決することです」とチョードリー創設者は話す。

コンペの最初の課題は、モデルの訓練に使われる可能性のあるサンプル・データセット内のギャップを評価することだ。そのようなギャップが、事実と異なるアウトプットや、バイアスのかかったアウトプット、あるいは誤解を招くアウトプットを具体的に生み出す可能性がある。

2番目の課題では、ネット上の憎悪的な画像を追跡するという、非常に複雑な問題に取り組む。この種のコンテンツは、生成AIの登場によって爆発的に増加した。AIはまた、ソーシャルメディアから削除されないようにコンテンツを操作する目的でも使われている。例えば、過激派グループがAIを利用して、すでにプラットフォームから使用を禁止された画像をわずかに改変し、自動検出システムが簡単に検知できないコピーを何百枚もすばやく作り出す可能性がある。また、過激派ネットワークがAIを使って、人間の目では識別できないパターンを画像に埋め込む可能性もある。それにより検出システムを混乱させ、探知を回避するのだ。このようなAIの利用が、本質的に、過激派グループとオンライン・プラットフォームとの間のいたちごっこを生み出してきた。

この課題では、2つの異なるモデルが求められる。1つは中級者向けの課題で、憎悪的な画像を識別するモデルだ。もう1つの上級者向けの課題は、1つ目のモデルを騙すことを試みるモデルだ。「現実世界の仕組みを模倣しています」とチョードリー創設者は言う。「善意の行為者があるアプローチをすれば、次に悪意の行為者が別のアプローチを試みるのです」。 目標は、過激思想を緩和するというテーマに機械学習研究者を巻き込むことである。その目標を達成することが、憎悪に満ちた画像を効果的にふるいにかけることができる、新たなモデルの開発につながるかもしれない。

このプロジェクトの中核的な問題は、憎悪に基づくプロパガンダはその文脈に大きく左右される場合があるということだ。また、特定のシンボルや記号が示す内容を深く理解していなければ、何を白人民族主義グループ向けのプロパガンダと見なしていいのかということでさえ、分からない可能性がある。

「もし(モデルが)世界のある場所で作られた憎悪的な画像の事例を見たことがなければ、うまく検知できるようにはならないでしょう」とウォータールー大学のジミー・リン教授(コンピューター科学)は言う。同教授は今回の報奨金プログラムに関わっていない。

多くのモデルは文化的な文脈について豊富な知識を持っていないため、この影響は世界中で増幅されている。ヒューメイン・インテリジェンスがこの特定の課題のために、非米国組織と提携することにしたのも、それが理由である。「このようなモデルの多くは、たいてい米国の事例に合わせてファインチューニング(微調整)されています。そのため、北欧の反テロリズム団体と協力することが重要なのです」とチョードリー創設者は言う。

しかし、リン教授はそれらの問題を解決するには、アルゴリズムの変更以上のことが必要かもしれないと警告する。「偽のコンテンツを生成するモデルはすでにあります。では、生成された偽のコンテンツを検出できる他のモデルを開発することは可能でしょうか? それが問題解決のための1つのアプローチであることは確かです」と同教授は言う。「しかし、長い目で全体を見た場合、訓練やリテラシーの向上、教育などの取り組みの方が実際により有益なものとなり、影響力もより長続きすると私は考えます。なぜなら、(過激派とプラットフォームとの間の)いたちごっこに巻き込まれなくなるからです」。

コンペは2024年11月7日まで実施される。中級者向けの課題で1人、上級者向けの課題で1人、計2人の勝者が選ばれ、それぞれ4000ドルと6000ドルが授与される。また参加者のモデルは、レヴォントゥレットによって審査され、同団体が現在提供している過激主義対策ツールに追加される可能性もある。

人気の記事ランキング
  1. Why OpenAI’s new model is such a big deal GPT-4oを圧倒、オープンAI新モデル「o1」に注目すべき理由
  2. Promotion MITTR Emerging Technology Nite #30 MITTR主催「生成AIと法規制のこの1年」開催のご案内
  3. A brief guide to the greenhouse gases driving climate change CO2だけじゃない、今、知っておくべき温室効果ガス
  4. Why virologists are getting increasingly nervous about bird flu 米国で感染拡大、もはや鳥だけの問題ではない「鳥インフル」問題
  5. AI models let robots carry out tasks in unfamiliar environments 未知の環境でもタスクを完了、ロボット訓練の新AIモデル
スコット・J・マリガン [Scott J Mulligan]米国版 AI担当記者
政策、ガバナンス、AIの内部構造などを取材するAI担当記者。AIに特化した若手ジャーナリスト育成プログラム「ターベル・フェローシップ(Tarbell Fellowship)」の支援を受けている。ヴァイス(VICE)ニュースでのドキュメンタリー映像制作、ビデオゲーム・デザイナーなどを経て現職。
日本発「世界を変える」U35イノベーター

MITテクノロジーレビューが20年以上にわたって開催しているグローバル・アワード「Innovators Under 35 」。2024年も候補者の募集を開始しました。 世界的な課題解決に取り組み、向こう数十年間の未来を形作る若きイノベーターの発掘を目的とするアワードの日本版の最新情報を随時発信中。

特集ページへ
MITTRが選んだ 世界を変える10大技術 2024年版

「ブレークスルー・テクノロジー10」は、人工知能、生物工学、気候変動、コンピューティングなどの分野における重要な技術的進歩を評価するMITテクノロジーレビューの年次企画だ。2024年に注目すべき10のテクノロジーを紹介しよう。

特集ページへ
フォローしてください重要なテクノロジーとイノベーションのニュースをSNSやメールで受け取る