「30秒に1回」、ツイッターに蔓延するマイノリティ攻撃の実態
ツイッター上には荒らし行為や嫌がらせが蔓延している。最新の機械学習を用いたアムネスティ・インターナショナルの研究によると、黒人女性の政治家やジャーナリストは特に攻撃の対象となる確率が高いことが明らかになった。 by Will Knight2018.12.25
ツイッターは毒のある場所にもなる。ここ数年、ツイッター上での荒らしや嫌がらせにより、極めて不快で心を乱されるような経験をしている人は多い。とりわけ女性とマイノリティがその被害に遭っている。攻撃を自動的に認識して止めさせるにしても、正確かつ確実に実行するのは難しい。最近の人工知能(AI)の進歩を持ってしても、機械は人間のコミュニケーションに対し、意味ある応答をするのがいまだに苦手だ。たとえば、AIは皮肉とも捉えられる内容や、ポジティブなキーワードを含む内容を攻撃的なメッセージと判断するのに苦労することが多い。
新たな研究として、最新鋭の機械学習を使って、ツイッター上の嫌がらせの度合いをより正確に理解しようとする取り組みが実施された。分析結果は、多くの人の予想を裏切らないものだった。女性でマイノリティのジャーナリストや政治家は、ツイッター上でおびただしい数の攻撃を受けているのだ。
研究は、カナダのエレメントAI(ElementAI)の協力で、国際的な人権団体であるアムネスティ・インターナショナルが実施した。黒人女性の政治家やジャーナリストは、同じ職業の白人女性に比べて、攻撃的なツイートや問題のあるツイートで名指しされる確率が84%も高いことが判明している。
「ひどく苛立ちを覚えます」というのは、機械学習の人道的な活用に重点を置く、エレメントAIのジュリアン・コーンバイス研究部長だ。「こういった女性たちは、社会を動かす大きな存在なのです」。
エレメントAIの研究者たちが最初に使用した機械学習ツ …
- 人気の記事ランキング
-
- These AI Minecraft characters did weirdly human stuff all on their own マイクラ内に「AI文明」、 1000体のエージェントが 仕事、宗教、税制まで作った
- Google’s new Project Astra could be generative AI’s killer app 世界を驚かせたグーグルの「アストラ」、生成AIのキラーアプリとなるか
- Bringing the lofty ideas of pure math down to earth 崇高な理念を現実へ、 物理学者が学び直して感じた 「数学」を学ぶ意義
- We saw a demo of the new AI system powering Anduril’s vision for war オープンAIと手を組んだ 防衛スタートアップが目指す 「戦争のアップデート」