5.8億人の偽アカウントを停止、FBが初の監視報告書で公表
5月15日、フェイスブックは初めてコンテンツ・モデレーション報告書を公表した(コンテンツ・モデレーションとは不適切なコンテンツを監視、削除すること)。
以下が知っておくべき、2018年第1四半期の数字だ。
– 5億8300万人の偽アカウントを停止。月間利用者数の3〜4%がニセモノだった
– 8億3600万件のスパム攻撃を受けた
– 2100万件のヌード写真を含む投稿を強制削除した
– 250万件の差別的発言を含む投稿を発見。2017年の第4四半期から56%増加した
– 削除されたテロ関連の投稿は前四半期から73%増加。機械学習のアルゴリズムを使ってさらに古い投稿を検索中で、この分がさらに増加する見込み
報告書からは、フェイスブックのソフトウェアと従業員が見つけ出した膨大な問題のあるコンテンツの量が見えてくる。これらの数字は、実際にフェイスブックによって確認された投稿やユーザーだけだということを覚えておかなければならない。
差別的発言を見つけ出すフェイスブックのソフトウェアの性能は向上しつつあるが、それだけでコンテンツ監視の全責任を負うまでにはほど遠い。何らかの処置が取られた差別的発言のうち62%は、もともとユーザーによる報告がきっかけで発覚したものだ。人工知能(AI)を使った投稿管理は、どうやら非常に難しいことのようだ。
- 参照元: The Verge、Wired、The Guardian