フェイスブックはコンテンツ監視員3万人雇用を、NY大学が提言
不適切な投稿を監視するコンテンツ・モデレーションはフェイスブックの重要な機能にも関わらず、外注されている。ニューヨーク大学の研究者チームはモデレーターを直接雇用し、体制を強化する必要があると提言している。 by Charlotte Jee2020.06.12
もし、フェイスブックがサイトのモデレーション(監視)を今すぐ止めたら一体どうなるか想像してほしい。誰でもが好きな内容を投稿できるようになる。これまでの経験からすると、そうなればあっという間にサイトは無法地帯となり、 スパムやいじめ、犯罪、テロリストによる斬首映像、ネオナチの書き込み、児童への性的虐待画像などであふれかえるだろう。そうなればユーザーの多くがサイトから離れ、収益性の高い広告主もそれに続く可能性がある。
しかし、コンテンツの節度を保つモデレーション業務が非常に重要であっても、業務自体はそのようには扱われていない。有害コンテンツを1日中削除する1万5000人のコンテンツ・モデレーターの大多数は、フェイスブックで働いてすらいない。モデレーション業務のすべては下請け企業に外注されており、世界中の20以上の拠点において不安定な雇用形態で雇用されている。コンテンツ・モデレーターは1日に何百もの投稿をチェックする必要があり、その多くは深いトラウマを与えるものだ。誤りも多く、人工知能(AI)ツール を使用して注意が必要な投稿の優先順位付けをしているが、フェイスブック自身も10%のエラー率を認めている。削除を必要としない投稿に削除すべきと誤ったフラグが付いている場合でも、その逆の場合でも同じだ。レビュワーが毎日300万件の投稿を判断しなければならないことを考えると、毎日30万件の間違いがあることになる。いくつかのエラーは、致命的な影響を及ぼす可能性がある。例えば、ミャンマー軍は2016年と2017年にフェイスブックを使い、主にイスラム教徒のロヒンギャ少数派に対する大量虐殺を扇動したが、フェイスブック側はその後、ヘイトスピーチや暴力の扇動を禁止する独自のポリシーの実施に失敗したことを認めた。
ニューヨーク大学スターン・ …
- 人気の記事ランキング
-
- Anthropic can now track the bizarre inner workings of a large language model 大規模言語モデルは内部で 何をやっているのか? 覗いて分かった奇妙な回路
- Promotion MITTR Emerging Technology Nite #32 Plus 中国AIをテーマに、MITTR「生成AI革命4」開催のご案内
- AI companions are the final stage of digital addiction, and lawmakers are taking aim SNS超える中毒性、「AIコンパニオン」に安全対策求める声
- This Texas chemical plant could get its own nuclear reactors 化学工場に小型原子炉、ダウ・ケミカルらが初の敷地内設置を申請
- Tariffs are bad news for batteries トランプ関税で米電池産業に大打撃、主要部品の大半は中国製