巨大掲示板を支える自動化
コンテンツ監視の未来
ソーシャルメディアの利用が増えるにつれ、不適切なコンテンツを監視する「コンテンツ・モデレーター」の仕事は増えるばかりだ。ソフトウェアによる監視は、精神的なダメージが大きいコンテンツ・モデレーターの負担を軽減できるだろうか。 by Tanya Basu2019.11.27
シェーガン・ジェイヴァーは過去4年間、いくつかのサブレディット(投稿サイト「レディット(Reddit)」における「板」)をモデレートしてきた。ページを入念にスクロールし、コミュニティ規則に違反したり、あからさまに不快だったりする投稿をブロックする仕事だ。
コンテンツ・モデレーションについて研究しているジョージア工科大学博士課程生のジェイヴァーは、自動モデレーターが時間の節約だけでなく、心を弱らせるようなコンテンツをふるいにかけることができれば、人間のモデレーターの精神的な負担を軽減できるのではないかと考えた。 そこでジェイヴァーは3人の研究仲間とともに自動モデレーターの「オートモッド(AutoMod)」と呼ばれるシステムが実際に使えるかどうか検証した。
研究チームはレディットのいくつかのページを自らモデレートし、特に人気のあるサブレディットの16人のモデレーターにインタビューした。「r/photoshopbattles」「r/space」「r/explainlikeimfive」「r/oddlysatisfying」「r/politics」など、それぞれに数百万人の参加者がいるサブレディットだ。これらはすべてオートモッドの力を借りてモデレートしている。 ジェイヴァーはその成果を11月初旬、ACM(Association for Computing Machinery)の学会で発表した。
フェイスブック、インスタグラム、ユーチューブなどのソーシャルメディア・プラットフォームは、これまで長らく人間のモデレーターの手作業に依存してきた。コンテンツをくまなく調べ、人種差別や性差別のヘイト・スピーチから、銃乱射の生々しい映像に至るまでの暴力的で不快な要素を削除する仕事は、 多くの場合、最低賃金とわずかな手当てで働いているモデレーターたちによって支えられている。彼らは、深刻な精神的ダメージをもたらすコンテンツの打撃を受けな …
- 人気の記事ランキング
-
- Anthropic can now track the bizarre inner workings of a large language model 大規模言語モデルは内部で 何をやっているのか? 覗いて分かった奇妙な回路
- Promotion MITTR Emerging Technology Nite #32 Plus 中国AIをテーマに、MITTR「生成AI革命4」開催のご案内
- AI companions are the final stage of digital addiction, and lawmakers are taking aim SNS超える中毒性、「AIコンパニオン」に安全対策求める声
- This Texas chemical plant could get its own nuclear reactors 化学工場に小型原子炉、ダウ・ケミカルらが初の敷地内設置を申請
- Tariffs are bad news for batteries トランプ関税で米電池産業に大打撃、主要部品の大半は中国製