ユーチューブ、「低評価」でもレコメンドにほぼ影響なし
ユーチューブの人工知能(AI)が推奨する「おすすめ動画」を、ユーザーがコントロールするのはほとんど無理だということがモジラの新しい研究で分かった。 by Hana Kiros2022.10.08
ユーチューブのレコメンド・アルゴリズムは、ユーザーが視聴する動画の7割を支配している。
ユーチューブのレコメンド・アルゴリズムは、数十億人ものユーザーがユーチューブ上で消費するコンテンツを決定づける強力な存在だ。レコメンド・アルゴリズムには、推奨する動画をユーザー自身が調整できるコントロール機能が備わっているが、その機能が実際にはあまり役に立たないことが新しい調査で判明した。それどころか、自動車事故の切り抜き動画や戦場からのライブ配信、ヘイトスピーチのような望まない動画をユーザーが排除することはほぼ不可能だという。
調査を実施したのは、ブラウザーベンダーのモジラ(Mozilla)の研究チーム。同チームは、2万人以上の調査参加者のユーチューブでの行動を7カ月間にわたって分析し、ユーチューブが「おすすめを調整」できるとしている4つの方法を評価した。4つの方法とは「低評価」「興味なし」「履歴から削除」「このチャンネルをおすすめしない」をユーザーがクリックすることだ。研究チームが知りたかったのは、こうした方法が実際にどれほどの効果があるかだ。
調査は、視聴するすべてのユーチューブ動画の上部とサイドバーに「おすすめ停止」ボタンを追加するブラウザー拡張機能を使って実施された。この拡張機能は、実験に参加したユーザーがおすすめ停止ボタンをクリックするたびに、4つのアルゴリズム調整方法のうちいずれかを実行する。
数十人の研究助手が、ユーザーがおすすめを停止した動画を実際に目視で確認し、その後ユーチューブが同じユーザーにおすすめした数万本におよぶ動画との類似度を調べた。その結果、ユーチューブに備わっているコントロール機能は、参加者に表示されるおすすめ動画に「取るに足らない」影響しか与えないことが分かった。調査期間の7カ月間で、動画を1本却下するごとに平均で約115件の不適切なおすすめが生成されたという。つまり、参加者がユーチューブに見たくないと申告した動画に酷似した動画が推奨されたのだ。
先行研究では、ユーザーの好みそうな動画を推奨し、物議を醸すコンテンツに報酬を与えるユーチューブの仕組みは、人々の価値観を固定化し、政治的に尖鋭化する方向へ導く可能性を示している。ユーチューブは露骨な性描写や性的な暗示を含む子どもの動画を助長し、自社のポリシーに反するコンテンツの拡散を促進していると繰り返し批判されてきた。こうした批判を受け、ユーチューブは、ヘイトスピーチを取り締まり、ガイドラインの遵守を徹底させ、レコメンド・アルゴリズムを使って「際どい」コンテンツを助長しないと約束している。
だが今回の研究では、ユーチューブ自身のポリシーに反していると見られるコンテンツが、悪い評価のフィードバックを送られた後でも、ユーザーに対して積極的に推奨されていることが判明した。
悪い評価のフィードバックの最も分かりやすい方法は「低評価」をクリックすることだが、悪い推奨動画が12%排除されるだけだった。「興味なし」の場合はわずか 11%しか排除できなかった。ユーチューブはこの2つの方法を、ユーザーがアルゴリズムを調整する方法として紹介している。
ユーチューブのエレナ・エルナンデス広報責任者は、「当社の(アルゴリズム)コントロール機能は、特定の話題やある人の観点をすべて排除するものではありません。(特定の意見や思想を増幅する)エコーチェンバー現象を形成してしまうような悪影響が視聴者に及ぶかもしれないからです」と言う。また彼女は、モジラの報告はユーチューブのアルゴリズムが実際どのように働くかを考慮していないとも話す。だがアルゴリズムに対する膨大な情報入力やユーチューブの透明性の低さを考えると、外部からその真偽を確認する方法はない。モジラの研究は、そのブラックボックスをのぞき込み、出力をより良く理解しようとする取り組みである。
研究で判明した最も効果のあるツールは、好悪といった感情を表現するだけでなく、ユーチューブに命令を与えることだった。「履歴から削除」は望まない推奨動画を29%低減した。最も効果のあった「このチャンネルをおすすめしない」は、悪い推奨動画を43%ブロックした。それでも、視聴者がユーチューブにやめるよう要請したチャンネルの動画が、引き続き推奨される可能性は残る。
モジラの報告はその理由を、ユーチューブがユーザー満足度より視聴時間を重視するからだと推測している。ユーチューブが始まってからの10年間、ユーチューブのレコメンド・アルゴリズムはユーザー満足度という尺度をまったく考慮に入れていなかった。ユーチューブが「人々が実際に自身でコントロールする」ことを望むなら、コンテンツの種類やキーワードを推奨条件から除外することで、ユーザーがアルゴリズムを積極的に訓練できるようにするべきだ、とモジラは述べている。
モジラの報告で指摘された問題の多くは、トラウマになる可能性のあるコンテンツの推奨に集中している。ある参加者は、銃の宣伝をする動画を推奨しないよう求めた後でも、非常によく似た銃器動画がおすすめに入っていた。また、ユーチューブは類似コンテンツを拒否した参加者にも、ウクライナの実戦動画を推奨し続けた。
そのほかに指摘されたおすすめ動画は単に不快なものだ。暗号通貨で一攫千金する動画や、「ASMR Bikini Try-On Haul(ゾクゾクするビキニ試着)」は、ユーザーがフラグを立ててもおすすめから除外できなかった。ある参加者は「低評価のフィードバックをすればするほど、ひどい動画の山が積み上がるだけのように感じます」と言った。もう1つ、参加者が避けがたいと感じたおすすめコンテンツのカテゴリーが、クリスマスの音楽だった。
「あらゆるプラットフォームと同様にユーチューブも、自身が作成したルールとその施行のギャップに格闘しています」。こう話すのは、9月6日に出版されたユーチューブの急成長に関する書籍『Like, Comment, Subscribe(高評価、コメント、チャンネル登録)』(未邦訳)の著者、マーク・ベルゲンである。「うまくいかない理由の一部は、単に膨大な量の動画があることと、非常に多くの国と言語を扱っているからです」。
それでもベルゲンは、ユーチューブの人工知能(AI)は、ユーザーが視聴するコンテンツを左右するのには十分強力な存在だと話す。「ユーチューブは『アルゴリズムこそオーディエンス』と言うのを好みます」。とはいえユーチューブは平均的なユーザの声が聞こえていないか、理解していないことは明らかだろう。
- 人気の記事ランキング
-
- These AI Minecraft characters did weirdly human stuff all on their own マイクラ内に「AI文明」、 1000体のエージェントが 仕事、宗教、税制まで作った
- Google’s new Project Astra could be generative AI’s killer app 世界を驚かせたグーグルの「アストラ」、生成AIのキラーアプリとなるか
- Bringing the lofty ideas of pure math down to earth 崇高な理念を現実へ、 物理学者が学び直して感じた 「数学」を学ぶ意義
- We saw a demo of the new AI system powering Anduril’s vision for war オープンAIと手を組んだ 防衛スタートアップが目指す 「戦争のアップデート」
- ハナ・キロ [Hana Kiros]米国版 エマージング・ジャーナリスト・フェロー
- MITテクノロジーレビューのエマージング・ジャーナリスト・フェロー。