今日、もっともよく見られる機械学習のアプリケーションは、推薦アルゴリズムである。ネットフリックスと ユーチューブは、ユーザーに新しい番組や動画を薦めるのに推薦アルゴリズムを利用している。グーグルとフェイスブックは、ユーザーの検索結果やニュースフィードの表示順位を決定するために推薦アルゴリズムを使っている。こうしたアルゴリズムは非常に便利である一方で、いくつかの望ましくない副作用もある。「フィルターバブル」と「エコーチェンバー」という言葉をおそらく聞いたことがあるだろう。
こうした副作用に関する不安は、いまに始まったものではない。現在はアップワージー(Upworthy)の最高経営責任者(CEO)を務めるイーライ・パリザーは2011年に、TEDのステージ上でフィルターバブルについて警告した。それよりもさらに前、ハーバード大学の法学者であるキャス・サンスティーン教授は、自著『インターネットは民主主義の敵か(原題:Republic.com)』で「集団極性化」の効果を正確に予測した。集団になることで思考が極端に偏ってしまう「集団極性化現象」が、インターネットの隆盛によって促され、最終的には健全な民主主義の困難な課題になるだろうというものだ。フェイスブックが誕生する3年前のことである。
フィルターバブルとエコーチェンバーの考え方は、2016年の米国選挙の後、瞬く間に大衆に広まり、それぞれに関連する研究が増加した。そしていま、グーグルの人工知 …
- 人気の記事ランキング
-
- A Google Gemini model now has a “dial” to adjust how much it reasons 推論モデルは「考えすぎ」、グーグルがGeminiに調整機能
- What is vibe coding, exactly? バイブコーディングとは何か? AIに「委ねる」プログラミング新手法
- Phase two of military AI has arrived 米軍で導入進む「戦場のLLM」、未解決の3つの課題とは?
- Anthropic can now track the bizarre inner workings of a large language model 大規模言語モデルは内部で 何をやっているのか? 覗いて分かった奇妙な回路