
テクノロジー・プラットフォーム、デジタル権利団体、法執行機関、政策立案者の間で意見が一致することはほとんどない。しかし、その数少ない合意事項の1つが、児童ポルノとの戦いという道徳的な問題への対応だ。
米国の非営利団体「行方不明・被搾取児童センター(NCMEC)」は、児童の被害が疑われるケースを管理する全米データベースの運営を担っている。2023年、NCMECには3620万件以上の報告が寄せられ、その中には合計1億500万以上のファイルが含まれていた。いくつかのツールは存在するものの、大半の作業は依然として手作業で実施されており、膨大な時間と労力を要するうえ、精神的にも過酷な作業である。
レベッカ・ポートノフ(34歳)は、過去10年間この問題の解決に取り組んできた。彼女は、児童搾取の防止に特化したテクノロジー系非営利団体「ソーン(Thorn)」のデータサイエンス担当副理事である。この分野に関わるきっかけとなったのは、カリフォルニア大学バークレー校でコンピュータサイエンスの博士号を取得していたときのことだった。現在、彼女は7人のデータサイエンティストのチームを率い、機械学習アルゴリズムを活用して児童ポルノを特定し、潜在的な被害者を見つけ出し、性的グルーミング(手なづけ)行為を検出する取り組みを進めている。
ポートノフが開発した「セイファー(Safer)」は、暗号ハッシュと知覚ハッシュを活用し、既知の児童ポルノ画像を識別してテクノロジー・プラットフォームや法執行機関がNCMECに報告できるようにするツールだ。最新バージョンでは、自然言語処理(NLP)を活用し、新たな被害者を誘導しようとする加害者の会話を検出する機能も追加された。この開発には、新しい訓練データセットの作成が必要で、その結果誕生したテキスト分類モデルは正式リリースされる予定だ。
ポートノフはまた、生成AIによる新たな脅威にも注目している。現在のツールは、すでに識別された児童ポルノ画像や動画と比較することで違法コンテンツを検出しているが、新しく生成されたコンテンツを識別するようには設計されていない。さらに、人工知能(AI)が作成した画像と実際の児童ポルノ画像を区別することも困難であり、法執行機関がその真正性を判断するために追加の時間を要する可能性がある。
この問題に対処するため、ポートノフは生成AIの影響を調査するワーキンググループを立ち上げた。さらに、インターネット上の脅威や情報環境を分析するスタンフォード大学の研究機関「スタンフォード・インターネット・オブザーバトリー(Stanford Internet Observatory)」と共同で論文を発表し、AI生成の児童ポルノが少数ながらも確実に増加していることを明らかにした。その結果、彼女はAIツールによる児童ポルノの生成・拡散を防ぐためのガイドラインを作成し、オープンAI(OpenAI)、アンソロピック(Anthropic)、アマゾン、メタを含む10社の大手テクノロジー企業にこの原則の採用を促した。
ポートノフは「すでに存在する有害なコンテンツを特定し、新たなコンテンツの作成を阻止するという一連のシステム的なアプローチこそが、最終的に状況を変える鍵になります」と話す。「いたちごっこを続けるのではなく、本質的な解決策を見出すべき」だという。
- 人気の記事ランキング
-
- Why handing over total control to AI agents would be a huge mistake 「AIがやりました」 便利すぎるエージェント丸投げが危うい理由
- OpenAI has released its first research into how using ChatGPT affects people’s emotional wellbeing チャットGPTとの対話で孤独は深まる? オープンAIとMITが研究
- An ancient man’s remains were hacked apart and kept in a garage 切り刻まれた古代人、破壊的発掘から保存重視へと変わる考古学
- How to have a child in the digital age 「あなたはもうママですね」 ネット・デジタルが約束する 「完璧な出産」の幻想