AI顔認識ツールからあなたの「自撮り」写真を守る方法
顔認識システムは人々がWebに投稿する写真を大量に収集して、AIモデルの訓練に使用している。個人的な写真が使用されるのを好ましく思わない研究者らは、人間の目にはわからないわずかな変更を画像に加えて、顔認識システムの訓練を阻止するツールを開発している。 by Will Douglas Heaven2021.05.11
個人的な写真をインターネットにアップロードすると、何かを手放した気分になる。ほかの誰がその写真にアクセスするのだろうか。彼らはその写真で何をするのだろうか。そして、どの機械学習アルゴリズムの訓練に利用されるのだろうか。
すでに「クリアビュー(Clearview)」は、Web上から収集した何百万人もの人々の写真で訓練した顔認識ツールを、米国の司法当局に提供している。しかし、それはほんの始まりに過ぎなかったようだ。今や、基本的なプログラミングスキルを持っている人なら誰でも、顔認識ソフトウェアを開発できるようになった。つまり、セクシャル・ハラスメントや人種差別から、政治的弾圧や宗教的迫害に至るまで、あらゆることに顔認識テクノロジーが悪用される可能性があり、その可能性はかつてないほど高まっているわけだ。
多くの人工知能(AI)研究者らがこうした流れに抵抗し、AIの学習に個人的なデータが使われないようにする手法を開発している。5月3~7日に開催された著名なAIカンファレンスである「表現学習国際学会(ICLR:International Conference on Learning Representations)」では、そうした最新の手法が2つ発表された。
「誰かが、私のものを奪っていくのは嫌なんです。その人が持つべきものじゃないのに」。シカゴ大学の博士課程生であるエミリー・ウェンガーはこう話す。ウェンガーが昨年の夏に仲間とともに開発した「フォークス(Fawkes)」は、AIがWeb上の写真を使って学習するのを妨害する最初期のツールの一つだ。「私たちのほかにも、同時に同じような考えを抱いていた人が大勢いるようです」。
「データ汚染」は新しいものではない。企業が所有している私たちのデータを削除したり、フェイクの事例で意図的にデータセットを汚染したりすることで、企業が機械学習モデルを正確に訓練するのを困難にすることができる。しかし、こうした取り組みが効果をあげるには通常、数百から数千の人が参加する集団行動が必要となる。ウェンガーらの手法が従来の手法を異なるのは、1人の人物の写真に手を加えることだ。
「このテクノロジーは、個人がデータをロックする鍵として使用できます」。オーストラリアのディーキン大学(Deakin University)のダニエル・マー専任講師は説明する。「AI時代の人々のデジタル権を保護する新たな最前線防御なのです」。
丸見えのまま隠れる
フォークスなどのツールが採る基本的なアプローチはどれも同じだ。人間の目では見つけにくいが、AIの判断を誤らせる小さな変 …
- 人気の記事ランキング
-
- These AI Minecraft characters did weirdly human stuff all on their own マイクラ内に「AI文明」、 1000体のエージェントが 仕事、宗教、税制まで作った
- Google’s new Project Astra could be generative AI’s killer app 世界を驚かせたグーグルの「アストラ」、生成AIのキラーアプリとなるか
- Bringing the lofty ideas of pure math down to earth 崇高な理念を現実へ、 物理学者が学び直して感じた 「数学」を学ぶ意義
- We saw a demo of the new AI system powering Anduril’s vision for war オープンAIと手を組んだ 防衛スタートアップが目指す 「戦争のアップデート」