「実在しない顔」は実在しない? AIが作った架空の顔を巻き戻す
深層学習モデルは内部で何が起こっているのかが明らかにならない「ブラック・ボックス」であり、情報は漏れない。こうした一般的な考え方に疑問を投げかける研究成果が発表されている。 by Will Douglas Heaven2021.10.19
「この人は実在していません(This Person Does Not Exist)」というWebサイトを読み込むと、人の顔が表示される。実在する人の顔に限りなく近いが、まったくの架空の顔だ。ページをリロードするたびに、裏で作動しているニューラル・ネットワークが、次から次へと新しい架空の顔を表示する。人工知能(AI)が作成する無限に続く架空の顔は、GAN(敵対的生成ネットワーク)によって生成されているものだ。GANは、訓練データから本物そっくりの偽のサンプルを作成するように学習する、AIの一種である。
こうしたAIによって作成された顔は、CGを使った映画や広告に使われ始めている。だが、実は見た目ほど唯一無二な顔ではないのかもしれない。フランス・カーン大学のライアン・ウェブスターらが発表した論文『この人は(おそらく)実在しています(This Person (Probably) Exists)』は、GANにより生成された架空の顔の多くには、実在する人の顔を使った訓練データとの間に著しい類似点があると指摘している。架空の顔はGANの訓練に用いられた実在する顔を事実上明らかにでき、訓練データとして使われた個人の身元の公開を可能にしてしまう。AIモデルは一般に内部で何が起こっているか分からない「ブラック・ボックス」だとされるが、こうした考え方に疑問を投げかける最新の研究である。
ウェブスターら研究チームは、訓練データに隠されている個人の正体を明らかにするために、「メンバーシップ攻撃(Membership attack)」を使った。メンバーシップ攻撃は、あるデータがAIモデルの訓練に使われたかどうかを判別するのに使える手法だ。この攻撃では一般的に、あるAIモデルを訓練したデータ、つまりすでに数千回も目にしたデータと初見のデータとの間の、微妙な違いをうまく利用する。例えば、あるモデルは以前見たことがない画像を正確に識別できるが、訓練に使われた画像と比べるとわずかに信頼度が落ちる。2つ目のモデルは、最初のモデルの振る舞いからヒントを得て、写真などの特定のデータが訓練データセットに含まれているか予測することを学習できる。
このような攻撃は、深刻な情報漏れにつながる恐れがある。例えば、ある人の医療データが疾病と関係するモデルの訓練に使われていたことが …
- 人気の記事ランキング
-
- What’s on the table at this year’s UN climate conference トランプ再選ショック、開幕したCOP29の議論の行方は?
- Why AI could eat quantum computing’s lunch AIの急速な進歩は 量子コンピューターを 不要にするか
- Google DeepMind has a new way to look inside an AI’s “mind” AIの「頭の中」で何が起きているのか? ディープマインドが新ツール
- Google DeepMind has a new way to look inside an AI’s “mind” AIの「頭の中」で何が起きているのか? ディープマインドが新ツール