深層学習で解決されていない最大の欠陥の1つに、いわゆる敵対的攻撃(adversarial attack)に対する脆弱性がある。人間の目には無作為に見えたり、気付かなかったりする攪乱要素を人工知能(AI)システムの入力データに加えると、完全に機能不全にさせることができるというものだ。例えば、「止まれ」の標識にある意図を持ってステッカーを貼ると、時速45マイル(約72キロメートル)の標識を見ているように自動運転車を勘違いさせられる。道路上にステッカーを貼れば、テスラ(Tesla)の自動運転車を混乱させて対向車線に誘導することも可能だ。
敵対的攻撃に関する研究の大部分では画像認識システムに焦点が当てられているが、深層学習をベースとする画像再構築システムにも同じような脆弱性がある。X線データやCTスキャン、MRIスキャンなどの医療用画像を再構築するのに、画像再構築システムを利用することの多い医療分野では特に問題となる。標的を絞った敵対的攻撃により、そうしたシステムが、実際には腫瘍のない箇所に腫瘍があるかのようにスキャン画像を再構築してしまう可能性があるのだ。
イリノイ大学アーバナ・シャンペーン校のボー・リー 教授(2020年のMITテクノロジーレビューの「35歳未満のイノベーター」に選出された1人)と同僚らが、安全を重視すべきシナリオにおいて、深層学習システムのミスを予防し、信頼性を向上させるような新たな訓練法を提案している。それは、画像再構築を担うニューラル・ネットワークを、敵対的サンプル生成する別のニューラル・ネットワークと対峙させるというもので、敵対的生成ネットワーク(GAN)アルゴリズムと似た手法だ。敵対的なネットワークは、再構築ネットワークをだまそうと、元になるデータ、すなわち「グラウンドトゥルース」の一部ではないものを繰り返し生成する。これに対し、再構築ネットワークは自己を微調整し続けてだまされるのを防ぎ、現実世界でも安全に展開できるようにする。
研究チームが、この手法で訓練したニューラル・ネットワークを2つの有名な画像データセットで検証してみると、別の方法で「ミスを犯しにくく」された他のニューラル・ネットワークよりも、グラウンドトゥルースをうまく再構築できた。しかしながらこの結果は完璧なものではなく、さらなる改良を要することも示された。この研究は、7月14日から始まる「機械学習に関する国際会議(ICML)」で発表される。
- 人気の記事ランキング
-
- How ChatGPT search paves the way for AI agents 脱チャットGPTへ、オープンAIが強化するプラットフォーム戦略
- Promotion Innovators Under 35 Japan Summit 2024 in Nihonbashi 2024年のイノベーターが集結「U35 Summit」参加者募集中
- The US is about to make a sharp turn on climate policy トランプ再選、気候対策に打撃 今後予測される影響は?
- OpenAI brings a new web search tool to ChatGPT チャットGPTに生成AI検索、グーグルの牙城崩せるか
- AI will add to the e-waste problem. Here’s what we can do about it. 30年までに最大500万トン、生成AIブームで大量の電子廃棄物
- カーレン・ハオ [Karen Hao]米国版 AI担当記者
- MITテクノロジーレビューの人工知能(AI)担当記者。特に、AIの倫理と社会的影響、社会貢献活動への応用といった領域についてカバーしています。AIに関する最新のニュースと研究内容を厳選して紹介する米国版ニュースレター「アルゴリズム(Algorithm)」の執筆も担当。グーグルX(Google X)からスピンアウトしたスタートアップ企業でのアプリケーション・エンジニア、クオーツ(Quartz)での記者/データ・サイエンティストの経験を経て、MITテクノロジーレビューに入社しました。