グーグルも警戒、「AIをだます」敵対的機械学習に備えよ
機械学習システムの普及によって、「敵対的機械学習」と呼ばれる新たなセキュリティリスクが浮上している。グーグルとの共同研究にも取り組むカリフォルニア大学バークレー校のセキュリティ専門家ドーン・ソング教授は対処を訴えている。 by Will Knight2019.04.04
もし人工知能(AI)が悪意を持ったハッカーに翻弄されるのであれば、AIは何の変革ももたらさないだろう。
カリフォルニア大学バークレー校でAIと機械学習に関するセキュリティリスクを研究するドーン・ソング教授は、そのように警告した。
サンフランシスコで開催されたMITテクノロジーレビュー主催カンファレンス「EmTechデジタル」で講演したソング教授は、AI分野で「敵対的機械学習」と呼ばれる、機械学習システムを走査して操作する新たな技術が、AIを活用しようと考えているすべての者にとって大問題になり得ると警鐘を鳴らした。
敵対的機械学習は、機械学習を基盤とするあらゆるシステムの攻撃に使われる可能性があるというのだ。
「これは大問題です。私たちは1つになって、この問題に対処しなければなりません」とソング教授は聴衆に呼びかけた。
敵対的機械学習とは、実験的に情報を入力して、すでに学習された情報を表出させたり、システムが誤作動を起こすような歪めた情報を入力したりすることだ。たとえば、コンピューター・ビジョンのアルゴリズムに大量の画像を入力して、アルゴリズムをリバースエンジニアリングし、誤ったものも含めた特定の種類の情報 …
- 人気の記事ランキング
-
- America’s new dietary guidelines ignore decades of scientific research 「ステーキとバターを食べよ」米国の新食事ガイドラインが波紋
- This company is developing gene therapies for muscle growth, erectile dysfunction, and “radical longevity” まず筋肉増強、勃起不全・薄毛も——「長寿」治療謳う企業が試験
- Text-to-image AI models can be tricked into generating disturbing images AIモデル、「脱獄プロンプト」で不適切な画像生成の新手法
- Meet the man hunting the spies in your smartphone 20年間、独裁国家を追った研究者は今、米国を監視している