人工知能(AI)は画像に含まれる物体を認識するのに優れているが、その能力を台無しにさせるのもまた容易だ。人間の目には見えない静的ノイズの中に線や塗りをちょっと加えるだけで、画像認識システムを困らせることができてしまう。ときにはそれが致命的な影響を与えることもある。たとえば、一時停止の標識にステッカーを貼り付けことで、自動運転自動車に「制限時速70キロ」と誤認させられる。ステッカーを道路に貼り付ければ、テスラの自動運転自動車を対向車線へ誘導もできる(同じ技術で監視国家から人々の保護もできるので、いい面も悪い面もある)。
これらは「敵対的サンプル(adversarial examples)」と呼ばれ、研究者らは現在、AIシステムを敵対的サンプルから守る方法を開発しようと争って研究を重ねている。だが、この分野における最初期からの研究者の1人であるイアン・グッドフェロー博士と、グーグル・ブレイン(Google Brain)、プリンストン大学の研究者グループは昨年のある論文で、最近の研究成果はあまりに理論に偏っており、要点を外していると主張した
…
- こちらは会員限定の記事です。
メールアドレスの登録で続きを読めます。
-
- 有料会員にはメリットがいっぱい!
-
- 毎月120本以上更新されるオリジナル記事で、人工知能から遺伝子療法まで、先端テクノロジーの最新動向がわかる。
- オリジナル記事をテーマ別に再構成したPDFファイル「eムック」を毎月配信。
重要テーマが押さえられる。
- 各分野のキーパーソンを招いたトークイベント、関連セミナーに優待価格でご招待。
- 人気の記事ランキング
-
-
AI reasoning models can cheat to win chess games
最新AIモデル、勝つためなら手段選ばず チェス対局で明らかに
-
Your boss is watching
機械化する人間たち——
「見えない目」が変える
職場の風景
-
OpenAI just released GPT-4.5 and says it is its biggest and best chat model yet
限界説に挑むオープンAI、最後の非推論モデル「GPT-4.5」
-
Your boss is watching
機械化する人間たち——
「見えない目」が変える
職場の風景
▼Promotion