KADOKAWA Technology Review
×
【冬割】 年間購読料20%オフキャンペーン実施中!

ニューズラインエマージング・テクノロジーの最新情報をお届け。

ステッカーで対向車線に誘導、テスラの自動運転機能に脆弱性
The Tesla Model S used by the Tencent Keen Security Labs researchers.
Hackers trick a Tesla into veering into the wrong lane

ステッカーで対向車線に誘導、テスラの自動運転機能に脆弱性

テスラ・モデルS(Tesla model S)の各種システムを操作し、混乱させる厄介な方法がハッカーによって公表された。もっとも衝撃的な方法は、道路に一連の小さなステッカーを置くことで、クルマを反対車線に誘導することだ。

これは「敵対的攻撃(adversarial attack)」の一例で、特別に細工した入力情報を与えることで、機械学習モデルを操る方法の1つである。敵対的攻撃は、機械学習が普及するにつれてますます一般的になってきており、特にネットワーク・セキュリティなどの分野で顕著だ。

テスラのオートパイロット機能は、コンピューター・ビジョンを利用して車線を認識しており、攻撃に対して脆弱だ。言い換えると、テスラのシステムはニューラル・ネットワークで分析されたカメラのデータを利用して、車線内の中央に車を保つ方法を指示している。

自動運転システムに対する敵対的攻撃はこれが始めてではない。カリフォルニア大学バークレー校のドーン・ソング教授は、一見問題のないステッカーを使用して自動運転自動車を欺き、一時停止標識を制限時速72キロメートルだと認識させたことがある。3月に発表された別の研究では、医療用の機械学習システムが同様の方法で欺かれ、誤った診断を示す可能性を指摘されている。

中国の巨大テック企業であるテンセント(Tencent)のキーン・セキュリティ・ラボ(Keen Security Lab)の研究者は、同様の攻撃を利用して自動車の自動ワイパーを停止させたほか、別の手法を使ってハンドルの乗っ取りにも成功している。テスラの広報担当はフォーブス誌に対して、ワイパーやハンドルの脆弱性に関しては直近のソフトウェア・アップデートで修正されていると説明している。また「運転者はいつでも簡単にオートパイロットを無効にできる」ため、敵対的攻撃は非現実的であるとも述べている。

カーレン・ハオ [Karen Hao] 2019.04.04, 9:27
日本発「世界を変える」U35イノベーター

MITテクノロジーレビューが20年以上にわたって開催しているグローバル・アワード「Innovators Under 35 」。2024年受賞者決定!授賞式を11/20に開催します。チケット販売中。 世界的な課題解決に取り組み、向こう数十年間の未来を形作る若きイノベーターの発掘を目的とするアワードの日本版の最新情報を随時発信中。

特集ページへ
MITテクノロジーレビューは有料会員制サイトです
有料会員になると、毎月150本以上更新されるオリジナル記事が読み放題!
【冬割】実施中! 年間購読料20%オフ!
フォローしてください重要なテクノロジーとイノベーションのニュースをSNSやメールで受け取る