アンドリュー・ワイナート研究員と同僚はとても落胆していた。ハリケーン・マリアがプエルトリコを襲った後、マサチューセッツ工科大学(MIT)リンカーン研究所の研究者たちは、連邦緊急事態管理庁(FEMA)が被害を判断する助けになろうと必死に取り組んでいた。そのとき、彼らの手元には完璧なデータセットがあった。災害直後に民間空中哨戒部隊(CAP)が撮影した被災地域の8万枚の航空写真だ。
だが、1つ問題があった。手作業で分類するには画像が多すぎるのに、商用の画像認識システムは重要なものは何一つ識別できなかったのだ。特にひどいのは、画像分類の代表的存在であるイメージネット(ImageNet)が、大規模な洪水地域の画像をトイレの画像だと分類するよう勧めてきたという例だ。
「驚くほどの情報量なのに、どれも利用できなかったのです」とワイナート研究員はいう。
研究者たちはすぐに、この問題が今回に限ったものではないことに気づいた。どのような大規模災害の状況においても、FEMAなどの緊急時対応要員チームは、到着する前に現場の詳しい状況を確認しておくことで、時間と資源を大幅に節約できる。だが、ほとんどのコンピュータービジョン・システムは、決まりきった日常の画像を用いて訓練されているため、被災地帯で関連のある細部を確実に拾い出すことができないのだ。
そのことが分かったからには、チームは緊急対応状況に特有の写真と映像を新たに集めて注釈を付けざるを得なかった。8月末にチームは論 …