子どもは、ジュースが入ったコップを逆さにするとどうなるか、すぐに予測できるようになる。一方、ロボットはさっぱり理解できない。
シアトルにあるアレン人工知能研究所 (Ai2) の研究者は、カメラが捉えた物体のもっとも起こりうる振る舞いを、どのように機械が決定するかがわかるコンピューター・プログラムを開発した。コンピューターの判断過程を見ることで、ロボットや他の機械のミスを減らし、初めて走るような環境でも自動運転車が安全に走行できるようになるだろう。
ローズベ・モタジ研究員とその同僚が開発したシステムは、機械学習と3Dモデリングを組み合わせることで、ある場面の物理的性質について判断する。研究者は、3D物理演算エンジンを使い、1万枚以上の場面を、単純化したフォーマットで表示された場面に変換した。3Dレンダリングを作成したのは、アマゾンの「メカニカル・ターク」クラウドソーシングプラットフォームのボランティアだ。
研究者は、画像はもちろん、3D化された場面データも大規模な「深層学習」ニューラルネットワークが稼働するコンピューターに取り込んだ。システムは、徐々に、ある特定の場面と一定の単純な力や動きを関連付けて学習し、システムが初めて見る画像を示すと、動く可能性があるさまざまな力を示せるようになった。
完璧ではないが、多くの場面で、コンピューターは適切に判断した。たとえば、机の上にホッチキスがある画像について、プログラムは、ホッチキスが机の上を滑って、意図せず床に落ちてしまう可能性を示せた。コーヒーテーブルとソファの画像で …