「パパが変なことしたの」
ネット玩具は通報するべき?
玩具等のネット接続機器が収集した子どものデータが漏えいしたり、子どもが人形に虐待を打ち明けたりしたとき、玩具メーカーはどうするべきなのだろうか。 by Mike Orcutt2016.07.22
1998年に会話できるオモチャの元祖ファービーが登場して以来「おしゃべり玩具」は進歩してきた。すでにインターネットに接続して音声認識もできるが、同時に子どものプライバシーやセキュリティに関わる問題も多く指摘されている。
ハッカーも玩具を狙っている。昨年暮れ、香港のデジタル玩具メーカー・ブイテック (Vtech)は、640万人の子どもの個人情報がサイバー犯罪者にアクセス可能な状態だったことを認めた。研究者も、ハッカーがネット接続人形を乗っ取る方法を明らかにした。だがネット接続型玩具の登場で浮かび上がった、プライバシー絡みの課題は以前とは様相が異なる。ネット接続型玩具が集めているのは新しい種類のデータであり、問題が発生したとき、何が危険に晒されるのか完全には明らかでないのだ。
新世代の玩具の好例のひとつはディノだ。プラスチック製の恐竜型玩具は、Wi-Fi経由でクラウドに接続し、音声認識とIBMのワトソンで子どもの言葉を聴いて返事をする。もうひとつはマテルのバービー人形で、音声認識と録音した音声をクラウドにアップロードする機能がある。どちらの仕組みも、アップルのSiriやアマゾンのアレクサといったバーチャルアシスタントの同様である。
米国では、1998年制定の児童オンライン・プライバシー保護法(COPPA)がネット接続型玩具に適用される。だが、COPPAはだいぶ時代遅れの法律だ。連邦取引委員会(FTC)所管の同法の目的は、幼い子どもの個人情報がオンラインに流出することを防ぐことが目的で、保護者に子どものデータを管理する権限を与えている。とはいえ、最近 …
- 人気の記事ランキング
-
- What’s on the table at this year’s UN climate conference トランプ再選ショック、開幕したCOP29の議論の行方は?
- Why AI could eat quantum computing’s lunch AIの急速な進歩は 量子コンピューターを 不要にするか
- Google DeepMind has a new way to look inside an AI’s “mind” AIの「頭の中」で何が起きているのか? ディープマインドが新ツール
- Google DeepMind has a new way to look inside an AI’s “mind” AIの「頭の中」で何が起きているのか? ディープマインドが新ツール