「パパが変なことしたの」
ネット玩具は通報するべき?
玩具等のネット接続機器が収集した子どものデータが漏えいしたり、子どもが人形に虐待を打ち明けたりしたとき、玩具メーカーはどうするべきなのだろうか。 by Mike Orcutt2016.07.22
1998年に会話できるオモチャの元祖ファービーが登場して以来「おしゃべり玩具」は進歩してきた。すでにインターネットに接続して音声認識もできるが、同時に子どものプライバシーやセキュリティに関わる問題も多く指摘されている。
ハッカーも玩具を狙っている。昨年暮れ、香港のデジタル玩具メーカー・ブイテック (Vtech)は、640万人の子どもの個人情報がサイバー犯罪者にアクセス可能な状態だったことを認めた。研究者も、ハッカーがネット接続人形を乗っ取る方法を明らかにした。だがネット接続型玩具の登場で浮かび上がった、プライバシー絡みの課題は以前とは様相が異なる。ネット接続型玩具が集めているのは新しい種類のデータであり、問題が発生したとき、何が危険に晒されるのか完全には明らかでないのだ。
新世代の玩具の好例のひとつはディノだ。プラスチック製の恐竜型玩具は、Wi-Fi経由でクラウドに接続し、音声認識とIBMのワトソンで子どもの言葉を聴いて返事をする。もうひとつはマテルのバービー人形で、音声認識と録音した音声をクラウドにアップロードする機能がある。どちらの仕組みも、アップルのSiriやアマゾンのアレクサといったバーチャルアシスタントの同様である。
米国では、1998年制定の児童オンライン・プライバシー保護法(COPPA)がネット接続型玩具に適用される。だが、COPPAはだいぶ時代遅れの法律だ。連邦取引委員会(FTC)所管の同法の目的は、幼い子どもの個人情報がオンラインに流出することを防ぐことが目的で、保護者に子どものデータを管理する権限を与えている。とはいえ、最近 …
- 人気の記事ランキング
-
- These AI Minecraft characters did weirdly human stuff all on their own マイクラ内に「AI文明」、 1000体のエージェントが 仕事、宗教、税制まで作った
- Google’s new Project Astra could be generative AI’s killer app 世界を驚かせたグーグルの「アストラ」、生成AIのキラーアプリとなるか
- Bringing the lofty ideas of pure math down to earth 崇高な理念を現実へ、 物理学者が学び直して感じた 「数学」を学ぶ意義
- We saw a demo of the new AI system powering Anduril’s vision for war オープンAIと手を組んだ 防衛スタートアップが目指す 「戦争のアップデート」