「パパが変なことしたの」
ネット玩具は通報するべき?
玩具等のネット接続機器が収集した子どものデータが漏えいしたり、子どもが人形に虐待を打ち明けたりしたとき、玩具メーカーはどうするべきなのだろうか。 by Mike Orcutt2016.07.22
1998年に会話できるオモチャの元祖ファービーが登場して以来「おしゃべり玩具」は進歩してきた。すでにインターネットに接続して音声認識もできるが、同時に子どものプライバシーやセキュリティに関わる問題も多く指摘されている。
ハッカーも玩具を狙っている。昨年暮れ、香港のデジタル玩具メーカー・ブイテック (Vtech)は、640万人の子どもの個人情報がサイバー犯罪者にアクセス可能な状態だったことを認めた。研究者も、ハッカーがネット接続人形を乗っ取る方法を明らかにした。だがネット接続型玩具の登場で浮かび上がった、プライバシー絡みの課題は以前とは様相が異なる。ネット接続型玩具が集めているのは新しい種類のデータであり、問題が発生したとき、何が危険に晒されるのか完全には明らかでないのだ。
新世代の玩具の好例のひとつはディノだ。プラスチック製の恐竜型玩具は、Wi-Fi経由でクラウドに接続し、音声認識とIBMのワトソンで子どもの言葉を聴いて返事をする。もうひとつはマテルのバービー人形で、音声認識と録音した音声をクラウドにアップロードする機能がある。どちらの仕組みも、アップルのSiriやアマゾンのアレクサといったバーチャルアシスタントの同様である。
米国では、1998年制定の児童オンライン・プライバシー保護法(COPPA)がネット接続型玩具に適用される。だが、COPPAはだいぶ時代遅れの法律だ。連邦取引委員会(FTC)所管の同法の目的は、幼い子どもの個人情報がオンラインに流出することを防ぐことが目的で、保護者に子どものデータを管理する権限を与えている。とはいえ、最近 …
- 人気の記事ランキング
-
- What is vibe coding, exactly? バイブコーディングとは何か? AIに「委ねる」プログラミング新手法
- A Google Gemini model now has a “dial” to adjust how much it reasons 推論モデルは「考えすぎ」、グーグルがGeminiに調整機能
- Meet the researchers testing the “Armageddon” approach to asteroid defense 惑星防衛の最終戦略 科学者たちが探る 「核爆発」研究の舞台裏
- Anthropic can now track the bizarre inner workings of a large language model 大規模言語モデルは内部で 何をやっているのか? 覗いて分かった奇妙な回路