アップルは、45年の歴史の中でいくつかの象徴的な広告を誇ってきた。有名な1984年のマック(Mac)のスーパーボウル広告や、果敢な2019年の広告キャンペーンでは「あなたのアイフォーン(iPhone)で起こることは、あなたのアイフォーンから出ない(What happens on your iPhone stays on your iPhone)」とも約束した。
8月5日にアップルは、アイフォーン上で児童性的虐待コンテンツ(CSAM:Child Sexual Abuse Meterial)を検出する新しいテクノロジーを発表した。この発表によって突然、あなたのアイフォーンの中にあるものは、もはや必ずしもそこから出ないとは限らなくなくなったようだ。物議を醸しているこの新機能は、プライバシー、監視、そしてテクノロジーを利用した犯罪に関する懸念の核心を突くものだ。
アップルは、今回の新機能はプライバシーを保護しながら、同時に児童虐待を防止するとしている。しかし、批評家にとって最大の問題は、このテクノロジーが今日何をするかではなく、明日何になり得るかということだ。
アップルの新たなスキャン・テクノロジーは、世界中でさらに広範な監視を可能にするのだろうか? 各国政府は、それぞれの国でアイフォーン上のあらゆる種類の禁止コンテンツをスキャン(走査・検査)するようアップルに要求し始めるのだろうか?
アップルによれば、「ニューラルハッシュ(NeuralHash)」と呼ばれるこの新たな検出ツールは、アイフォーンに保存されている児童虐待の画像を復号せずに特定できるという。また、エラーの可能性を減らすために複数のチェックを実施してから、画像を全米行方不明・被搾取児童センター (National Center for Missing and Exploited Children:NCMEC)に、その後、司法当局に渡すという(例えばスキャナーは1枚の画像ではなく、複数の画像を検出する必要がある)。この機能は、今年中に米国で展開される予定だ。
https://twitter.com/SenBlumenthal/status/1423397902672662529
グーグル、マイクロソフト、ドロップボックスなどの大手クラウドサービスでは、すでに自社のサーバーに保存されているデータをスキャンして、児童虐待に関する情報を検出しているため、取り組み自体はまったく新しいものではない。違いは、アップルによるスキャンの一部が、アイフォーン本体で実行されることであり、アップルはこれがプライバシーを保護する新テクノロジーの決定的な特徴であると主張している。
8月6日に実施されたジャーナリストへの説明会で、アップルは、他のクラウドサービスでは、ユーザーがアップロードしたものをほぼすべてスキャンするのに対し、アップルのデバイス上でのスキャンは、読めないハッシュのみをアップルに送信することになっていると述べた。ハッシュとは、アップルではなく、NCMECが管理するデータベースに基づいた、児童虐待を描写した画像を識別するコードだ。
アップルはまた、この機能はアイクラウド(iCloud)に写真をアップロードする人にのみ適用されると説明している(アイフォーンでは自動アップロードが初期設定になっているが、無効にすることもできる)。現在、アイクラウドのアカウントは暗号化されていないため、司法当局はすでにそのアカウントを覗き見ることができる。
では、なぜアップルは他の大手テック企業と同じように、画像が携帯電話に保存されているときではなく、クラウドにアップロードされたときに画像をスキャンしないのだろうか?既存のテクノロジーをすぐに利用できるのに、なぜ新たに複雑なテクノロジーを構築するのだろうか?
アップルの次の一手
アップルが現在何をしているのか、そして次に何が起こるのか …