「データ信託」はプライバシーをどのようにして保護するのか
企業のデータ収集という複雑な世界を理解し、データ提供の可否を個人レベルで決定するのは難しい。ユーザーの持つデータやデータの権利を管理する「データ信託(データトラスト)」というアイデアがここ数年で急速に支持を集めている。 by Anouk Ruhaak2021.03.09
企業に自分のデータの提供を求められたら、そのまま素直に「はい」のボタンをクリックしていないだろうか? そうしているのはあなただけではない。何らかのサービスを利用するたびに、長々とした利用規約を読んだり、すべてのリスクを検討したりするなど到底無理な話だ。水を飲むたびに、その安全性を自分で評価しろというようなものだ。だから多くの人は、悪いことが起こらないように願いながら「はい」をクリックする。
だが、たとえしっかり検討したとしても、自分の預かり知らないところで「はい」をクリックした決断が他の人々に影響を与えることがある。23アンドミー(23andMe)のような遺伝子検査会社にDNAを提供すると、そのデータから自分の家族の遺伝的構造について多くの情報が明らかになってしまう。ソーシャルメディアで共有した情報によって、友人の保険料に影響を与える可能性もある。自分の収入証明書が、隣人のローン申請にまで影響するかもしれない。ある情報を共有するかどうかを、自分1人だけで決定してしまって良いのだろうか?
もし、この「はい」をクリックする同意モデルが、自分や周囲の人、その他の人たちに影響をおよぼすかどうかが分からないのであれば、他にどのような手段があるのだろうか。データ収集に関する規制は、政治家に任せるべきか? それも1つの手だろう。世界中の政府は、EUの一般データ保護規則(GDPR)のようなデータ保護制度を整え、データ収集前に利用者の同意を求めるよう企業に義務づけている。さらに進んで、最も有害なデータの使用を禁止することもできる。だが、データを収集したり使用したりする方法は山ほどある。広範な規制だけで十分だと考えるのは難しい。
労働組合が労働者の権利を擁護するように、個人のデータの権利を擁護する手段があるとしたらどうだろうか。 データに関して、我々の代わりに賢い決定を下してくれる医者のような存在はないものだろうか。それを実現する一つの案として、「データ信託(データトラスト)」という考え方がある。
データ信託は比較的新しい概念だが、急速に支持を得ている。2017年、英国政府は人工知能(AI)の訓練に大量のデータセットを使えるようにするために、データ信託という考え方を初めて提案した。202 …
- 人気の記事ランキング
-
- These AI Minecraft characters did weirdly human stuff all on their own マイクラ内に「AI文明」、 1000体のエージェントが 仕事、宗教、税制まで作った
- Google’s new Project Astra could be generative AI’s killer app 世界を驚かせたグーグルの「アストラ」、生成AIのキラーアプリとなるか
- Bringing the lofty ideas of pure math down to earth 崇高な理念を現実へ、 物理学者が学び直して感じた 「数学」を学ぶ意義
- We saw a demo of the new AI system powering Anduril’s vision for war オープンAIと手を組んだ 防衛スタートアップが目指す 「戦争のアップデート」