人工知能(AI)モデルの人間の行動様式を模倣する能力が向上するにつれ、本物の人間のインターネットユーザーと、人間を模倣した高度なシステムとを区別するのがますます難しくなっている。
このようなシステムが偽情報の拡散や詐欺のような不正な目的のために使用された場合、これは深刻な問題となり、インターネット上で遭遇するものを信用することがユーザーにとってより一層難しくなる。
オープンAI(OpenAI)、マイクロソフト、マサチューセッツ工科大学(MIT)、ハーバード大学などの32人の研究者から成るチームが、その解決策となる可能性のある仕組みを開発した。それは、所持者の身元情報を明かすことなく、所持者が本物の人間であることを証明する「パーソンフッド・クレデンシャル(Personhood Credentials)」と呼ばれる認証コンセプトだ。同チームは、8月26日にアーカイブ(arXiv)に投稿した査読前論文で、このアイデアを検討した。
パーソンフッド・クレデンシャルは、AIシステムにはまだできない2つのこと、すなわち、最先端の暗号システムを迂回することと、オフラインの現実世界で人間として認められることによって機能する。
パーソンフッド・クレデンシャルを要求するには、ユーザーは政府機関やその他の信頼できる組織など、いくつかの発行者のいずれかに物理的に出向いて、パスポートなどの自分が本物の人間であるという証拠、あるいは生体認証データを提出する必要がある。承認を受けると、現在ユーザーがスマホのウォレット・アプリにクレジットカードやデビットカードを保存できるのと同じように、デバイスに保存できる単一のクレデンシャルを取得できる。
このクレデンシャルをオンラインで使用する場合、ユーザーはクレデンシャルをサードパーティのデジタルサービス・プロバイダーに提示することになる。プロバイダーは、ゼロ知識証明(不必要な情報を開示することなく、保持者がパーソンフッド・クレデンシャルを所有していることを確認する暗号プロトコル)を使用してクレデンシャルを検証する。
検証されていない人間をプラットフォーム上で除外できるようになれば、たとえば、ソーシャルメディア上で確実に人間によって投稿されたもの以外は表示しないようにしたり、ティンダー(Tinder)でマッチした相手でパーソンフッド・クレデンシャルを持たない人を除外したりできるようになる。
本研究の著者らは、AIの欺瞞的使用が手に負えないほど増加するの …