メタ(Meta)は、人工知能(AI )が生成したオーディオ・クリップに、いわゆる「透かし(ウォーターマーク)」となる隠し信号を埋め込めるシステムを開発した。ネット上でのAI生成コンテンツの検出に活用できる可能性がある。
オーディオシール(AudioSeal)と呼ばれるこのツールは、たとえば1時間のポッドキャストの中から、AIによって生成された可能性のある部分をピンポイントで特定できる初のツールである。メタの研究科学者であるハディ・エルサハールによると、音声クローニング・ツールを使った偽情報や詐欺の増加といった問題への対処に役立つという。悪意のある者が生成AIを使ってジョー・バイデン大統領のディープフェイク音声を作成したり、詐欺師がディープフェイクを使用して被害者を脅迫したりしている。透かしは理論上、ソーシャルメディア企業が好ましくないコンテンツを見つけて削除する際に役立つ。
ただ、いくつか気をつける点がある。メタは、自社のツールによって作成されたAI生成音声に透かしを入れる計画は現時点ではないと述べている。音声データへの透かしの導入はいまだ狭い範囲にとどまっており、業界で合意に至った1つの標準があるわけでもない。また、AI生成コンテンツの透かしは、削除や偽造などにより簡単に改ざんされやすい。
「ツールを有効活用するには、素早い検出のほか、音声ファイルのどの部分がAIで生成されているかを特定できる能力が肝心になるでしょう」とエルサハールは話す。彼によると、開発チームは90~100%の精度で透かしを検出できたという。音声に透かしを入れるこれまでの試みと比べて、遥かに良好な結果だ。
AudioSealはGitHub で無料で入手できる。誰でもダウンロードでき、AIが生成した音声クリップに透かしを入れることが可能だ。最終的には、音声を生成するAIモデルにも導入し、モデルから作成されたあらゆるスピーチに自動的に透かしが入るようになる可能性もある。AudioSealを開発した研究者たちは、7月にオーストリアのウィーンで開催される「機械学習に関する国際会議(ICML)」で成果を発表する予定だ。
AudioSealは、2つのニューラル・ネットワークを使って生み出される。1つのネットワークからは、音声トラックに埋め込むことのできる透かし信号が生成される。これらの信号は人間の耳には聞こえないが、もう1つのネットワークを使って素早く捉えることができる。現行の技術では、長時間の音声からAIが生成した部分を特定しようと思ったら、秒単位で全体をくまなくチェックし、透かしの有無を確認しなくてはならない。これは時間も手間もかかるプロセスであり、膨大な量の音声を抱えるソーシャルメディア・プラットフォームで行うのは実際的ではない。
AudioSealの仕組みはそれとは異なり、音声トラック全体の各セクションに一貫して透かしを埋め込む。そうすることで、透かしを「局在」させることが可能になる。つまり、音声が切り取られたり編集されたりしても、透かしを検出することができるのだ。
シカゴ大学のベン・ジャオ教授(コンピューター科学)は「そうした能力とほぼ完璧な検出精度とが相まって、AudioSealは自分が出会ったどの音声透かしシステムよりも優れたものになっています」と話す。
「透かし技術を向上させる研究を進めるのは有意義なことです。映像コンテンツよりも印を付けたり検出したりするのがしばしば難しい、音声のようなメディアではなおさらです」。非営利団体パートナーシップ・オン・AI(Partnership on AI)でAI・メディアインテグリティ(AI and Media Integrity)プログラムの責任者を務めるクレア・レイボヴィッチはそう語る。
だが、このような音声透かしを大規模に導入する前に対処すべき、大きな欠陥が存在している。メタの研究チームは、透かしを消してしまう何種類かの攻撃をテストした結果、透かしのアルゴリズムに関する情報が公開されているほど脆弱性が高まることを発見した。また、メタのシステムでは、音声ファイルへの透かし導入は自主的な取り組みということになってしまう。
そうした事情からツールに根本的な制限が課される、とジャオ教授は言う。「攻撃側が(透かし)検出器を利用できる場合には、とても脆弱になってしまいます」。つまり、音声コンテンツがAIで生成されたものかどうかはメタにしか検証できないことになる。
レイボヴィッチ責任者は、テック分野では透かしは一般的な解決策とされているが、透かしが入ることで、目や耳から入ってくる情報の信頼性が向上するかどうかはまだ分からないと言う。その理由の1つとして、透かし自体が悪用されやすいという事情がある。
「果たして、敵対的な削除や偽造に対する堅牢性を備えた透かしが存在しうるのか、私は懐疑的です」とレイボヴィッチ責任者は付け加えた。