人工知能(AI)によってアンダーグラウンドのサイバー犯罪社会の生産性が大幅に向上している。
生成AIが提供する新たな高性能ツールキットによって、悪意ある行為者はこれまでよりもはるかに効率的かつ国際的に活動できるようになる。そう語るのは、セキュリティ企業であるトレンドマイクロで脅威調査を専門とする上級研究員のヴィンチェンツォ・チャンカグリーニだ。
犯罪者の多くは、「どこか暗い隠れ家に住んで、何かを企んでいるわけではありません」とチャンカグリーニは語る。「犯罪者の多くは通常の生活を営む普通の人々で、生産性も必要としています」。
昨年、オープンソースの大規模言語モデルに基づいて構築され、マルウェア関連データで訓練された生成AIツール「ワームGPT(WormGPT)」が登場し、消えた。ワームGPTは、ハッカーを支援するために作られたもので、倫理的な制約や制限は一切存在しない。しかし、昨年の夏、ワームGPTの開発者は、メディアからの注目の大きさを理由に、プロジェクトを閉鎖すると発表した。以来、サイバー犯罪者は独自のAIモデルを開発することをほぼやめている。代わりに、確実に機能する既存のツールを利用した巧妙な手口を選ぶようになっている。
犯罪者は楽な生活と手っ取り早い儲けを求めているからだ、とチャンカグリーニ研究員は説明する。どんな新しいテクノロジーでも、現在使っているものよりも優れていて、より高い報酬をもたらすものでなければ、その導入にともなう未知のリスク(たとえば、捕まるリスクが高くなるなど)に見合うだけの価値はない。
ここでは、犯罪者によるAIの現在のおもな利用法を5つ紹介しよう。
1. フィッシング
チューリッヒ工科大学のAIセキュリティ研究者であるミスラフ・バルノヴィッチによると、現在、犯罪者の間で生成AIが最も多く利用されているのが「フィッシング」だ。フィッシングでは人々を騙して機密情報を漏らさせ、悪意ある目的に利用しようとする。チャットGPT(ChatGPT)の登場でフィッシングメールの数が急増していることが研究によって明らかになっている。
チャンカグリーニ研究員によると、「ゴーメイル・プロ(GoMail Pro)」などのスパム生成サービスにはチャットGPTが統合されており、犯罪者は被害者に送信するメッセージを翻訳したり、改良したりできる。オープンAI(OpenAI)のポリシーでは、製品を違法行為に使用することを禁止しているが、実際に取り締まるのは難しい。なぜなら、無害に思えるプロンプト(指示テキスト)の多くも悪意ある目的に使用される可能性があるからだ、とチャンカグリーニ研究員は説明している。
オープンAIによると、人間のレビュー担当者と自動化システムを組み合わせて同社のAIモデルの悪用を特定し、取り締まっており、ユーザーが同社のポリシーに違反した場合は警告や一時停止、禁止など措置を取っているという。
「当社は製品の安全性に真剣に取り組んでおり、ユーザーが当社製品をどのように使用しているかに基づいて、安全対策を継続的に改善しています」(オープンAI広報)。そして、「当社はモデルの有用性とタスクのパフォーマンスを維持しながら、モデルをより安全で、悪用や脱獄(ジェイルブレイク)に対して堅牢性を高めるために絶えず努力しています」と付け加えた。
オープンAIは2月のレポートで、特定の国家とつながる、悪意ある行為者のアカウント5つを停止したことを明らかにした。
以前は、少額の前払い金と引き換えに大金を約束する、いわゆる「ナイジェリア王子を名乗る詐欺メール」では、メッセージの英語が下手で文法ミスだらけだったため、比較的簡単に見破ることができたとチャンカグリーニ研究員は言う。言語モデルによって、詐欺師はネイティブスピーカーが書いたようなメッセージを作成できるようになった。
「以前は、英語を話す人は、非英語圏(の犯罪者)から比較的守られていました。犯罪者か …