AIポリスの出動で
ネトゲストーカーは
撲滅できるか?
スタートアップ企業のスピリットAIは、オンラインゲームで増大する嫌がらせへ対応するソフトウェアを開発した。被害者と会話し、いたずらと嫌がらせの違いを学習して対処する。 by Simon Parkin2017.05.22
ゲームの世界では、遊び心のあるいたずらと本気の嫌がらせとを区別することは難しい。たいていの場合、ゲーム仲間の悪口を言い合うのは一種の友情の現れだが、見知らぬ人との間ではトラブルになることもある。いたずらと嫌がらせを区別できる能力が、歓迎的な雰囲気のコミュニティを育みたいビデオゲームメーカーにとっては重要なのだ。
スピリットAI(Spirit AI)は、不正行為を検出、介入するシステム「アライ(Ally)」を使って、開発者がゲームプレイヤーをサポートし、いじめ行為を阻止しようと考えている。アライは、プレイヤー同士の発言や態度といったやりとりをゲームやソーシャルプラットフォーム内での行動を通じて監視する。たとえば、あるプレイヤーが別のアバター(ユーザーの分身となるキャラクター)をつきまとったり、報告ツールを悪用したりといった、言葉以外での嫌がらせや挑発行為も検出できる。
アライの開発者の1人であるスピリットAIのルクサンドラ・ダリエスク プロダクト・マネージャーは、「個々のキーワードの一覧に頼るのではなく、自然言語分類と組み合わせて対話のパターンを調べています」と説明する。「嫌がらせ行為はとても微妙な問題なのです」。
アライは嫌がらせの可能性がある態度を検知すると、嫌がらせした疑いがあるプレイヤーと相手とが以前やりとりしたことがあるか確認する。 既存のモデレーション・ソフトウェアと異なるのは、ゲームの運営元に警告を送るだけでなく、コンピューターで制御された仮想キャラクターをゲーム内に送り込み、嫌がら …
- 人気の記事ランキング
-
- What is vibe coding, exactly? バイブコーディングとは何か? AIに「委ねる」プログラミング新手法
- A Google Gemini model now has a “dial” to adjust how much it reasons 推論モデルは「考えすぎ」、グーグルがGeminiに調整機能
- Meet the researchers testing the “Armageddon” approach to asteroid defense 惑星防衛の最終戦略 科学者たちが探る 「核爆発」研究の舞台裏
- Anthropic can now track the bizarre inner workings of a large language model 大規模言語モデルは内部で 何をやっているのか? 覗いて分かった奇妙な回路