米国海軍の軍艦で起こる火災消火のために設計された人型ロボット、オクタビア(Octavia)は、とても表情豊かだ。
電源が入っていないと、人と同じ大きさの人形のようだ。滑らかな白い顔の鼻はあぐらをかいている。プラスチックでできた眉は、転覆した2艘のカヌーのようにおでこに均等に配置されている。
だが電源を入れると、まぶたがぱっと開いて感情を表現し始める。「うなずき」や、驚きを分かりやすく表現する「目を大きく見開いて両方の眉を上げる」といった「理解」を示す仕草のほかに、人の困惑した表情を真似た「片方に首をかしげ口をとがらせる」といった振る舞いもできる。コミカルな表現もできる。ロボットによる人間への復讐を密かに計画しているかのように、金属の指を体の前でトントンと打ち合わせながら、片方の眉を弓なりにして反対側の目を細めるのだ。
だが、豊かな表情がオクタビアの最大の特徴ではない。驚くのは、人とやり取りするときのオクタビアの表情が正しい返答になっている点だ。たとえば、部隊の兵士たちを見るとオクタビアは嬉しそうに、操縦している兵士から思いもよらない命令を受けると驚いたように、理解できないことを言われると困惑したように、といった具合だ。
オクタビアは、身のまわりにある膨大な情報を処理して、適切な感情を表現できる。視覚や聴覚、触覚もある。視覚機能は、目の部分に組み込まれた2台のカメラで、周囲の画像情報を蓄積し、顔の特徴、顔色や服装などを分析する。聴覚機能は、4つのマイクとスフィンクス(Sphinx)と呼ばれる音声認識プログラムを使って、人の声を探知する。触覚機能は、指を使って物体をさまざまな体勢や形状にする学習により、25種類の物体を特定する。まとめると、こういった認識能力によって「擬人化した認知アーキテクチャ」が作られる。海軍人工知能応用研究センターによれば、このアーキテクチャによってオクタビアが「人のように考えて行動」できるという。
非常に興味深いが、必ずしも衝撃的ではない。人のように振る舞う機械に慣れてしまっているからだ。古くは18世紀、機械人形がフランスで発明され、踊り、時を刻み、ドラムやダルシマー(打弦楽器の一種)、ピアノを演奏した。筆者が子供だった1980年代、おしっこをする人形が売り出され、どういうわけか大きく宣伝され、どうしても欲しかったものだ。
まるで人のような考え方をする機械にも慣れてしまっている。長い間待ち望まれてきた人間レベルの認識力は、コンピューターによって実現され、さらに進化している。チェスの名人を負かすことや、正確な韻を踏んだソネット(14行詩)を作るなどが良い例だろう。
だが、目を見開いて怖がる表情、プラスチックの眉をよせて作る困惑の表情など、オクタビアの行動は、1つ先を行っているようだ。こういった表情は、オクタビアが人のように考えることに加え、人間同様の感情があるのではないかと錯覚させる。
しかし、実際はそうではない。海軍人工知能応用研究センターの知的システム部門を率いるグレゴリー・トラフトン部長によれば、オクタビアの感情表現は、自分の行動について考えていることを示すように設計され、人がオクタビアと交流しやすくしているに過ぎないという。だが、いつも考えと感情に間に線を引けるわけではない。トラフトン部長が認めているように、「人の考えと感情は異なるのは明らかですが、お互い影響し合って」いるのだ。そして、もしトラフトン部長のいうように「感情が認識に影響を与え、認識が感情に影響を与える」とするならば、オクタビアの考える能力、論じる能力、論点を見抜く能力が、知性を宿す機械の出現についての大きな疑問の答えになるだろう。どの時点で、機械が何かを感じるのに十分賢くなったといえるのか。そして、どうやってそれを知ることができるのだろうか。
感情の擬人化
オクタビアには心の原理がプログラムされている。つまり身近な兵士の心の状態を予測できるのだ。オクタビアは、人の信念と意図が反目する可能性を理解している。予想と異なる命令を受けたとき、オクタビアはシミュレーションをして、命令した兵士が何を考えているのか、なぜその命令を下したのかの理由を突き止める。オクタビアは独自のモデルを使い、少しずつ変更を加えながら、与えられた命令を理解しようとする。オクタビアが片方に首をかしげて眉をしかめるとき、命令者の考えをより理解しようとシミュレーションをしている合図だ。
オクタビアは、感情のモデルをプログラムされているわけではない。オクタビアの心の原理は、認識パターンなのだ。だがどちらかというと、人の感情の中で最も大切にされている「共感」のような機能を果たしている。
他のロボット・メーカーは、機械が人の感情を理解する能力の搭載を避けている。たとえば、ソフトバンク・ロボティクスは、人と友だちとなるために作られた「愉快で魅力的な」人型ロボット、ペッパーを販売している。ペッパーは「人とふれあうことが大好き」で「人の感情を理解」できるとされている。そして、ユーザーの好み、習慣、そして単純にユーザーがどんな人なのかを知りたがるという。だが、ペッパーが人の感情を理解できるとしても、ペッパーが明るい笑顔や悲しい顔をして返事をしても、ペッパーにそうした感情が実際にあるとは誰も思っていない。
ロボットはちゃんと感情を持っている、とロボット開発者が主張するにはどのようにしたらよいのだろうか。そもそも、感情があるとはどういうことなのかを、人は詳しく知っているわけではない。
感情の概念を究明し詳述するのは非常に難しいが、近年、心理学や神経科学の世界で起きた革命的見解により、感情の概念が根本的に再定義されている。心理学者でノースイースタン大学のリサ・フェルドマン・バレット教授ら科学者によれば、感情は自分た …