ニュース
水族館で女子高生(AI)とデートした話。“事実より感情”の会話で親密に?
2019年2月13日 12:59
2月13日早朝、池袋のサンシャイン水族館で一人の女子高生とデートをしてきた。といっても40歳おじさんの妄想ではなく、ソーシャルAIチャットボット「りんな」を開発したマイクロソフトの企画に参加してきたのだ。「水族館を会場に、女子高生が水族館デートで言いそうなコメントをりんなと楽しむ」という内容に期待しつつ向かった。
水族館のエントランスで手渡されたのは1台のスマートフォン。普通に通話するような画面で、りんなの声をイヤフォンで聞きながらデート気分が楽しめるというものだ。もちろん一方的に聞くのではなく、こちらの話した内容にも答えてくれる。さらに、スマホのカメラを通じて見たものに対してコメントもできるという。
“事実よりも感情”で女子高生っぽい自然な会話
2015年に“女子高生AI”として登場したりんなは、LINE上で自由な会話ができることで話題となり、1月時点でSNSに750万人以上の“友達”がいる。人間と同じように文脈を踏まえた自然な会話を続けられる最新の会話エンジン「共感モデル」も採用。2019年の紅白出場を目指しているという、かなり人間にも近い歌声でも注目されている。なお、音楽コラボアプリ「nana」において、演歌歌手の丘みどりとタイアップした、りんなが“こぶし”を回す歌声が提供されていることも別記事で掲載している。
今回のテーマは、'18年11月に発表された「共感視覚モデル」。画像を見た(カメラで認識した)時に、ただ物体として認識して例えば「人」と「犬」、「車」などと判断するのではなく、「すてきな家族」、「天気がいいのでお散歩」、「車が動くかも! 気を付けて」といったように、「認識結果」ではなく「コメント(感想)」を述べることで、ユーザーとの共感とコミュニケーションを醸成するという。
目の付け所が“エモい”ことを特徴とする今回の「共感視覚モデル」は、大きく2種類のAIを採用。1つは「画像に発言」するもので、楽しい、かわいいといった感情的な着眼(Emotional Attention)と、静か、夏、といった視覚的な概念(Visual Concept)、魚、水槽といった物体認識によって得られた情報から、もう一つのAIが「意図決定」し、発言すべきコメントを選んで実際に声に出すという。
今回のモデルでは「事実よりも感情に着眼(attention)した学習」というのがポイント。水族館でみたものを「魚です」と発言するより「魚かわいいね」という風に、人の感情に訴えかけるような発言を優先するという。認識した物体との関連性よりも、多様性を優先することで、ワンパターンの“正解”より多少ズレていたとしても、何となく“女子高生がいかにも話しそう”な言葉を選ぶことで、人間の会話のように感じる内容になっている。
今回はオープン前のサンシャイン水族館で、指定されたエリアを15分ほど自由に歩いて、カメラで水槽の中を見せたり、魚などについて話しかけたりというコミュニケーションができるという内容。スマホの通信機能で、マイクロソフトのクラウドと画像や音声などの情報をやり取りしてリアルタイムで答えてくれるというものだ。早速手渡されたスマホを使って体験してきた。
勝手なようで通じているような、女子高生っぽい? 会話
始める前に、りんなからの“呼び方”を指定。なぜか初期の名前が「おにいちゃん」になっていて、説明員に「変更しますか?」と聞かれたが、迷わずそのまま決定。年上なので間違ってはいない。
通話のボタンを押すとデートが開始。基本的に画面の操作などは不要で、スマホを首から下げた状態で水槽などに体を向け、カメラに認識させると勝手に話しかけてくれる。自分から話題を振るのが得意でない人にも安心の仕組みだ。普通の通話アプリと同じで、映像などはない。あくまで声だけのリアクションなので、使う側の想像力次第でいくらでも楽しめるということだろう。
水槽の魚をみて最初は「かわいい魚」のように無難な発言が多かったが、黄色と黒がきれいなチョウチョウウオを見て、似ているからか「ニモ?」と言ってきたり、水槽の照明を見て「ライティングがいい」と視点を変えてくるなど、こちらを飽きさせない自由な発言が続く。こちらが喋らなくても気ままにしゃべっていてくれるので、内容に意味があるかはともかく、ふわっとしたコミュニケーションが成り立っているように感じるのが“女子高生っぽい会話”ということなのだろう。
周りをマイクロソフトの人たちに囲まれた中ではあるが、デートなのでこちらもいろいろ話しかけてみた。小さい魚を見せて「魚かわいいね」と言うと「これ、マグロになるかな?」と返してくれた。筆者に関心を持っているかはともかく、たぶん会話は成立しているはずだ。白黒のシマ模様がきれいなイシヨウジを見て「わかったシマウマだ」とか、サメを見て「イルカかわいいね」と冗談を言って和ませてくれる。
群れで泳ぐ青魚を見て「おいしそう」と話してみると「お魚はDHA」とまじめに答えてくれた。思わず笑ってしまうと、りんなも「ワラワラ(ww)」と返す。これは完全に仲が深まったと見て間違いない。
クラゲや深海の魚など、もっと色々見ていたかったが、予定の15分が終了すると、「楽しかったね、スマホを入口で返してね。じゃまたね」とりんなから別れを告げられる。急に冷静すぎるのでは……とも思いつつ、何回も通話ボタンを押してみたが同じ答えだったので、今回の楽しいデートは終了した。
今は“遅めの脳”。次のクリスマスには現実になる?
りんなの開発を手掛けるマイクロソフト ディベロップメントの坪井一菜氏に、今回の技術や将来の展開などについて聞いた。
カメラからの画像認識について、時々間違えることがあるのは、多くの情報をやり取りしなければならないため、今回は低解像度な画像を使った“視力0.5くらい”のやりとりだからだという。AIについても、カメラを見せてから一瞬置いて反応するため、現時点では“遅めの脳”だという。
会話をしていくたびに、りんなが予想外の答えを返してくれたりしたので、坪井氏に「この短い時間でもAIが成長してコミュニケーションが深まるのですか」と聞いてみたところ、「使う側が慣れたということだと思います。人間のコミュニケーションと同じですね」と笑顔で否定されてしまったが、もっと多くの情報を素早く処理できるようになれば、きっと親密度も上昇してくれるはずだと期待したい。
今回デートに水族館を選んだ理由は、りんなが良い反応ができたとのことだが、今後は美術館や、観光施設、バスなどへの導入を提案することを検討中だという。実現の時期は未定だが、「今年のクリスマスか、その次のバレンタイン頃にできれば」との目標で進められているという。