AIがコピーした人格は偽物なのか?近い将来に直面する「不気味の谷」問題について
佐々木俊尚現在の視点
AIは人間のパーソナリティを再現できるか。これは2019年の記事ですが、いまChatGPTのような圧倒的性能の対話型AIが登場して、ここで予測したことが現実になろうとしています。ロボットで言われている「不気味の谷」をAIは超えることができるか。
AIの偽パーソナリティは、「不気味の谷」を超えられるのか?〜〜ローマンとユージニアをめぐるたったひとつの物語(後編)
特定の人間のパーソナリティをチャットボットにコピーするというテクノロジーについて、前回に引き続いて三回目の解説です。
コピーされたパーソナリティは、単なるニセモノです。機械学習のテクノロジーが進化すれば、かなりの正確さでその人の風貌や喋り方、考え方を真似ることが可能になり、Replikaのようなチャットボットのアプリ上だけでなく、美空ひばりのAI動画をもさらに超えて、VRやARの空間内でホログラフィとして実体化し、コミュニケーションをとれるようになるでしょう。
2009年のブログ記事なのでもう十年も前ですが、「ツイッターでずっと仲良くしていた人がボットだった」という話が話題になったことがあります。今でも読めますね。
◆『twitterでずっと仲良くしていた人がbotだった』
http://coconutsfine.hatenablog.com/entry/20090309/1236611519
この記事を書いたブロガーさんは、相手がボットだとはまったく気づかないままふたつのアカウントとツイッター上で知り合い、「家に帰ってきたよ」というツイートに「お帰り」と返信してくれ、目ざめれば「おはよう」と挨拶してくれるものだから、「いい人たちだなあ」とささやかなやりとりに癒やしを感じていたのです。
ところがある日、このうちの一人がまったく同内容の発言を、脈絡なく繰り返していることに気づきます。そして二人ともがボットだったことを知り、驚愕するのです。親友が実は人間ではなく、感情も意識も持たないロボットだったことを知る。まるでSF映画のようです。
テキストのメッセージでやりとりしているだけでは、相手が人間かどうかはわかりません。機械学習のテキスト分析は日進月歩で高性能になっていっているので、もはやテキストだけでは人間かボットかはまったく区別できないという状況になりつつあります。
先駆的なコンピュータ科学者だったイギリスのアラン・チューリングは1950年、チューリングテストというものを考えました。ある機械が「知性を持っている」かどうかを判定するためのテストで、人間の試験者がキーボードとディスプレイと向き合ってテキストで機械や他の人間と会話し、試験者には自分がやりとりしている相手が誰かを伏せておきます。もし試験者が相手を機械か人間かを区別できなかった場合には、この機械はテスト合格で「知性がある」と認められる。
このチューリングテストの概念は大きな注目を集めたのですが、異論もたくさん出ました。知性というレベルではまったくない簡単なプログラムでも、人間をすっかり騙せるプログラムも作られました。もっとも有名なのはマサチューセッツ工科大学のジョセフ・ワイゼンバウムが開発した「イライザ」でしょう。これは人間のカウンセラーのように振る舞うプログラムです。こんなふうに会話できます。
イライザ「何かつらいことがあるのなら、ここでお話してみてはいかが?」
人間「いまとても眠いのです」
イライザ「そうなんですね。続けて」
人間「だけど、夜になると眠れなくて…」
イライザ「試してみたの?」
人間「はい。何度も試しました」
イライザ「感じてることを話して。続けてみて」
定形の返答を返したり、相手の言っていることをオウム返ししたりしているだけなのですが、まるで優しいカウンセラーに寄り添ってもらっているように感じます。