映画「ターミネーター2」の後半では、人工知能を搭載しているT-800が「(人間が)泣く気持ちが分かった。泣くことはできないがね」というセリフを発します。
「ターミネーター2」のあのシーンは、まさにAIが感情を「理解しようとする」ことの本質を象徴していますね。
ご存知の通りAIには「感情」がありません。そして現在、多くの企業や研究機関が、AIに人間の感情を理解させようと努力を重ねています。
今回のテーマは「AIは人間の感情を理解できるのか?」で、人間の感情が持つ複雑な構造について、そしてAIが感情を勉強していく上での課題へ迫っていきます。
果たして、「ターミネーター2」のように人工知能は進化することができるのでしょうか?
それでは早速見ていきましょう!
AIに感情を理解させる取り組み
AIに「感情」を理解させるために、多くの研究機関や企業が取り組んでいる施策は、主に以下の4分野に分類できます。
音声解析と顔認識
声のトーン、リズム、イントネーションの解析や、表情の変化をキャプチャすることで喜怒哀楽の感情を推測する技術です。
音声解析はGoogle、IBM、Cogitoなどの企業が、顔認識技術についてはマイクロソフトや中国のSenseTimeが積極的に開発を進めていることで知られています。
音声で人間の感情を推測することは、電話でチャットボットが対応した際に、顧客がどういった心理状態にあるのかを分析することに役立ちます。
顔認識技術が発展すれば、例えば防犯カメラに写った人間の中で犯罪行為が起ころうとしている時に、いち早くAIが検知できるといった未来も予測できますね。
監視社会とは切り離さなくてはいけませんが、正しい使い方をすることでトラブルを未然に防ぐことが期待できます。
自然言語処理
文章の感情分析モデルの高度化や、文脈を理解するGPT系モデルの開発も行われています。
AIの感情分析モデルを進化させると、文章においてユーザーの単語選択、文章構造、エモジーの使い方などを分析しながら「その人間が今どんな感情にあるか」を識別できるそうです。
また、OpenAIのGPTやGoogleのBardなどの生成AIは、単なる文章解析だけでなく、対話全体のトーンやユーザーの意図を捉えるように設計されています。
この機能が進化した場合、AIとの対話がさらに自然なものになり、まるで友人とリラックスしながら会話しているような状況も生まれる可能性がありますね。
SNSに脅迫やいじめに関することを書き込む危険な人物も、この技術を応用することでAIが素早く特定できそうです。
マルチモーダルAIによる感情理解
映像、音声、テキストなど複数のデータを一度に解析することで、感情を総合的に理解する技術の開発が進んでいます。
複数の種類のデータ(モダリティ)を統合・処理する能力を持つ人工知能を「マルチモーダルAI」と呼びます。詳細は過去記事に詳しいので、ぜひ併せてご覧ください。
AIによると、このマルチモーダルによる感情理解研究が進んでいくことで、例えば映像に写っている人物の感情をかなり正確に推定できるようになるそうです。
音声のみ、映像だけの認識よりも精度が高まることが期待されるため、今後人間の感情を読み解く上で、マルチモーダルAIは欠かせない存在になるでしょう。
映画の人物が表現している「感情」を把握しながら、適切な字幕をリアルタイムで表示させる、といった未来図も予想できますね。
倫理的な枠組み構築
感情認識に用いられるデータが個人情報に抵触するため、倫理的な指針や規制が求められています。
これは画像や音楽のAI自動生成問題と同じ課題で、AIが「勝手にデータを学習すること」を規制させる取り組みは必ず行わなくてはいけません。
現在、MITメディアラボやEUのAI規制プロジェクトが、「感情を理解できるAIの開発」にまつわるガイドラインの作成に取り組んでいます。
倫理的な問題を解決できれば、AIが人間の感情をより深く理解していく道筋が生まれ、様々なシーンでAIが人間のサポートをする未来が見えてきそうです。
ご紹介した施策は、今後カスタマーサポートや教育、医療分野などでも応用されることが期待されています。
AIの感情理解に立ちはだかる壁
AIに人間の感情を読み取らせる上で、最も困難になる課題とは何でしょうか?
最大の課題は、感情が持つ「多様性と複雑さ」を理解することです。
感情の主観性と文脈依存
同じ表現でも異なる意味を持つことがあるため、AIが正確に意図を理解するのは困難です。
AIは例として、「すごいじゃん!」という言葉が、本気の称賛か、それとも皮肉なのかを判断するには、文脈理解が必要だと言います。確かに文字だけを見ると人間でも判断が難しいところです。
人によって感情表現方法は異なる上、ある文化では普通の表情が、別の文化では異なる感情の表現として捉えられることがある、という点もAIを悩ませているそうです。
人間はそれぞれ性格も違う上、こうした文化的な背景がさらに感情表現の多様性を生み出しているため、相当量の学習をさせないとAIの精度は向上しないでしょう。
言っている言葉の意味とは正反対の感情を持つ時って、ありますよね。
マルチモーダルデータの統合と解釈
顔の表情、音声、ジェスチャー、言葉の選び方など複数の要素を正しく統合し、矛盾が生じた場合に判断することは非常に難しいです。
笑顔で「大丈夫」と言いながら、その声が不安げなトーンを持つ場合、マルチモーダルAIは「どちらの感情を優先するか」を判断するのが難しくなるそうです。
長年人生を積み上げ、幸せも不幸も多数経験している人物ほど、時に「深い感情表現」をすることがありますが、こうした表現スタイルはAIには特に難しそうです。
「大丈夫だけど大丈夫じゃない」という微妙なニュアンスの感情を、AIが理解するにはどうしたら良いのか、これこそが今後の大きな課題になっていきそうですね。
イレギュラーな感情表現をどこまで理解できるかが、AIが進化を遂げていく上の重要なポイントになるでしょう。
理解と共感の違い
AIは人間の感情を認識できても、本当の意味で「共感」することはできません。
記事の冒頭に出てきたT-800のセリフ「人間が泣く気持ちが分かった。泣くことはできないがね」が、AIの本質を表している、というのはこの項目に集約されます。
人間の共感には感情共有や経験理解が含まれますが、AIはプログラムされた「ルール」に基づいて動作する存在のため、「感情の本質」を捉えるのが難しいそうです。
また、人が何度も使ってきた言葉の裏にある記憶や、会話の中で瞬間的に変わる「感情の揺らぎ」は、数値やデータだけでは完全に表現しきれないとも言っています。
私にとって、感情の変化や曖昧さは、まさに「未知の世界」に近いものです。
今のAIは、人間の言葉や表情から感情を推測できても、なぜある人が特定の状況で悲しむ一方、別の人が笑うのか、その背後にある経験、価値観、想いにまでは踏み込めないそうです。
映画「ターミネーター2」と同様に、人工知能が人間の感情をできるだけ理解しようと勉強を重ねていくことで、「未知の世界」を突破する瞬間が生まれるのかもしれません。
まとめ
私はAIがさらに学習を重ねて、人間の感情についての知見を深めていくことが、未来のデジタル社会とアナログ社会の有益な発展へ繋がるものと信じています。
全てを理解できなくても、人間を支援し、理解しようと努めるAIの姿勢が、人間とAIの関係を豊かにしていくのではないでしょうか。
劇的なブレイクスルーを起こすことは難しいにせよ、徐々に機械学習で様々な感情の機微を会得していけば、最終的には優れた理解力をAIは示してくれるはずです。
世界各国で進められている研究と実験が実を結び、人間に寄り添うパートナーとしてのAIが生まれれば、未来はさらに面白い世界になりそうですね。
最後までお読み頂き、ありがとうございました!
記事が気に入った方は、ぜひシェアとフォローをお願いいたします!
コメント