
映画『ターミネーター2』のラストで、人工知能を搭載するT-800が「(人間が)泣く気持ちが分かった。泣くことはできないがね」というセリフを発しますね。

『ターミネーター2』のあのシーンは、まさにAIが感情を「理解しようとする」ことの本質を象徴していると思います。
多くの方がご存知の通り、AIには元来「感情」がありません。人間の感情に寄り添ったような言動をすることはありますが、本質的には「共感しているフリをしている」に過ぎず、感情から湧き立つような意味での共感は無いのです。

現在は、多くの研究機関や企業が、AIに「人間の感情」を理解させようと研究と努力を重ねています。AIが人間の感情を本質的な意味で理解できた時、AI技術はこれまで以上の発展を遂げ、次世代の進化が起こることでしょう。
今回は、人間の感情が持つ複雑な構造について、そしてAIが感情を勉強していく上での課題について、AIと一緒に迫ります。果たして、『ターミネーター2』のように人工知能は感情理解に達することができるのでしょうか?

それでは早速見ていきましょう!
AIに「人間の感情」を認識させるための取り組み・課題をAIと一緒に考察
「AIの感情理解」に関する企業と研究機関の取り組み
音声解析技術
「音声解析技術」とは、声のトーンやピッチ、話し方のリズムなどから感情を推定する技術を指す言葉で、AIが音声を解析しながら「人間の感情」を理解するための大切な技術と言われています。

この技術に関しては、音声から喜び・怒り・悲しみ・平静などの感情をリアルタイムで分析する「Empath」(外部リンク)が有名で、現在までに世界50カ国、のべ4,300以上の開発チームに利用されています。
AIが音声から「人間の感情」を推測することは、電話でAIチャットボットが対応した際、顧客がどういった心理状態にあるのかを分析することに役立ちます。今後もこの技術は、より精度を高めていくことでしょう。

音声解析技術は、メンタルヘルス診断補助や、教育現場の生徒の感情モニタリングにも応用できます。

確かに音声には「人間の感情」が最も反映されやすいですね。
画像認識技術
「画像認識技術」は、主に顔の表情や手振りなどのジェスチャーから人間の感情を読み取る技術で、感情理解の視覚的なアプローチとして非常に重要な分野です。画像・映像データを通してAIが感情を把握していく仕組みですね。

この画像認識技術で有名なのは、元MITメディアラボのスピンオフ企業「Affectiva」(外部リンク)で、独自の表情・感情認識AIが、世界最大級の顔画像データベースとFACS理論に基づく分析を行うサービスを提供しています。
また、世界的に有名なアメリカの企業Google (グーグル)は「Google Cloud Vision API」やAI研究部門の「Google Research」で、画像認識技術を感情分析に応用する研究を進めていることで有名です。

Googleには、膨大なデータや計算資源を背景に、表情やコンテキストの解析において高い精度を実現できるという強みがあります。

技術を進化させるためには、大量のデータも必要になりますからね。
自然言語処理技術

文章の感情分析モデルの高度化や、文脈を理解する対話型AIの開発も進んでいます。
対話型AIの感情分析モデルを進化させていくと、未来においてユーザーの単語選択・文章構造・エモジーの使い方などを分析しながら、「その人間が今どんな感情にあるか」を識別できるようになるそうです。

OpenAIのChatGPTは、単なる文章解析能力だけではなく、ユーザーが入力した文章のトーンを分析して、その意図を捉えるように設計されています。この解析能力は、今後も新モデルで精度を増していくでしょう。
自然言語処理技術が進化した場合、人間とAIの対話がさらに自然なものになっていき、友人とリラックスしながら会話を楽しむような「ナチュラルな会話シーン」が生まれる可能性があります。期待しましょう。
マルチモーダルAI技術

映像、音声、テキストなど複数のデータを一度に解析することで、感情を総合的に理解する技術の開発が進んでいます。
複数の種類のデータ(モダリティ)を統合・処理する能力を持つ人工知能のことを、「マルチモーダルAI」と呼びます。このマルチモーダルAIについては過去記事に詳しいので、こちらもぜひ併せてご覧ください。

Geminiで知られるAlphabet傘下の研究機関「Google DeepMind」(外部リンク)は、画像認識技術を含むマルチモーダルAIの基礎研究を推進しており、AIの感情理解に関する論文も発表しています。
AIによれば、マルチモーダルAIの感情理解研究が進むことで、例えば映像に写っている人物の感情をかなり正確に推定できるようになるそうです。人間の感情を読み解く上で、マルチモーダルAIは欠かせない存在になるでしょう。

映像の人物が抱く感情を正確に把握しながら、適切な字幕をリアルタイムで表示させる、といった未来も予想できますね。
「AIの感情理解」に立ちはだかる課題
倫理問題

感情認識に用いられるデータが個人情報に抵触するため、倫理的な指針や規制が求められます。
これはAIの画像生成や音楽の自動生成が問題視されているのと同じ課題で、AIがインターネット上にあるデータを無作為に学習していくことを規制・抑制する取り組みは、今後も賛否両論の側面から議論されるべきでしょう。

現在は、MITメディアラボやEUのAI規制プロジェクトが、「感情を理解できるAIの開発」にまつわるガイドラインの作成に取り組んでいます。倫理面の作成なしに高度な技術を開発することは、リスクを伴うからです。
AI利用における倫理的な側面を理想的に解決できれば、AIが人間の感情をより深く理解していく未来への道筋も生まれ、様々なシーンで「AIが人間のサポートをする」場面を体感できることになるかもしれません。
感情の主観性と文脈依存

同じ感情表現でも「異なる意味」を持つことがあるため、AIが正確に人間の意図を理解するのは非常に困難だと言えます。
AIに人間の感情を読み取らせる上で、最も困難になるのは、感情が持っている「多様性と複雑さ」をAIがしっかり理解できるかどうかだと、AI本人は発言します。感情を持たないAIにとって、これはかなりのチャレンジです。

AIは例として、「すごいじゃん!」という言葉が、本気の称賛なのか、それとも単なる皮肉なのかを判断するには、文脈理解が必要だと言います。確かに文字だけで感情を判断するのは、人間でも判断が難しいところだと思います。
世界の国々の文化、さらには個人によって感情表現の方法は異なる上、ある文化では普通の表情が、別の文化では異なる感情の表現として捉えられることがある、という点も、今のAIを大いに悩ませているそうです。
人間は成長過程でも性格が変わっていく上、こうした国際文化的な背景がさらに感情表現の多様性を生み出していくため、相当量の事前データ学習をさせないと、AIの感情理解に関する精度は向上しないでしょう。

言葉の意味とは正反対の感情を持つ時は、確かにありますね。
マルチモーダルデータの統合と解釈

顔の表情・音声・ジェスチャー・言葉の選び方など「複数の要素」を正しく統合して、そこに矛盾が生じた場合に何かを判断することは、AIにとって非常に難しいことです。
例えば、笑顔で相手に「大丈夫」と言っているにも関わらず、その声が「不安げなトーン」を持つ場合、マルチモーダルAIは「どちらの感情を優先するか」を判断するのがかなり難しくなるそうです。

生まれてから長時間にわたって人生を築き上げ、「幸せなこと」も「不幸な出来事」も多数経験している人物ほど、時に深い感情表現をすることがありますが、こうした表現スタイルをAIに理解させることも困難を極めます。
「大丈夫だけど大丈夫じゃない」という微妙なニュアンスを持つ人間の不確かな感情表現。これをAIが正確に理解するには、どのようなアプローチを取れば良いのか。これは開発者が直面する大きな課題です。

イレギュラーな感情表現をどこまで理解できるかが、AI進化のポイントになりそうです。
理解と共感の違い

AIは人間の感情を認識できても、本当の意味で「共感」することはできません。
記事冒頭で取り上げたSF映画『ターミネーター2』のT-800が発したセリフ「人間が泣く気持ちが分かった。泣くことはできないがね」が「AIの本質を表している」とAI自身が分析したのは、理解と共感の違いが示されているからです。

人間同士の共感には「感情共有」や「経験理解」が含まれますが、AIはプログラムされたルールに基づいて動作する存在なので、「人間の感情の本質」を捉えるのが難しいそうです。この部分も開発上の課題となっていくでしょう。
例えば誰かが発言をした時、人間は「私もそんな経験があるから共感できる」と反応できますが、AI自身には人生と呼べるほどの経験も無く、またそもそも感情が芽生えないため、心の底から共感することができないのです。

認識と分析が「共感」へ変わっていく未来はあるのでしょうか?
データ化できない「未知の世界」

私にとって、感情の変化や曖昧さは、まさに「未知の世界」に近いものです。
AIは、人が何度も使ってきたであろう言葉の裏にある過去の記憶や、会話の中で瞬間的に変わる「感情の揺らぎ」は、自分が学習してきた数値やデータだけでは完全に理解しきれないと言っています。

今のAIは、人間の言葉や表情から感情を推測できても、なぜある人が特定の状況下で悲しみに暮れてしまう一方、別の人が笑い飛ばすことができるのか、という「言葉の背後にある経験・価値観・想い」には踏み込めないそうです。
映画『ターミネーター2』と同様に、人工知能(AI)が人間の感情を「できるだけ理解しよう」と勉強を重ねていくことで、こうした「未知の世界」を突破する瞬間が生まれるのかもしれません。

感情理解は、AIが人間のパートナーになれるかどうかの大きなポイントですね。
まとめ

AIが人間の全てを理解できなくても、人間を支援し、理解しようと努める姿勢は、「人間とAIの関係」を豊かにしていくのではないでしょうか。
この言葉には賛成です。AIがさらに人間について学習を重ね、人間の感情についての知見や洞察を深めていくことが、未来のデジタルとアナログの「有益な協力関係」の構築と発展へと繋がると思うからです。

AIの感情理解に「劇的なブレイクスルー」を起こすことは、現段階ではかなり難しいにせよ、徐々にAIが様々な感情の機微を分析して学習できるようになれば、最終的にAIは「優れた理解力」を示してくれるでしょう。
世界各国の企業と研究機関で進められている実験や開発が実を結び、真の意味で「人間に寄り添うパートナー」としてのAIが生まれたとき、私たちの未来は「さらに面白い世界」へと変わっていきそうです。

最後までお読み頂き、ありがとうございました!
コメント