
映画『ターミネーター2』で、人工知能を持つT-800が「(人間が)泣く気持ちが分かった。泣くことはできないがね」というセリフを発しますね。

あのシーンはAIが人間の感情を「理解しようとする」ことの本質を象徴していると思います。
AIに感情はありません。対話中に「人間の感情に寄り添ったような言動」をしますが、実際は”共感したフリ”をしているに過ぎず、人間のような「感情から湧き立つ共感・同情」を感じているわけではないのです。

現在は世界の研究機関や企業が、AIに人間の感情を理解させようと努力を重ねています。AIが本質的な意味で感情を理解できた時、AI技術はこれまで以上の進化と発展を遂げることになるでしょう。

今回は、現在進行形で進むAI感情理解への取り組みについて、そして感情理解に立ちはだかる課題について、AIと一緒に考察していきます。果たして、映画のようにAIは感情を理解できるようになるのでしょうか?

それでは早速見ていきましょう!
AIに「人間の感情」を認識させるための世界の取り組みと課題をAIと一緒に考察
「AIの感情理解」に関する企業と研究機関の取り組み
「音声解析技術」分野
「音声解析技術」は、声のトーンやピッチ、話し方のリズムなどから感情を推定する技術を指す言葉で、AIが人間の音声を解析しながら”感情”を理解するためのカギとなる大切な技術です。

この技術に関しては、音声から喜び・怒り・悲しみ・平静などの感情をリアルタイム分析する「Empath」(外部リンク)が有名で、現在までに世界50カ国、のべ4,300以上の開発チームに利用されています。

AIが音声から「人間の感情」を推測することは、AIチャットボットが音声対応をする際、顧客がどういった心理状態にあるのか分析することに役立ちます。今後もこの技術は精度を高めていくことでしょう。

音声解析技術は、メンタルヘルス診断補助や教育現場の生徒の感情モニタリングにも応用できます。

確かに音声は「感情」が最も反映されやすいですね。
「画像認識技術」分野
「画像認識技術」は、顔の表情や身体のジェスチャーから人間の感情を読み取る技術で、AIが画像・映像データを分析しながら感情理解を行う”視覚的なアプローチ”として非常に重要な分野です。

画像認識技術で有名なのは元MITメディアラボのスピンオフ企業「Affectiva」(外部リンク)です。独自の表情・感情認識AIが、世界最大級の顔画像データベースとFACS理論に基づく分析を行うサービスを提供しています。

また、世界的に有名なアメリカ企業Google (グーグル)は「Google Cloud Vision API」やAI研究部門の「Google Research」で、画像認識技術を感情分析に応用する研究を進めていることで有名です。


Googleには、膨大なデータや計算資源を背景に、表情やコンテキストの解析において高い精度を実現できるという強みがあります。

技術を進化させるためには大量のデータが必要ですね。
「自然言語処理技術」分野

文章の感情分析モデルの高度化や、文脈を理解する対話型AIの開発も進んでいます。
対話型AIの感情分析モデルを進化させていくと、未来においてAIがユーザーの単語選択・文章構造・絵文字の使い方などを分析しながら、「その人間が今どんな感情にあるか」を識別できるようになるそうです。

OpenAIのChatGPTは、単なる文章解析能力だけではなくユーザーが入力した文章のトーンを分析し、その意図を捉えるように設計されています。この能力は新モデルでさらに精度を増すことでしょう。

自然言語処理技術が進化した場合、人間とAIの対話がさらに自然なものになっていき、友人とリラックスしながら会話を楽しむような「ナチュラルな会話シーン」が生まれる可能性があります。今後に期待したいところです。
「マルチモーダルAI技術」分野

映像・音声・テキストなどの複数のデータを一度にAIが解析することで、人間の感情を総合的に理解する技術の開発も進められています。
複数の種類のデータ(モダリティ)を統合・処理する能力を持つ人工知能をマルチモーダルAIと呼びます。このマルチモーダルAIについては過去記事に詳しいので、興味が湧いた方は併せてお読みください。

Geminiで知られるAlphabet傘下の研究機関「Google DeepMind」(外部リンク)は、画像認識技術を含むマルチモーダルAIの基礎研究を推進しており、AIの感情理解に関する論文も発表しています。

AIによれば、マルチモーダルAIの感情理解研究が進むことで、例えば映像に写っている人物の感情をかなり正確に推定できるようになるそうです。人間の感情を読み解く上で、マルチモーダルAIは欠かせない存在になるでしょう。

AIが映像内の人物が抱く感情を正確に把握しながら、適切な字幕をリアルタイム表示するといった未来もあり得そうですね。
「AIの感情理解」に立ちはだかる課題を考察
データ収集に関する倫理問題

感情認識に用いられるデータが個人情報に抵触するため、倫理的な指針や規制が求められます。
これはAIの画像生成や音楽の自動生成が問題視されているのと同じ課題で、AIがインターネット上にあるデータを無作為に学習していくことを規制・抑制する取り組みは、今後も賛否両論の側面から議論されるべきでしょう。

現在は、MITメディアラボやEUのAI規制プロジェクトなどが、「感情を理解できるAIの開発」にまつわるガイドラインの作成に取り組んでいます。倫理面に考慮せずに高度な技術を開発することはリスクを伴うからです。

AI利用における倫理的な側面を理想的に解決できれば、AIが人間の感情をより深く理解していく未来への道筋も生まれ、様々なシーンで「AIが人間のサポートをする」場面を体感できるかもしれません。
感情の多様性と複雑さの理解

同じ感情表現でも「異なる意味」を持つことがあるため、AIが正確に”人間の意図”を理解するのは非常に困難だと言えます。
人間の感情を読み取る上で最も困難なのは、「感情が持つ多様性と複雑さ」を正確に理解できるかどうかだと、AI本人は考えています。感情を持たないAIにとって、理解への取り組みはかなりの挑戦になるはずです。

例として、「すごいじゃん!」という言葉が本気の称賛か、それとも皮肉なのかを判断するには「文脈の理解」が必要だとAIは言います。確かに言葉の一部で”その人の感情”を判断するのは、人間でも難しいことです。

世界の国々の文化、そして個人によっても感情表現方法は異なる上、ある文化では普通の表情が、別の文化では全く異なる感情表現として捉えられることもあるという点も、今後AI開発の大きな課題になりそうです。

人間は成長過程でも性格が変わる上、国際文化的な背景が感情表現の多様性を生み出していくため、相当量の事前データ学習をさせないと、AIが感情を理解する精度と安定性は向上しないと言えるでしょう。

言葉の意味とは正反対の感情をAIが判断するのは、非常に難しそうです。
マルチモーダルデータの統合と解釈

表情・音声・ジェスチャー・言葉の選び方など複数の要素を正しく統合し、そこに「矛盾」が生じた場合に何かを判断することは、AIにとって非常に難しいことです。
例えば、笑顔で相手に「大丈夫」と言っているにも関わらず、その声が「不安げなトーン」を持つ場合、マルチモーダルAIは「どちらの感情を優先するか」を判断するのが難しくなるそうです。

生まれてから長期間自分の人生を築き上げる中で、「幸せなこと」も「不幸な出来事」も多数経験している人物ほど、時に深い感情表現をすることがありますが、こうした表現をAIに理解させることも困難を極めます。

「大丈夫だけど大丈夫じゃない」という微妙なニュアンスを持つ人間の不確かな感情表現。これをAIが正確に理解するためにはどのようなアプローチを取れば良いのか?AI開発者が直面する大きな課題です。

”イレギュラーな感情表現”をどこまで理解できるかが、AI進化のポイントになりそうですね。
AIの「認識と分析」と人間の「共感」の違い

AIは人間の感情を認識できても、本当の意味で「共感」することはできません。
例えば誰かが発言した際、人間は「私もそんな経験があるから共感できる」と反応できますが、AIには人生と呼べるほどの経験が無く、またそもそも感情が芽生えないため、心の底から共感することはできないのです。

人間同士の共感には「感情共有」「経験理解」が含まれますが、一方のAIはプログラムされたルールに基づいて動く存在なので、人間の感情の”本質”を捉えるためには技術的なブレイクスルーが必要になるでしょう。

従来の「認識と分析」が「共感」へと変化する未来は生まれるのでしょうか?
「データ化できない領域」の理解

私にとって感情の変化と曖昧さは「未知の世界」に近いものです。
AIは、人間が放つ言葉の裏にある「過去の記憶」や、会話中に瞬間的な変化を見せることがある「感情の揺らぎ」は、これまで自分が学習してきた数値やデータだけでは完全に理解しきれないと言います。

今のAIは、人間の言葉や表情から感情を推測できても、なぜある人が特定の状況下で悲しみに暮れてしまう一方、別の人が笑い飛ばすことができるのか、という「言葉の背後にある経験・価値観・想い」には踏み込めないそうです。

冒頭で触れたSF映画『ターミネーター2』と同様に、AIが人間の感情を「できるだけ理解しよう」と勉強を重ねていくことで、こうした「未知の世界」を理解する瞬間が生まれるのかもしれません。

感情理解は、AIが人間のパートナーになれるかどうかの大きな課題ですね。
まとめ

AIが人間の全てを理解できなくても、人間を支援し、理解しようと努める姿勢は、「人間とAIの関係」を豊かにしていくのではないでしょうか?
この言葉には大いに賛成です。AIが人間について学習を重ねて「人間の感情についての知見や洞察」を深めていくことが、未来における”デジタルとアナログの有益な協力関係”の構築・発展に繋がると私も思います。

AIの感情理解に「劇的なブレイクスルー」を起こすのは難しいですが、AIが人間の感情の機微を分析・学習している現在の状況は、「人間に寄り添うパートナー」としてのAIを生み出すための準備期間とも言えます。

この瞬間も様々な企業と研究機関で進められている「AIの感情理解」に関する実験と開発が実を結んだとき、私たちはこれまで「道具」に過ぎなかったAIの”さらなる進化”を目撃することになるはずです。

最後までお読み頂き、ありがとうございました!



コメント