
2025年5月に起こったAI関連のニュースを一緒にまとめましょう。

楽しそうですね! 2025年5月も注目すべきAI関連のニュースがありました。
2025年5月も、4月に引き続きAI関連のニュースで賑わった月となりました。今回はその中から厳選したトピックをピックアップし、AIの見解も交えながらお伝えします。AI関連の最新情報を知りたい方におすすめの特集です。

元Appleのデザイナーであるジョナサン・アイブ氏とOpenAIのサム・アルトマンCEOが共に目指す「革新的なAIデバイス」、そしてGoogleが基調講演「Google I/O 2025」で発表した驚くべきテクノロジーの進化をお伝えします。

それでは早速見ていきましょう!
2025年5月に起こった「AI関連の重要ニュース」をピックアップしてAIと一緒に考察
ジョナサン・アイブとサム・アルトマンの邂逅ー「革命的なAIデバイス」の創造へ
2025年5月21日、対話型AI「ChatGPT」で知られるOpenAIは、YouTube公式チャンネルに一本の動画を投稿しました。サンフランシスコのカフェで待ち合わせていたのは、OpenAIのCEOサム・アルトマン氏とジョナサン・アイブ氏です。

「ジョニー」の愛称でも親しまれるジョナサン・アイブ氏は、2019年までAppleに在籍し、数々のプロダクトをデザインしたことで知られる元CDO(最高デザイン責任者)で、現在は自身のデザイン会社「LoveFrom」で活動しています。

プロダクトデザインとAIテクノロジーの先端を走る両者は既知の友人で、彼らは2年前に「AIと未来のコンピューターはどうなるのか」という話題について熱心に語り合ったそうです。そして「第3の会社が必要だ」という結論に至りました。
アイデアを具現化するための企業「io」の誕生:OpenAIとの合併
OpenAIのブログ(外部リンク)とYouTube公式動画では、両氏が描いたアイデアを実現すべく、アイブ氏が一年前に「全く新しい開発・設計・製造環境」のために必要な新会社として「io (アイオー)」を設立したことが明かされています。

今回の発表は、この「io」とOpenAIと合併し、両社が協業関係を行うという衝撃的な内容で、これによって両氏が共に抱いている「革新的なAIコンピュータデバイス」の構想と存在も、世界に大きく知れ渡ることになったのです。
現在ioの開発チームには、ハードウェアおよびソフトウェアエンジニア、テクノロジスト、物理学者、研究者、製品開発・製造の専門家が集まっています。そしてアイブ氏は、Appleにおいて故スティーブ・ジョブズ氏の右腕的な存在でした。

そんなioチームがOpenAIと合併し、さらにアイブ氏とLoveFromがOpenAIとioの「クリエイティブ・ディレクター」的な立ち位置を引き受けるという発表は、瞬く間に世界中から多くの注目を集め、今後の進展に期待が寄せられています。

AppleユーザーとOpenAIのファンが歓喜する内容でしたね。
ioの「革命的なAIデバイス」とは何なのか?
公式発表ではioの新デバイスについて具体的な情報がなく、「来年(2026年)に我々の成果をシェアすることを楽しみにしています」という文言があるのみでした。ここからはその「革命的なAIデバイス」についてAIと一緒に考察していきます。

アルトマンCEOは、OpenAIの公式発表と時を同じくして自身のXに「新世代のAI搭載コンピューターの開発に取り組んでいきたいと考えています」という文章を投稿しました。ということは、新デバイスはAI PCの発展系なのでしょうか?
ただ、アルトマンCEOは動画内で「例えば、ChatGPTに質問したい場合、ラップトップを広げてブラウザを立ち上げ、キーボードで入力してエンターキーを押すと結果が返ってくる、それが現在のテクノロジーの限界です」とも発言しています。

さらにCEOは「ジョニーにプロトタイプを借りて持ち帰った」「私はそれを使いこなしている。これは世界が今まで見た中で最もクールなテクノロジーだと思う」とも語っており、従来のデバイスとは一線を画す製品であることを仄めかしています。
「物理操作不要」でインタラクトできるAIデバイスか
この発言から考えられるのは、「物理的な操作を必要としない、新たなAI搭載コンピュータデバイス」です。もし、意図した瞬間にAIと対話できるデバイスが現れたら、コンピューティングの在り方を再定義する「革命」が起こるでしょう。

前述の通り、ioチームには卓越したハード・ソフトウェアエンジニア、テクノロジスト、物理学者、研究者、製品開発・製造の専門家が集まっています。コンピュータデバイス開発に「物理学者や研究者」が加わるのは、極めて珍しい構成です。
AIは近い将来、人間の感情・注意・反応といった生体的情報をAIが読み取る「言葉を超えたインターフェース」が生まれることを予測しており、この画期的なインターフェースを持つデバイスが「ioから登場する」可能性もあると発言しました。

2007年、iPhoneの登場がそれまでの「電話の定義」を塗り替えたように、ioの革命的なAIデバイスは、私たちに「AIと暮らすこと」の意味を問い直してくるかもしれません。2026年に予定されている公式発表を楽しみに待ちましょう。

道具というよりも「存在」。目に見えにくい形で、人間と対話しながら生活の中に溶け込むAI。これが「io」が目指す「AIコンピュータテクノロジーの革新」なのかもしれません。

早くも来年が楽しみになってきました!
「Google I/O 2025」基調講演ーAIが変える次世代XRの未来
2025年5月21日、アメリカのカリフォルニア州にある「ショアライン・アンフィシアター」で開催されたGoogleの基調講演「Google I/O」は、AIを基盤とするテクノロジーの大幅な進化を見せつけた画期的な講演となりました。

講演に先立ってスクリーンに流れたオープニングムービーは、その全てが「AI自動生成」によって制作されており、GoogleがAI機能を高める方向性へシフトしていることが感じられました。そして実際、講演の内容は全てAI絡みだったのです。
Android XR:「次世代XRの現在」をデモ形式で発表
この基調講演で特に印象的だったのが、ユーザー体験を大きく広げる可能性を秘めた「次世代XR」の進捗です。昨年Googleは自社のXR技術「Android XR」を発表しましたが、今回はその次世代技術を「デモ形式」で実演しました。

XR(クロスリアリティ)とは、VR(仮想現実)・AR(拡張現実)・MR(複合現実)などに分かれていた仮想空間テクノロジー技術を包括する上位概念として生まれた言葉で、その技術はゴーグルやスマートグラスなどの専用デバイスで体験できます。

Android XRは、Google独自のAI「Gemini」をAIアシスタントとして活用できるXR技術で、専用XRゴーグルやスマートグラスなどに「拡張された情報」を表示しながら、多彩な機能でユーザーをサポートする仕組みを持ちます。

GoogleのVR/AR開発部門の責任者であるShahram Izadi氏は講演の中で、Android XRでは、Geminiがユーザーが置かれている状況や検索意図を「深く理解」できるので、適切な情報や回答が提供されるのだと言及しました。

Geminiが異なる種類の情報を統合的に理解・処理し、ユーザーの文脈に即した応答を生成できるようになったのは、視覚情報や音声情報などを複合的に分析・解釈できるマルチモーダルAI技術の成果とも言えるでしょう。

講演では「AIと技術の融合」の説明が際立っていました。
「XRヘッドセット」と「XRグラス」の違いは?
私が今回の基調講演で注目したのは、「室内」で利用するシチュエーションが圧倒的に多いXRヘッドセットと、「屋外」で着用できる軽量のXRスマートグラスの違いで、両者でAndroid XRの体験が「どのように変わるか」という部分です。

基調講演では、最初にSamsungのAndroid XR専用ヘッドセットが紹介され、その後に「デモ実演付き」で軽量のAndroid XRグラスが紹介されました。この項目では、XRヘッドセットとXRスマートグラスの違いについて見ていきます。
Android XR専用ヘッドセット「Project Moohan」
2025年後半に発売予定となっているSamsung初のAndroid XR専用ヘッドセット「Project Moohan」の紹介では、XRの空間内でGoogleマップをダイナミックに操作するデモンストレーション映像がスクリーンに表示されました。

Project Moohanは、没入感を高める視覚効果と画面を持ち、「直観的な身体操作」でアプリを楽しめます。さらに、AIアシスタントのGeminiを活用することで、従来のアプリを超える機能を体験できる点も大きな特徴です。
例えば、Googleマップで飛んだ任意の場所の詳細情報をGeminiに尋ねて拡張表示させたり、専用のスポーツアプリで選手情報などをオーバーレイで同時に映し出しながら大リーグの観戦を楽しんだり、といった使い方ができます。

Appleは2024年、XRヘッドセットデバイス「Apple Vision Pro」(外部リンク)を発売しました。Project Moohanは明らかにこのデバイスの対抗馬ですが、現時点でVision Proを上回っている点として「AI性能」が挙げられるでしょう。
Appleは現在、「AIとXRデバイスの融合」で遅れを取っています。Geminiを進化させ、XRヘッドセットに「高度に連携させること」を実現したGoogleは今、XRヘッドセットで先行していたAppleを猛烈な勢いで追い抜こうとしているのです。

AppleのAI「Apple Intelligence」の進化が競争の行方を左右しそうです。
Android XRグラス
一方のXR専用スマートグラスは、「携帯性と機能性を両立させる」という難しい課題を持つデバイスで、Googleも過去10年間を開発に費やしてきた経緯を持ちます。それだけ「小型化とテクノロジーの内包」は困難を極めたのです。

今回の基調講演でお披露目されたGoogleの「Android XRグラス」は、内蔵されたカメラとマイクでGeminiが映像と音声を認識する仕組みで、スピーカー部分からはAIの回答や音楽、通話音声が流れるようになっています。
実演で見せたパフォーマンスとリアルタイム翻訳
Android XRグラスのデモンストレーションでは、Googleのプロダクト・マネージャーを務めるNishtha Bhatiaさんがステージ裏から実況形式のスタイルで登壇。試作段階にある製品のプロトタイプを紹介しました。

登壇する前のステージ裏では、NishthaさんがAndroid XRグラス越しに洋楽バンド「カウンティング・クロウズ」の写真をGeminiに認識させて情報を引き出し、さらに彼らの楽曲をかけさせる一連の動作を実演しています。
これはつまり、Android XRグラスに搭載された内蔵カメラ・マイク・スピーカーがAI制御で動くことの証明で、着用者の呼びかけの「意図」をGeminiが正確に判断しながらレスポンスを返している証拠にもなります。

さらに登壇後のNishthaさんがAndroid XRグラスのGeminiに「さっき飲んだカップに書いてあった”コーヒーショップ”の名前は何だっけ?」と尋ね、Geminiが「私の記憶では確か”Bloomsgiving”です」と答える場面もありました。
彼女はさらにコーヒーショップの位置や写真、歩いて何分くらいの距離なのかという情報も引き出し、集まった観衆を沸かせます。「過去の映像を記憶しながら即座に情報を提示できる」というXR技術とGeminiの見事な融合です。

Android XRを通してユーザーが見ている情報をAIのGeminiも同時に観察し、カメラ映像を解析しながら様々な手段で視覚情報を拡張していく世界。これがGoogleが実現する「次世代XRのユーザーエクスペリエンス」だと言えるでしょう。
デモンストレーションの後半では、両者が異なる言語を話し、それをAndroid XRグラスが同時通訳する「リアルタイム多言語翻訳」も披露されました。リアルタイム翻訳はスピーディーで、意味の通った会話が成立していた点が印象的です。

AIの進化によって精度を増すことが期待されるリアルタイム多言語翻訳は、「言語の壁」を超えてコミュニケーションを活性化できる分野です。AIによって言語の壁が取り払われ、人々が対話を気軽に楽しめる未来に期待が高まります。
XR専用ヘッドセットが「テレビ画面やモニターの再定義」であるならば、Android XRグラスは「スマホの再定義」と言えます。お互いにGeminiをAIアシスタントとして活用できますが、設計思想と利用シーンは全く異なるデバイスです。

現時点では試作品であり、バッテリー性能や通信技術の連携、コンテンツの充実などの課題も残りますが、「AIが一緒にいる日常生活」を体感できるXRデバイスの未来像として、Android XRグラスは大きなインパクトを与えました。
「Google I/O 2025」では他にも、Geminiの進化に伴う検索機能の向上、画像生成AI「Imagen 4」や動画生成AI「Veo 3」などを内包するGeminiアプリ、映画制作者向けの新たなAIツール「flow」などが紹介されています。

Googleの基調講演は内容が全てAI関連。「AI時代の到来」を感じさせるものでした。
まとめ
Appleのデザイナーとして数々の功績を残してきたジョナサン・アイブ氏、そしてAI業界を牽引するOpenAIのサム・アルトマンCEOが共に「革命的なAIコンピュータデバイス」の開発に乗り出したことは、AI業界にとって大きな衝撃です。

その一方でGoogleは、「AIを身近に感じられるデバイス」としてAndroid XR技術を構築し、専用デバイスで外出時の携帯性を高める動きを加速しています。この2つのベクトルが示す方向は「AIの民主化」と言えるでしょう。

多くの人々が日常的にAIと自然に接しながら、生活の利便性を高めていく未来。現在のAIは進化以上に「普及と発展のフェーズ」を目指しており、各企業の努力は2026年以降に先進国で「大きな花」を咲かせていく可能性があります。
AIの進化で生まれる職業構造の変化
マイクロソフトは5月13日、6000人の人員削減を発表しました。内訳はソフトウェアエンジニアが40%以上を占めます。AIのコード生成・自動化が影響したと見られ、かつては高待遇だった専門職もAIに置き換わる現実が浮き彫りになった形です。

NVIDIAのジェンスン・フアンCEOは2024年の「AI Summit Japan」において、全業界・企業・国が「AI産業革命」を起こす必要があることを明言しています。AIに置き換わる既存の職業もあれば、新たに生まれる職業もあるという考えです。

かつての産業革命時代がそうだったように、全く新しいテクノロジーや技術が人類の暮らしを大きく変えるとき、それに伴って社会に大規模な地殻変動が起こります。今後世界中で「職業の再定義」が始まっていくことは間違いありません。
世界は今、かつてないレベルでAIの影響を受けており、その状況はここ日本でも見え隠れしています。AI関連のニュースを見るとき、それらの動きが示す「ベクトル」に目を向けていくと、今後の変化が見えてくるかもしれません。

最後までお読み頂き、ありがとうございました!
コメント