2025年5月20日に開催されたGoogle I/Oで発表された最新技術を、ITに詳しくない方にも理解できるよう平易な言葉でまとめました。特に注目すべき「人工知能(AI)」の進化に焦点を当て、私たちの生活がどのように変わるのかを解説します。
エグゼクティブサマリー:Google I/O 2025の全体像
Google I/O 2025は、Googleの年次開発者会議で、最新の技術やサービスが発表される重要なイベントです。今年のテーマは「研究から現実へ」で、特に人工知能(AI)技術が私たちの日常生活にどのように組み込まれていくのかに焦点が当てられました。
主要な発表内容
- AI技術の中核「Gemini」モデルの進化:より賢く、対話的で、様々な場面で活用できるようになりました
- エージェントAI:Project MarinerやAgent Modeなど、ユーザーに代わって行動できるAI機能が登場
- クリエイティブAIツール:Veo 3、Imagen 4、Flow、Lyria 2などの生成AI技術でクリエイティブな作業を支援
- Android XR:VRやARを統合した新プラットフォームで、メガネ型デバイスやヘッドセットにAIを搭載
- AI Ultra/Proサブスクリプション:最先端のAI機能にアクセスするための新しい料金プラン
Geminiの進化:より賢く、より便利に
Geminiは、Googleのフラッグシップ大規模言語モデル大量のテキストデータから学習し、人間のような文章を理解・生成できるAIシステムで、今回のI/Oでは「Gemini 2.5」シリーズの一般提供が発表されました。
Gemini 2.5の主要機能
Gemini 2.5 Flash
高速に応答する軽量版モデルで、より自然な会話を実現。ストレイノイズや関係ない声を無視する機能が向上し、よりスムーズな対話が可能になりました。
Gemini 2.5 Pro
より複雑な質問や作業に対応する高性能モデル。AI Ultra加入者向けに「Deep Think」モードが追加され、数学や複雑なコード作成などでさらに優れた推論能力を発揮します。
ネイティブオーディオ出力
音声スタイル、アクセント、話すスピードを正確に指定できる高度な音声合成機能。感情を伝えたり会話の文脈に適応したりする「アフェクティブダイアログ」も実装。
Geminiがさらに身近に
Geminiの活用範囲も大幅に拡大しています:
- Chrome統合:ブラウザに直接Geminiを組み込み、閲覧中のウェブページのコンテキストを理解して質問に回答
- パーソナライズGmail返信:ユーザーのトーン、声、スタイルに合わせた返信案を自動生成
- Googleアプリ連携:Gmail、Docs、Vidsなど様々なGoogleアプリでGeminiのサポートを受けられるように
ワールドモデルとしてのGemini
GoogleはGeminiを単なる言語モデルから「ワールドモデル」へと進化させようとしています。世界の様々な側面を理解し、シミュレーションし、計画を立てる能力を持つAIを目指しています。これはスマートフォン、メガネ、ヘッドセットなど、あらゆるデバイスで使用できる「普遍的なAIアシスタント」の構築に向けた重要なステップです。
エージェントAI:あなたの代わりに行動する賢い助手
今回のGoogle I/Oで特に注目されたのが「エージェントAI」です。これは単に質問に答えるだけでなく、ユーザーに代わって実際に行動を起こすことができるAIシステムです。
Project Mariner
Project Marinerは、Gemini 2.0をベースにした研究プロトタイプで、人間とAIエージェントのインタラクションの未来を探求します。ブラウザを通じて、さまざまなウェブサイトを理解し、操作することができます。
主な機能:
- 複数タスク処理:最大10個の異なるタスクを同時に完了する能力
- ウェブサイト操作:情報検索、予約、購入、調査などを自動的に実行
- コンテキスト理解:複雑なウェブサイトをリアルタイムで理解し、ナビゲート
現在、Google AI Ultraサブスクライバー向けに米国で提供されており、今後の拡張が予定されています。
Agent Mode(エージェントモード)
Geminiアプリに新しく追加される「Agent Mode」は、Project Marinerの能力をより広いユーザー向けに提供します。ユーザーが他の作業をしている間に、AIがバックグラウンドでタスクを実行します。
ユースケース例:
- アパート探しの自動化(物件情報収集、比較など)
- 旅行計画の支援(フライト、ホテル、観光スポットの検索)
- 調査業務の効率化(複数のソースから情報を収集、要約)
- ショッピングの最適化(価格追跡、ディール発見)
Computer Use API
開発者がエージェントAI機能を自分のアプリに組み込むための「Computer Use API」も発表されました。これにより、開発者はユーザーに代わってウェブを閲覧したり、他のソフトウェアツールを使用したりできるアプリケーションを構築できます。この機能は現在、Gemini APIでTrusted Tester向けに提供されています。
クリエイティブAIツール:誰もがクリエイターになれる時代
Google I/O 2025では、画像、動画、音楽などを生成するための革新的なAIツールが多数発表されました。これらのツールは、クリエイティブな表現の可能性を大きく広げます。
Veo 3 – 次世代の動画生成AI
Veo 3は、Googleの最新の動画生成モデルで、Veo 2の品質を向上させただけでなく、初めてネイティブオーディオ付きの動画生成を実現しました。
主な進化点:
- オーディオ統合:背景の交通音、鳥のさえずり、キャラクター間の会話など、動画に合わせた音声を自動生成
- 物理法則の理解:より自然な動きと物理現象の表現
- 正確なリップシンク:発話と口の動きが自然に同期
- プロンプト理解力:短いストーリーをプロンプトで伝えると、それを動画として具現化
Veo 3は米国のGoogle AI Ultra加入者向けにGeminiアプリとFlowで提供されています。また企業向けにはVertex AIでも利用可能です。
Imagen 4 – 進化した画像生成AI
Imagen 4は、精度と速度を兼ね備えた最新の画像生成モデルです。特に従来の画像AIの弱点であった「テキストとタイポグラフィ」の生成精度が大幅に向上しました。
主な特徴:
- ディテールの精細さ:複雑な生地、水滴、動物の毛並みなどの細部を精密に表現
- 高解像度出力:最大2k解像度の画像生成が可能
- タイポグラフィの改善:グリーティングカード、ポスター、コミックなどのテキスト要素を正確に生成
- 多様なスタイル:写実的抽象的な表現まで幅広く対応
Imagen 4はGeminiアプリ、Whisk、Vertex AI、およびWorkspace(Slides、Vids、Docsなど)で利用可能です。近日中に、Imagen 3より10倍速い高速バージョンもリリース予定です。
Flow – AIによる映画制作ツール
Flowは、Veo(動画)、Imagen(画像)、Gemini(推論)モデルを組み合わせた革新的なAI映画制作ツールです。クリエイターとともに開発され、シームレスに映画的なクリップ、シーン、ストーリーを作成できます。
主な機能:
- 自然言語によるショット指示:言葉でカメラワークや画面構成を指定
- アセット管理:キャスト、ロケーション、オブジェクト、スタイルなどの要素を一元管理
- カメラコントロール:回転、ドリー、ズームなどの精密なカメラ動作を定義
- シーン拡張:縦向き動画を横向きに変換するなど、フレームを拡張
FlowはGoogle AI ProおよびUltraプラン加入者向けに米国で提供されており、AI Proでは「Veo 2」を、AI Ultraでは「Veo 3」を利用してより高度な映像制作が可能です。
Lyria 2 – 音楽創造の新時代
Lyria 2は、音楽生成のためのAIモデルで、強力な作曲機能と無限の探索可能性を提供します。また、「Lyria RealTime」は、リアルタイムで音楽を作成、制御、演奏できるインタラクティブな音楽生成モデルです。
提供形態:
- YouTube Shorts統合:クリエイター向けの音楽生成ツール
- Vertex AI:企業向け音楽生成API
- Lyria RealTime:API経由およびAI Studioで提供(MusicFX DJを強化)
責任ある生成AI
Googleは、生成AIコンテンツの透明性を高めるため、「SynthID」というウォーターマーク技術を使用しています。2023年の導入以来、100億以上の画像、動画、音声ファイルにウォーターマークが施されており、Veo 3、Imagen 4、Lyria 2の出力にもSynthIDウォーターマークが含まれています。また、新たに「SynthID Detector」も発表され、コンテンツがAIによって生成されたものかどうかを確認できるようになりました。
Android XR:現実と仮想を融合する新次元
「Android XR」は、AR(拡張現実)とVR(仮想現実)を統合した新しいプラットフォームです。Gemini時代の最初のAndroidプラットフォームとして、ヘッドセット、メガネ、およびその中間のデバイスのエコシステムを強化します。
Android XRの基本概念
Android XRの目標は、AIアシスタントが常にユーザーの視点から世界を見て、ハンズフリーでサポートを提供できるようにすることです。現実世界と仮想世界の両方で、ユーザーがより没入感のある体験を得られるよう設計されています。
主な特徴:
- Gemini統合:見ているものを理解し、ユーザーに代わって行動するAIアシスタント
- ハンズフリー操作:音声コマンドと視線入力による直感的な操作
- コンテキスト認識:周囲の環境や状況を理解して適切な情報を提供
- クロスデバイス連携:スマートフォンやその他のデバイスとシームレスに連携
XRヘッドセット
Samsung「Project Moohan」などのXRヘッドセットは、没入型体験と無限スクリーンを提供します。Geminiによる視覚的理解と行動支援機能を搭載し、2025年後半に発売予定です。
XR対応スマートグラス
カメラ、マイク、スピーカーを備えたスマートグラスは、スマートフォンと連携してアプリにアクセスできます。オプションのレンズ内ディスプレイにより、必要な情報をプライベートに表示します。
Android XRグラスの実用例
Google I/Oのデモでは、Android XRグラスの実際の用途が紹介されました:
- リアルタイム言語翻訳:会話の相手の言葉をリアルタイムで翻訳し、字幕として表示
- ハンズフリーメッセージング:ポケットからスマホを取り出さずに音声でメッセージを送受信
- ナビゲーション:見ている方向に合わせた視覚的な道案内を表示
- 簡単な写真撮影:スマホを取り出さずにその瞬間を撮影
これらの機能により、より自然でスムーズな日常体験が可能になります。
ブランドパートナーシップ
Googleは、実用的かつスタイリッシュなXRグラスを開発するために、Gentle MonsterやWarby Parkerなどの革新的なアイウェアブランドと提携しています。将来的にはKeringアイウェアとも協力予定です。また、ヘッドセット向けのAndroid XRに続き、SamsungとはXRグラス向けのプラットフォーム拡張も進めています。開発者は2025年後半からこのプラットフォーム向けの開発を始めることができます。
Google AIサブスクリプション:最先端AI技術を手に入れる方法
Google I/O 2025では、最先端のAI機能へのアクセスを提供する新しいサブスクリプションプランが発表されました。従来の「AI Premium」プランは「Google AI Pro」に改名され、新たに「Google AI Ultra」が追加されました。
Google AI Ultra – VIPパスレベルのAI体験
Google AI Ultraは、最も高度なAI機能と実験的な機能への早期アクセスを提供する最上位プランです。映画制作者、開発者、クリエイティブプロフェッショナル、またはGoogleのAI技術の最高レベルのアクセスを求める人向けに設計されています。
主な特典:
- Gemini最高性能版:最高の使用制限、Deep Thinkモード(近日提供)
- Flow高度な機能:1080pの動画生成、高度なカメラコントロール、Veo 3へのアクセス
- Project Mariner:最大10個のタスクを同時に管理するエージェントプロトタイプ
- YouTube Premium:広告なしでYouTubeを視聴、バックグラウンド再生
- 30TBのストレージ:Google Photos、Drive、Gmailでの大容量ストレージ
価格:月額$249.99(初回ユーザーは最初の3か月間50%オフ)
Google AI Proの進化
従来の「AI Premium」プランが「Google AI Pro」に改名され、新機能が追加されました。追加料金なしで、以下のような機能が利用できるようになります:
- FlowでのAI映画制作:Veo 2モデルを使用した映像作成
- Chromeでの早期アクセス:ブラウザに統合されたGeminiへの早期アクセス
価格:月額$19.99(変更なし)
また、日本、ブラジル、インドネシア、イギリスの大学生は、米国に続いて1学年間無料でGoogle AI Proにアクセスできるようになります。
機能 | Google AI Pro | Google AI Ultra |
---|---|---|
月額料金 | $19.99 | $249.99 |
Geminiモデル | Gemini Advanced | Gemini Advanced + Deep Think |
Flow | Veo 2使用(月間100生成) | Veo 3使用(高い使用制限) |
Project Mariner | × | 〇 |
ストレージ | 2TB | 30TB |
YouTube Premium | × | 〇 |
その他の注目すべき発表
Google Beam
以前「Project Starline」として知られていた没入型3Dビデオ会議プラットフォームが「Google Beam」として正式発表。6台のカメラアレイを使用して参加者を多角的に捉え、特別な眼鏡なしでリアルな存在感を生み出します。HPがハードウェアパートナーとして参加し、Google Meetユーザー向けに近日提供開始予定です。
Google Meetリアルタイム翻訳
Google Meetに新機能として、会議中のリアルタイム音声翻訳が追加されました。話者の声とトーンを保持しながら、自然な翻訳を実現します。現在は英語とスペイン語間で利用可能で、今後さらに多くの言語が追加される予定です。
Google AI Modeでの検索
Google検索に新機能「AI Mode」が追加。より長く複雑なクエリに対応し、「クエリファンアウト技術」を使って検索を複数部分に分割し処理します。旅行計画の立案や食事プランの作成など、複雑なタスクをサポートします。
AI試着機能
ショッピング体験を向上させるAI機能として、自分の写真をアップロードすると服の試着を視覚化できる機能が発表されました。人体と衣服の物理的特性を理解する新モデルにより、実際に着た場合の見え方をリアルに再現します。
Stitch UIジェネレーションツール
自然言語や画像からUIデザインとコードを生成するツール。デザイナーとフロントエンド開発者が迅速にアイデアを形にできるよう支援します。Gemini 2.5 Proを活用し、Figmaへの貼り付けやコードエクスポートも可能です。
GenAI SDK
開発者がGoogleの最新生成AIモデルを使ってアプリを構築するためのSDK。Web、Android、Android XRなど、さまざまなプラットフォーム向けにAI機能の統合を簡素化します。
結論と今後の展望
Google I/O 2025の発表内容は、AIがいかに急速に進化し、私たちの日常生活に浸透していくかを明確に示しています。特に注目すべき点は以下の通りです:
- AIはより「エージェント的」になっている:単に質問に答えるだけでなく、ユーザーに代わって実際に行動を起こし、複雑なタスクを自律的に実行できるようになっています。
- クリエイティブAI技術の一般化:高品質な画像、動画、音楽を生成する技術が誰でも使えるようになり、創造的な表現の民主化が進んでいます。
- AIと物理世界の融合:Android XRなどの技術により、AIは現実世界を「見て」理解し、リアルタイムでサポートする能力を獲得しつつあります。
- AI技術の階層化:Google AI Pro/Ultraのような段階的なサービス提供により、AI技術への「アクセス格差」が生じる可能性があります。
今後は、これらのAI技術がさらに進化し、私たちの生活のあらゆる側面に組み込まれていくことが予想されます。Googleが目指す「普遍的なAIアシスタント」の実現に向け、AIは単なるツールからデバイスや文脈を超えてシームレスに支援する「知能の環境レイヤー」へと進化していくでしょう。
一方で、責任あるAI開発の原則、安全対策、倫理的懸念への対応はますます重要になります。特に強力で自律的なAIシステムが普及するにつれて、プライバシー、セキュリティ、コンテンツの真正性に関する課題に適切に対処することが不可欠となるでしょう。
AIの急速な進化は、私たちの働き方、学び方、創造方法、そして互いに関わり合い方を根本から変える可能性を秘めています。私たちはまさに、AIによって形作られる新時代の入り口に立っているのです。