Googleは、Search Live機能をグローバル規模で拡大し、この人工知能(AI)ベースの検索ツールを200以上の国と地域に導入することを発表しました。
この動きは、検索エクスペリエンスをテキストからマルチメディアインタラクションに移行する戦略における新たな進歩を示しています。
Search Liveを使用すると、ユーザーは音声と画像を使用して検索エンジンとリアルタイムで直接対話できます。
機能は、自然な会話処理、多言語サポート、および迅速な応答を専門とするGoogleの新しいAIプラットフォームであるGemini 3.1 Flash Liveモデルに基づいています。
従来のようにキーワードを入力する代わりに、ユーザーはAndroidまたはiOSでGoogleアプリを開き、検索バーの下にある「Live」アイコンをタップして、音声で質問を開始するだけです。
システムは音声で即座に応答し、ウェブ上の関連情報リンクを提供します。ユーザーは追加の質問を続け、シームレスな会話を作成することもできます。
Search Liveのハイライトは、カメラを組み合わせて視覚的なコンテキストを提供する機能です。
ユーザーはカメラを特定のオブジェクトまたは状況に向け、リアルタイムで指示と説明を受け取ることができます。
たとえば、家具を組み立てるとき、ユーザーは操作する必要がある詳細にカメラを向け、ステップバイステップの指示を受け取るだけです。
この機能は、Googleレンズと組み合わせて、画像認識からライブダイアログへの切り替えも可能です。
Googleによると、このマルチメディアアプローチは、検索エンジンを日常生活の状況、特にユーザーが迅速なサポートを必要とする場合や、手動操作が不便な場合に、より便利にするのに役立ちます。
これは、デジタル検索と現実世界でのインタラクションのギャップを縮める上で重要な進歩と見なされています。
グローバルな範囲を拡大することに加えて、Googleはインドでの言語サポートも強化しています。インドは人口が多く、言語が多様な市場です。
以前の英語とヒンディー語に加えて、サーチライブは現在、ベンガル語、グジャラート語、カンナダ語、マラヤーラム語、マラーティー語、オディア語、タミル語、テルグ語、ウルドゥー語など、多くの地域言語をサポートしています。
この追加は、AIのローカライズ戦略を反映しており、ユーザーが母国語でテクノロジーに簡単にアクセスできるようにします。
Search Liveの発展は、ユーザーが検索エンジンと対話する方法の変化の傾向を示しています。
コンテキストベースの会話クエリは、単一のキーワードによる検索スタイルに徐々に取って代わっています。これにより、より複雑な質問を処理し、実際のニーズに近づける能力が開かれます。
Googleは、今後もSearch Liveを完成させ続け、機能を拡張し、応答性を向上させると述べています。
AIをコア製品に深く統合することで、同社は検索エンジンをグローバルユーザーにとってよりインテリジェントで、柔軟で、パーソナライズされたアシスタントに変えることを期待しています。