Googleは、新機能「Search Live」(Live in Search)を米国の英語環境で公開しました。Labsへの参加は不要で、声とスマホのカメラを使い、検索と自然な往復対話ができるのが特徴です。Google LensとAIモードの組み合わせにより、目の前の状況を“見て”理解しながら答える次世代の検索体験が始まります。
発表の概要
米国で英語版が公開—Labs登録不要
本日より、Search Liveは米国内の英語ユーザーが利用可能になりました。試験運用のLabs登録は不要で、対応環境からすぐに体験できます。
音声とスマホカメラで対話的に検索
マイクに話しかけたり、スマホカメラで状況を映しながら質問すると、検索が文脈を保ったまま往復の会話を続けます。途中で言い直しや追加質問にも対応し、より自然な操作感を目指しています。
Google LensとAIモードの統合
Search LiveはGoogle LensとAIモードを組み合わせ、カメラが捉えた情報を踏まえて理解・回答する設計です。視覚情報を起点に、会話の流れの中で問い直しや深掘りがしやすくなります。
できることと想定シナリオ
目の前のモノや状況を映して質問
カメラで対象を映し、気になる点をそのまま会話で尋ねられます。以下は想定される活用例です。
- 壊れた家電の部品を映して、名称や交換方法を相談
- 植物や料理の材料を映して、種類や扱い方を確認
- 看板やメニューを映して、読み取りや背景説明を依頼
- 旅行先で周辺の様子を映し、行き方や見どころを追加質問
音声だけで続けられる往復対話
手が塞がっている場面でも、音声のみで質問・聞き返し・条件の言い直しが可能です。思いついた疑問をその場で掘り下げやすく、検索が「会話のパートナー」に近づきます。
利用条件と注意点
提供範囲
現時点の対象は「米国の英語環境」です。今後の対応地域や言語、対応端末の詳細は公式の続報待ちとなります。
プライバシーへの配慮
音声や映像の入力はクラウドで処理される可能性があります。撮影範囲や周囲の人への配慮、権限・履歴・データ設定の確認を行い、安心して使える環境を整えましょう。
従来のレンズ検索との違い
1枚の画像から答えを得る従来のLens中心の検索に対し、Search Liveは「映し続けながら会話を重ねる」体験にシフトします。文脈維持がしやすく、やり取りの中で条件変更や詳細化が可能です。
ビジネスや教育への影響
店舗・商品発見の体験向上
実店舗の棚で商品を映しながら違いを確認したり、レビューの要点をその場で尋ねるなど、購入前の情報収集がより直感的になる可能性があります。
学習やサポートの新しい導線
教材や工作の手順を映して質問したり、問題箇所を示して助言を受けるなど、視覚と会話を組み合わせた学習・サポート体験が期待されます。
今後の展望
まずは米国の英語圏で実装が始まりました。今後の言語・地域の拡大とともに、ユーザー体験、検索UI、情報探索の流れにどのような変化が起きるか注目されます。日本展開は未定ですが、最新の提供状況や設定項目を確認しつつ、メリットとプライバシー配慮のバランスを取りながら活用していくのがよいでしょう。




