「Google レンズ」、ビジュアル検索の進化
産経新聞の記事によると、2017年に登場したGoogle レンズは現在、月に200億件のビジュアル検索を処理している。今後ショッピング機能を強化し、動画や音声などによる検索方法に対応する。
と書かれています。
2017年に登場した「Google レンズ」の検索機能は、つい最近までSFの世界でしかありえそうになかった機能を実現するものでした。
スマートフォンのカメラを物体に向けると、Google レンズが写っている物を識別して関連情報を表示したり、場合によっては購入したりすることが可能になったのだ。目の前にあるものを説明する文章を文字で打ち込むという不便な操作を省いた、新しい検索方法が登場したのでした。
Google レンズの検索は、AI業界で最近話題となっている「マルチモーダル」に対応します。
これはつまり、ユーザーは動画や画像、音声による入力を組み合わせて検索できるようになるという意味です。
スマートフォンのカメラを物体に向け、焦点を合わせるために画面をタップし、結果が表示されるのを待つ代わりに、Google レンズを物体に向けながら音声で指示を出せるようになるとのこと。
例えば、「あの雲はなんという種類のものですか?」や「このスニーカーはどこのブランドのもので、どこで買えますか?」と音声で質問することができます。