ニュース本文


 Googleの設計チームは、スマート機器が近くにいる人の動きをレーダー技術で検知することにより、ウェイクワードなどの音声やタップなどの操作なしで、自動的に対応できるようにする方法を検討しているという。同社が米国時間11月22日に明らかにした

GoogleのNest Hub
Googleの「Nest Hub」
提供:Chris Monroe/CNET

 同社はその例として、レシピ動画を見ながら料理をしている人が画面の前を離れると、動画が自動的に一時停止し、戻ると再生するという機能を挙げている。

 レーダー技術に基づくこの検知プラットフォーム「Soli」は、6年前から開発されている。人の動きに反応するだけでなく、「ソーシャルインテリジェンス」を組み込むことによって、「より調和のとれた形でユーザーの意図を汲み取って私たちの日常生活に参加」できる技術を開発しようというのが、その構想だ。

 その狙いは、技術をさらに背景に溶け込ませることにある。これは、Googleがアンビエントコンピューティングと呼ぶもので、人間がその存在を意識しないほど深く技術を統合するという概念だ。

 Googleはまだ、主に検索に紐づけられた広告によって売上高の大半を得ているが、アンビエントコンピューティングという未来を実現するために、人工知能(AI)に大きく投資している。Googleの親会社Alphabetの最高経営責任者(CEO)であるSundar Pichai氏は、AIとアンビエントコンピューティングを、5月に開催した年次開発者会議「Google I/O」の焦点としていた。

 Googleは10月、「Pixel 7」シリーズと「Pixel Watch」を発売し、同社の「Tensor G2」チップがAIを活用して写真撮影と言語翻訳を改善できることを強調していた。「Android」との競争を続けていくには、未来的なデバイスのエコシステムを構築することが必要になるかもしれない。

 Soliのレーダー技術がいつホームデバイスに搭載されるかはまだ不明だが、2023年に発売予定の「Pixel Tablet」が、この技術を搭載するGoogleの主力端末になる可能性がある。

この記事は海外Red Ventures発の記事を朝日インタラクティブが日本向けに編集したものです。



記事一覧 に戻る 最新ニュース読み比べ に戻る