Googleスマートフォン「Pixel 4」で、モーションセンシングレーダーSoli”を使ったモーション操作機能「Motion Sense」が2月4日から順次、国内向けに提供が開始されています。同機能はSoliの国内法での関連規定の整備が必要として、2020年春の提供開始が予告されていたもの。Google2月4日Motion SenseとPixel 4向けの新しいGoogle アシスタントについて記者説明会を開催しました。

Soliレーダーディスプレイ上部にインカメラや顔認証IRカメラと並んで配置されています。常時電波を発信し、対象に当たって反射した電波をセンシングすることで物や動きを検知する仕組み。Pixel 4では「プレゼンス」「リーチ」「スワイプ」を認識可能になります。

「プレゼンス」は、人の存在の認識。スマートフォンの0.6m半径に人が近づくと画面OFFの状態からロック画面を表示します。逆に、人が離れたことを認識して画面をOFFにするため、消費電力を低減できるとのこと。

リーチ」は、スマートフォンを手に取ろうとする動きの認識。テーブルの上に置いたスマートフォンに手を伸ばすと、スマートフォンを持ち上げる前から顔認証センサーがONになり、所有者を認識すると持ち上げるのとほぼ同時にロックが解除できます。一般に、スマートフォンの顔認証は手に取ってから顔認証センサーが起動し、認証後にロックが解除されるまで待ち時間が発生することから、GoogleはPixel 4の顔認証を「世界最速の顔認証」と評しています。

スワイプ」は、文字通りスワイプ動作を画面に触れずに認識できること。アラームが鳴っている際に画面の上で手を振るとスヌーズできたり、着信音が鳴っているときに手を振るとサイレントモードに切り替えられます。

音楽再生中の曲送りも、スマートフォンに触れずにスワイプ動作から可能。プリインストールされたインタラクティブ壁紙では、ポケモンをなでたり手を振ったりして触れ合うこともできます。

Googleはこうしたモーション操作について、空間的なコンテクスト(文脈)、非言語コミュニケーション、ボディランゲージといった人間らしいコミュニケーションを可能にして、スマートフォンが「より人間らしくふるまう」ための機能と定義しています。

このために有用なセンサーレーダーであると考えてレーダーセンサーの開発を進め、小型化によりスマートフォンへの実装が可能に。センシング内容はオンデバイスで処理され、端末やクラウドに保存されない点も、消費電力やプライバシー保護の点でメリットになります。

小さな動きも認識できるのが特徴で、例えば2本指を時計回りや反時計回りに動かすことでスマートウォッチを操作するインタフェースも検討しているとのこと。

Pixel 4に搭載された新しいGoogle アシスタントは、クラウドによる処理とオンデバイス処理を両立するハイブリッドモデルを採用。これにより、Google アシスタントからのモバイルアプリウェブサイトの立ち上げ、端末の設定処理などがより高速化しています。起動方法も追加され、画面下方の隅から斜め上にスワイプする操作でも起動が可能になりました。Pixel 4向けの新Google アシスタントは、英語圏以外では日本で初めて実装されたもの。今後も新機能を順次追加していくとが予告されています。

―― 面白い未来、探求メディアガジェット通信(GetNews)』
スマホが「より人間らしくふるまう」機能 GoogleがPixel 4向けにSoliレーダーを使ったモーション操作“Motion Sense”と新Googleアシスタントを提供開始