Googleはベストショットを自動で撮り溜めてくれるAIカメラ「Clips」を10月に発表しところたが、撮影タイミングをすべてAIに任せることに物足りなさを感じた方もいるだろう。そんな方たちが待ち望んでいた、認識対象を独自に設定できる世界が思ったより早くやってきそうだ。

Googleは11月30日、ラズベリー・パイ・ゼロ(Raspberry Pi Zero)Wボードを活用するAIカメラ「AIY Visionキット」を発表した。

Visionキットは、ローカルでニューラルネットワークモデルが活用でき、クラウドへの接続を必要としない。そしてなんと、プリセットされたモデルだけでなく、機械学習により独自のモデル追加が可能だ。

VisionキットではRaspberry Piを活かした連携が肝となる。その使い方および機能を見ていこう。

・TensorFlowベースのツールで機械学習

Visionキットには、3つのニューラルネットワークモデルが活用できるソフトウェアを搭載。人、猫、犬の検出や顔の検出および表情に現れる感情の判別、1000の共通オブジェクトの認識がおこなえるようになっている。

独自のニューラルネットワークモデルのトレーニングおよび再学習には、ソフトウェアに組み込まれたTensorFlowベースのツールを使用する。

Googleの開発者ブログには活用例として、ホットドックかそうでないかを見分けたり、誰かが部屋に入ってきたら音楽を変えたり、彼女が家に帰ってきたら犬用のドアを開けたり…といったものが挙げられていて、工夫次第でさまざまな連携が実現しそうだ。

・アクションはPython APIで管理

RGBボタンの色の変更、電圧変換による音色の調整、4つのGPIOピンの挙動…といったものを、提供されているPython APIで管理できるので、画像認識と組み合わせて活用したいところ。

また、音声認識に興味がある方には、同じGoogleのAIYプロジェクトから、音声認識をローカルで学習させられる「Voiceキット」もすでにリリース済みとなっていて、もちろんこちらもVisionキットとの連携が可能だ。

ちなみに、45ドル(約5000円)のVisionキットには、別売のRaspberry Pi Zero Wボード、Raspberry Pi Camera 2およびMicro SDカードが必要となる。

・ローカル機械学習は民主化の兆し

Visionキットに関しては、今のところアメリカのMicro Centerへ直接行くしか入手方法がなく、現地に友人がいない方は日本でのリリースを待つしかないだろう。

一方、Amazonも先日行われた年次カンファレンス「re:Ivent」にて、映像撮影対象に関してローカルで機械学習を走らせることができる「DeepLens」を発表している。

こうしたローカルでの機械学習は、生活を大変便利にするだけでなく、サービスの質を劇的に高めるもので、今後も類似プロダクトのリリースが相次ぐと予想される。

参照:Google’s new kit uses Raspberry Pi to bring image recognition to your project/DIGITAL TRENDS
参照:Introducing the AIY Vision Kit: Add computer vision to your maker projects/Google Developers

GoogleのAIカメラDIYキットはRaspberry Piを活用、5000円の自分専用機械学習機!