調査ブログ

ブログを検索

Mobile App Strategy

Google I/O 2017レポート:人工知能やInstant Apps関連で注目の発表

App Annie

Google I/Oが開催され、Android、仮想現実(VR)、人工知能(AI)に関する多数の発表が行われました。なかでも注目されたのは、Google LensをはじめとするAI関連製品です。

今年もGoogle I/Oカンファレンスが開幕し、Android OSやGoogle Playアプリエコシステム、スタンドアロン型の仮想現実(VR)ヘッドセット、人工知能(AI)と機械学習を用いた新しい機能やサービスなど、さまざまな製品やプラットフォームが発表されました。なかでも注目されたのはAIですが、まずは世界最大のスマートフォンプラットフォームであるAndroid関連の発表から見ていきましょう。

AndroidとGoogle Playをめぐる動向

Googleの発表によると、Androidを搭載したスマートフォンとタブレットの数は現在20億台に達しており、このインストールベースのかなりの割合を新興国市場が占めています。しかし、こうした市場で販売されている端末の多くは、スペックに制約があります。また、これらの地域では帯域幅に制約があり、インターネット接続も安定していません。このような問題を軽減するため、Googleが発表したのが「Android Go」です。Android Goは次期Android OSの軽量版で、メモリが1GB未満の端末でも動作します。ただし、このOSによって端末のリソースにかかる負担を減らすことができても、サードパーティ製アプリによって大きな負担がかかる可能性があります。そこでGoogleは、低リソース端末や低帯域幅環境での利用に最適化されたアプリをGoogle Playで目立つように表示する方針を明らかにしました。Googleはまた、「Treble」と呼ばれるAndroid用モジュラーベースを発表しました。これは、OEMメーカーがAndroidの最新アップデートを自社端末に提供する作業を大幅に効率化するためのものです。

Instant Appsがすべてのディベロッパーに開放

次に、Googleは「Instant Apps」を一般公開することを明らかにしました。Instant Appsが初めて公開されたのは2016年のGoogle I/Oでのことでしたが、App AnnieはこのInstant Appsについて、アプリ利用の効率を高め、アプリストアのバリューチェーンを進化させるための取り組みだと分析していました。

Androidアプリのユーザーあたり平均セッション数は、2017年3月に前年同月比で9%増を記録しました。

Androidフォンのユーザーあたり平均セッション数が前年比で9%増加えたことからわかるように、アプリは全世界の消費者にとって、日常生活の中心的存在になりつつあります。しかし、何百万本というアプリが利用可能になった今でも、アプリを見つける(見つけてもらう)ことが、ユーザーとディベロッパーの双方にとって最初の難関となっています。そこでInstant Appsを利用すれば、ネイティブアプリをインスタントアプリやウェブ経由で発見できるようになるため、アプリを探すわずらわしさがある程度軽減され、消費者がより多くのアプリをより頻繁に利用するようになると予想されます。ただし、App Annieが2016年に指摘したように、ディベロッパーがInstant Appsに対応するためには、既存のコードをモジュール化しなければなりません。このプロセスには時間がかかるため、ディベロッパーの対応ペースは緩やかなものになると思われます。

人工知能が新たな競争の舞台に

Googleが、AIをコンピューティングにおける次の大きなパラダイムシフトとみなしていることは間違いありません。実際、同社はそのような考えに基づいて、AIを活用するための準備を進めています。ただしAIは、90年代半ばに普及した(ネットワークのネットワークである)インターネットと同じく、ほかの何かを実現するための技術にすぎません。当時、本当の意味で変化をもたらしたのは、インターネット上に構築され、情報への即時アクセスを可能にしたワールドワイドウェブ(WWW)です。そして現在、Googleは、AIにおけるWWWの座を狙う2つの取り組みを並行して進めています。1つは音声アシスタントの「Google Assistant」、もう1つはコンピュータビジョンの「Google Lens」です。

Google Assistant

Google Assistantは2016年末にリリースされましたが、当初はGoogle Pixel端末でしか利用できませんでした。その後、少しずつ範囲が拡大され、多数のAndroid端末で利用できるようになっただけでなく、このほどiPhoneでも利用可能になりました。

リリース当初、Googleはこの音声アシスタントを、次世代コンピューティングのビジョンとして打ち出していました。しかし、App Annieがすでに指摘したように、コンピューティングにおけるパラダイムシフトは「チック・タック」のパターンをたどります。これは、最初の周期で新しいデバイスのプラットフォームが登場し、次の周期でその能力が劇的に拡大するというパターンです。ただし、注意すべき点が1つあります。あるデバイスプラットフォームがクリティカルマスに達している場合、すでにユーザーの間に根強い習慣が確立されているため、新しいインタラクションモデルの普及は難しくなります。

しかし、Google Assistantの機能の多くは、マルチタッチによるインタラクションモデルにも対応しています。したがって、Google Assistantには実に大きな可能性が存在するとApp Annieでは考えています。Googleが今後発表すると思われる内容を考えれば、特にそう言えるでしょう。

Google Lens

Google Lensは多くの点で、今年のカンファレンスにおいて最も興味深い発表となりました。Googleの機械学習とAIの技術を動員して開発されたGoogle Lensは、カメラレンズに映し出された物体をリアルタイムで認識し、役に立つ情報を提供したり、その情報に即した動作を行ったりすることができます。たとえば、WiFiルーターのログイン情報が書かれた場所にカメラを向けるだけでネットワークに接続したり、商品や場所に向けるだけでその詳しい情報を入手したりすることができるのです。こうした動作は画面上で行われる上、スマートフォンのカメラは(Pokémon GOが証明したように)すでにどこでも利用されていることから、消費者は従来と全く異なる行動を取る必要はありません。また、その場にあるものに関する情報を検索する際のわずらわしさが、間違いなく少なくなります。実際、この機能はビジュアル検索と表現したほうが適切かもしれません。
Google Lensは1年かけて段階的に実装され、まずGoogleフォトとGoogle Assistantで利用可能になる予定です。ただし、ある時点で、カメラアプリの一部として組み込まれたり、サードパーティのアプリディベロッパー向けAPIが登場したりする可能性もあります。App Annieでは、位置情報技術と同じく、今後はこのようなコンピュータビジョン技術が、ディベロッパーによる新たなイノベーションや数十億ドル規模のスタートアップ企業を次々に生み出すと予想しています。しかも、コンピュータビジョンの持つ可能性は、今のコンピューティングの時代だけにとどまりません。インターネットやWWWが、次世代のコンピューティングデバイス(モバイル)が台頭する下地を築いたように、AIやコンピュータビジョンが、「視野」デバイス(拡張現実)の時代の先鞭をつける可能性があるとApp Annieは考えています。

2017 M05 29

Mobile App Strategy
Top and Trending Apps

関連するブログ記事はこちら