調査ブログ

ブログを検索

Mobile App Strategy

Googleが音声入力に力を入れる理由とは

App Annie

Googleの提示した「パーソナルなGoogle」とは?ITにおけるパラダイムシフトの観点から分析します。

Googleは10月4日、「Made by Google」ハードウェア製品群を発表しました。これには、スマートフォンのPixel、モバイル仮想現実(VR)ヘッドセットのDaydream View、アップグレードされたChromecast、音声操作に対応したスピーカーのGoogle Homeなどが含まれます。しかし、このイベントの基調となるテーマは、ハードウェアにはほとんど関係なく、人工知能(AI)を中心とするコンピューティング世界に向けたGoogleのビジョンに関するものでした。PixelスマートフォンとGoogle Homeの両方に内蔵されたGoogle Assistantが、そうしたビジョンの最初の表明というわけです。

Googleのサンダー・ピチャイCEOは、イベントの冒頭でこのビジョンを説明しました。同CEOによると、コンピューティングの世界におけるパラダイムシフトは、およそ10年に1度起きているといいます。まずは1980年代初めから半ばにかけてPCが主流になったこと。90年代半ばのウェブが2度目、2007年頃に本格的に始まったスマートフォン革命で現在に至ります。この流れを踏まえると、私たちは今まさに次のパラダイムシフトを迎える時期にいることになります。次のパラダイムシフトにおいては、声で操作できるバーチャルアシスタントが各サービスとの接し方の中心になる、というのがGoogleの考えです。Googleのビジョンは、控えめに言っても大胆で野心的であり、実現は大きな挑戦になるでしょう。これはITにおける過去のパラダイムシフトを牽引してきた諸要素を振り返れば明らかです。

ITのパラダイムシフトにおける「チック・タック」の法則

最近のコンピューティング革命を振り返ると、チック・タック」のパターンによって特徴づけられていました。まず「チックの周期」で、新しいデバイスのプラットフォームが登場(例:PC)。ポイント&クリックのインターフェイスを伴うPCは、それまでのコンピューティングプラットフォームとはまったく異なるインタラクションモデルを備えていました。加えて、PCはコンピューティングを新しい文脈に持ち込み、「すべての家庭とすべてのデスクにコンピュータを」というBill Gates氏のビジョンを象徴するものになりました。これらの要素がソフトウェアのイノベーションを引き起こし、パーソナルコンピューティングの時代が始まったのです。詳細に見ていくと、これらの要素はまた、スマートフォンにおけるアプリのイノベーションと、スマートウォッチに「キラーアプリ」が欠けていること、それぞれの説明にもなっています。

最近の「タックの周期」では、ウェブが瞬時のコミュニケーションと離れた場所へのソフトウェア配布を可能にしたことで、PCの能力が劇的に拡大しました。しかし、このパラダイムシフトは、既存のインタラクションモデルとコンピューティングの同じ文脈の上に構築されました。ウェブブラウザの操作はPCアプリケーションとほぼ同じで、ユーザーは従来のポイント&クリック式インターフェイスでブラウザとのインタラクションを行い、コンピューティングは屋内にとどまっていました。製品に関するパターンがすでに確立している場合、ユーザーに定着した習慣を変えるのが極めて難しいのは、偶然ではありません。例えば、使い勝手が「まあまあ」のデビットカードやクレジットカードに、モバイル決済が苦戦していることを考えるとわかりやすいでしょう。

音声入力 VS 従来の使い方

AIとコンテクスチュアル・コンピューティングが、インタラションの摩擦を減らし発見を容易にする可能性を秘めていることには、疑いの余地はありません。しかし、声が中心のインタラクションモデルに移行することは、消費者に対し、マルチタッチによるインタラクションを中心に長く確立された習慣を変えるよう求めます。

現在、音声インタラクションが存在しないというわけではありません。Googleは以前、現在モバイルの検索クエリの20%が声によるもだと述べていました。各クエリがGoogleアプリの1セッションに相当すると仮定するなら、アプリ内のセッションの20%で声が使われたことになります。しかし、CortanaDragon Mobile AssistantHoundといった 音声アシスタントの全セッションを含めても、音声インタラクションがAndroidスマートフォンのセッション数に占める割合は、2016年8月の1カ月間でわずか1.2% にしかなりません。楽観的に考えて、Google Chromeの全セッションの20%を追加したとしても、音声操作が1カ月のセッション数に占める割合は2%でしかないのです。もちろん、音声認識とGoogle Assistantの機能が向上するにつれて、この割合は増えるでしょう。それでも、あらゆる場所で使われ、他の人が周りにいる場所で使われることも多いデバイスで、声が主要なインタラクションモデルになるのは難しそうです。もちろん、Google HomeやAmazon Echoのような声で操作できるスピーカーの登場を次の「チックの周期」とみなすなら、こうした議論も変わってくるでしょう。しかし、これらの製品がスマートフォンと同様の規模まで普及するには、まだしばらく時間がかかりそうです。

Googleが音声入力を次のパラダイムの中心に位置づけた一方で、Google Assistantの機能はそれ以上の広がりを見せています。同社が示した目標は、万人のための「パーソナルなGoogle」を構築するというものです。この目標のために、Google Assistantは個人の嗜好や習慣の集積所となり、蓄積された情報は、アプリやオンラインサービスを苦労なく容易に見つけられるように活用されます。ユーザーがさまざまな状況でGoogle Assistantを呼び出すと、次に使うと予想されるアプリが自動的に立ち上がり、音声インタラクションに頼ることなく同様の目標を達成できるようになるわけです。予定されている Google Assistant内でのサードパーティアプリの統合が開始されると、この機能はますます強力になるはずです。

もちろん、多くのモバイルサービスは今後も、アクティブなユーザーインターフェイスを必要とするでしょう。その場合、AIが果たせる役割は、ユーザーがアプリストアのダウンロードページにリダイレクトされる際の摩擦を減らすことくらいしかありません。今年のGoogle I/Oで発表された別の大きな構想である Instant Appsは、こうした問題の解決を目指しています。

2016 M10 17

Mobile App Strategy

関連するブログ記事はこちら