블로그

블로그 검색

Mobile App Strategy

Google I/O 2017: 새로운 발표의 중심에 선 인공 지능과 인스턴트 앱

App Annie

Google은 올해 안드로이드, 가상 현실 및 인공 지능과 관련된 수 많은 사항들을 발표했습니다. 그 중에서도 구글 렌즈 같은 인공 지능이 초유의 관심사로 떠오르고 있습니다.

Google은 안드로이드 운영 체제, Google Play 앱 생태 환경, 독립형 가상 현실 헤드셋, 그리고 인공 지능과 머신 러닝이 뒷받침하는 새로운 기능과 서비스를 주제로 한 다양한 제품 및 플랫폼을 발표하는 Google I/O 컨퍼런스를 개최했습니다. 인공 지능이 이번 행사의 핵심이 되겠지만, 우선 세계 최대 스마트폰 플랫폼에 대한 새로운 소식부터 알아보겠습니다.  

안드로이드와 Google Play의 현주소

Google은 현재 20억 개의 안드로이드폰과 태블릿에서 사용되고 있으며, 이 설치 기반의 상당 부분을 신흥 시장이 차지하고 있다고 발표했습니다. 하지만 이들 시장에서 판매되는 디바이스의 상당 수는 리소스가 제한적입니다. 대역폭이 낮고 연결이 불안정한 지역적인 문제 때문입니다. 이러한 요인에 대한 해결책으로, Google은 1GB 미만의 메모리를 탑재한 디바이스에서도 실행되는 차기 Android OS 버전의 경량화 모델인 Android Go를 발표했습니다. 이를 통해 디바이스 리소스에 대한 OS 부담이 최소화 되었지만,여전히 써드파티 앱의 리소스 요구는 높을 수 있습니다. 이 문제를 해결하기 위해 Google Play는 해당 디바이스의 낮은 대역폭 조건에서 실행되도록 최적화된 앱을 별도로 표시할 예정입니다. 또한, Google이 안드로이드의 모듈 기반인 Treble을 발표하면서 OEM이 자사 디바이스에 최신 안드로이드 업데이트를 적용하기가 훨씬 간편해졌습니다.

인스턴트 앱: 이제 모든 개발자가 이용 가능

다음으로, Google은 인스턴트 앱을 보편적으로 사용하도록 제공한다고 발표했습니다. 인스턴트 앱은 작년 Google I/O에서 처음 선보였으며, 당시 Google이 앱 사용의 효율을 더욱 높이고 앱 스토어의 가치 체인을 발전시키려 한다는 해석이 나왔습니다.

안드로이드폰에서 사용자당 평균 앱 세션 수는 2017년 3월 전년 대비 9% 증가했다.

안드로이드폰의 사용자당 평균 세션 수는 전년 대비 9% 증가하여, 앱이 전 세계 소비자들의 일상생활에 깊숙이 자리잡았음을 보여주었습니다. 그러나 앱의 수가 수백만 개에 이르면서 사용자와 개발자 모두에게 앱 발견에 대한 문제가 점차 중대해졌습니다. 인스턴트 앱은 앱 발견의 불편을 해소하고 인스턴트 앱과 웹을 통한 초기 앱 발견을 연결시켜, 소비자가 더 많은 앱을 더 자주 사용하도록 유도를 도울 것입니다.  그러나 당사가 작년에 언급한 바와 같이 인스턴트 앱을 지원하기 위해서 개발자는 기존 코드를 모듈화해야 합니다. 시간이 많이 소요되는 작업이라는 점을 감안하면, 개발자들의 수용 또한 점진적으로 진행될 것으로 예상됩니다.

인공 지능: 새로운 경쟁 부문

Google은 컴퓨팅의 페러다임을 획기적으로 바꿔놓을 차기 기술이 인공 지능이라 보고 있으며, 이를 활용할 수 있도록 회사 전략을 수립하고 있습니다. 인터넷(네트워크의 네트워크)이 90년대 초반에 그랬던 것처럼, 인공 지능도 간단한 실행을 돕는 기술입니다.  그리고 인터넷을 기반으로 구축된 월드 와이드 웹이  진정한 혁신을 일으켜 사용자가 정보에 즉각 액세스할 수 있게 해주었습니다. 현재 Google은 인공 지능에 있어  월드 와이드 웹처럼 되기 위해 이원적인 노력을 기울이고 있는데, 하나는 음성 비서(Google Assistant)이고 또 하나는 컴퓨팅 비전(Google Lens)입니다.

Google Assistant

작년 말 출시 당시, Google Assistant는 Google Pixel에만 도입되었습니다. 이후 Google은 다양한 안드로이드 장치로 사용 기반을 점차 확대하여 지금은 iPhone에도 적용되고 있습니다.

출시 당시, 음성 비서(voice assistant)는 차세대 컴퓨터 사용에 대한 Google의 비전으로 묘사되었습니다.  그러나, App Annie는 컴퓨터 사용의 페러다임 변화가 처음에는 새로운 디바이스 플랫폼을 도입하고, 그 다음에는 기능을 크게 확장하는 형태의 틱톡(tick-tock) 패턴을 따른다는 사실을 지적했습니다. 또한 디바이스 플랫폼이 임계량에 도달하더라도 기존 사용자 습관이 너무 고착되어 있어, 새로운 상호 작용 모델이 지배하기 어렵다는 경고도 무시할 수 없습니다.

그러나 Google Assistant의 다양한 기능은 멀티터치 상호 작용 모델로도 이용될 수 있습니다. 특히 Google의 차기 발표와 결합했을 때 엄청난 잠재력을 발휘하게 될 것입니다.

Google Lens

많은 측면에서 Google Lens는 이번 컨퍼런스에서 가장 관심을 끄는 발표였습니다. Google Lens는 Google의 머신 러닝과 인공 지능 기능을 이용하여 카메라 렌즈에 잡힌 대상을 실시간으로 인지하고, 유용한 정보를 제공하거나 행동을 취할 수 있습니다. 예를 들어, 사용자는 WiFi 라우터의 로그인 정보에 카메라를 비추어 네트워크에 연결하거나, 실제 제품이나 위치에 카메라를 비추어 상세 정보를 얻을 수 있습니다. 행동이 화면 기반이고, 스마트폰 카메라는 이미 모든 도처에서 사용되고 있기 때문에(포켓몬 GO가 입증했듯이), 이 기술이 소비자들에게 전혀 새로운 행동으로 여겨지지는 않을 것입니다. 또한, 현실 세계에 관한 정보를 검색할 때 필요한 번거로운 과정을 확실하게 줄여줄 수 있습니다. 사실상 시각 검색이라는 설명이 정확할 것입니다.

Google Lens는 Google Photos와 Google Assistant를 시작으로 점차 적용 범위가 확대될 것으로 보입니다. 그러나 어떤 시점이 되면 카메라 앱의 일부가 될 가능성이 높으며, 여기에는 써드파티 앱 개발자를 위한 API도 포함될 것입니다. 위치 기능이 그랬던 것처럼 시각 기능도 차세대 개발자 혁신을 일으키고, 수십억 달러를 벌어들이는 신생 기업을 탄생시키는 기회가 될 수 있습니다.  그러나 컴퓨터 비전의 잠재력은 현재의 컴퓨터 시대를 훨씬 넘어 계속해서 확장될 것으로 보입니다. 인터넷과 월드 와이드 웹이 차기 컴퓨팅 디바이스(모바일) 시대로 가는 길을 열어 주었듯이, 인공 지능과 컴퓨팅 비전도 "가시범위" 디바이스(증강 현실) 시대로 가는 길을 열어주게 될 것입니다.

2017 M05 29

Mobile App Strategy
Top and Trending Apps

연관 게시물