https://techcrunch.com/2017/10/17/google-lens-on-pixel-2-still-has-a-long-way-to-go/?ncid=rss
I / O에서 의 Google Lens 공개는 개발자 회의에서 가장 흥미로운 순간 중 하나였습니다.이 도구는 사용자 주변의 세계를 식별하고 정보 및 웹의 웹에 쉽게 액세스 할 수있게 해주는 새로운 유형의 시각적 브라우저가 될 것으로 기대했습니다. .
Pixel 2 XL에서 Lens의 베타 버전을 살펴 보았습니다. 실제 유틸리티를 실현하는 데는 아직 멀었습니다. 그건 아주 괜찮아요. 기술 능력에있어 아주 드물게 도약하는 경우는 거의 없으며 컴퓨터 비전 기반 ID는 항상 이상적이지 않은 조건에서 어려움을 겪고 있습니다. 문제는 구글이 주력 제품의 상당한 판매 포인트로서 소비자 용 톤없이 컴퓨터 비전 툴을 판매하고 있다는 것이다.
렌즈에는 많은 잠재력이 있지만 시간이 걸릴 것입니다. Google이 왜이 사진을 문 밖으로 밀어 내 었는지는 확실하지 않습니다. 어시스턴트는 출시 이후 완벽하지는 못했지만 아직 할 수없는 일은 많이 있지만 사용자는 도움이되는 검색어를 결정하고 거기에서 계속 이동할 수 있습니다. Lens로이 접근법을 취하는 것이 어렵습니다. Lens는 의도 한대로 작동하기 위해 필요한 이상적인 조건을 분리합니다.

며칠 내로 렌즈 (현재 Google 포토 앱에서 사용할 수 있으며 나중에 카메라로 제공됨)에 액세스 할 수있는 기회가 있었지만 어떤 방법 으로든 필수적인 기능으로 입증되지는 않았지만 Google의 정밀 조정을 통해 사용자 친화적 인 프로세스에 기계 학습을 도입하려는 노력은 우리가 전세계와 디지털 방식으로 상호 작용하는 방식에서 매우 중요한 발전으로 이어질 것입니다.
Google의 접근 방식은 Pixel 2가 가능한 한 AI로 동일한 구현을 할 수 있다는 것을 단순히 선전하기 때문에 실제로 발견에 대한 것만 큼 많은 것 같지 않습니다. 사물의 거대한 계획에 취해 졌을 때, 이것은 놀랍지 만 ... 그것이 그다지 유용하지는 않습니다.
앨범이나 서적과 같은 것을 식별하는 렌즈를 찾았을 때,이 도구는 네이티브 모바일 앱 내에서 아마존의 시각적 검색과 유사한 수준으로 운영되었는데, 이미 실제 용량에서 그렇게하고 있으며, Google은 픽셀 2에서 시작할 예정입니다 "Now Playing"기능조차도 일반적으로 Shazam과 같은 도구의 명확한 유스 케이스를 부정하여 혀끝에서 숨겨진 보석 노래를 발견하는 것만으로 상당히 명확한 노래를 식별 할 수있었습니다.
ARKit 및 ARCore와 같은 스마트 폰 플랫폼은 AR 사용 사례를 마무리하는 것처럼 보이지만 실제로는 디지털 객체의 균형을 맞추거나 영역의 형상을 감지 할 수있는 안정된 평면을 효율적으로 찾는 것이 작은 감자와 비교됩니다 실제로 볼 수있는 의미있는 데이터를 얻는 데 도움이됩니다. 렌즈는 사용자가 이러한 기능 중 일부를 사용하기 전에 얼마나 멀리 가야 하는지를 보여줍니다.
현재 AI 구동 식 보조자는 주로 비틀 거리며 정의됩니다. 시리 (Siri)는 가능한 한 할 수없는 일의 산물입니다. 구글 홈과 아마존 에코의 가장 좋아하는 대답은 "흠, 나는 그것을 얻지 못했다"는 결론을 내리지 만, 우리는 그들이 매우 바보 같을 것이라고 기대한다. 렌즈와 관련해서는 별다른 차이가 없습니다. 실제로 AI 도구를 우리의 삶에 긴밀히 통합하는 Google의 대가는 즉시 이루어지지 않을 것입니다. 길고 오래 동안, 그것은 상당히 변칙적 인 느낌이들 것입니다. 문제는 Google이 제공 할 수 있거나 제공 할 수없는 것에 대한 기대치를 포함하고 있지는 않지만 베타 버전의 미래 임에도 불구하고 미래가 최신 기함 전화에 내장되어 있다는 것을 기쁘게 생각합니다.
Pixel 2에는 많은 이유가 있지만 그 중 대부분은 카메라이지만 렌즈는 고려 대상에 포함되어서는 안됩니다. 앞서가는 길은 먼 미래의 베팅입니다.