Tag ‘iPhone’

증강현실 포토제닉 Junaio

metaio가 열심히 홍보하던 Junaio가 11일자로 앱 스토어에 등록되어 모습을 공개하였습니다. 그동안 Layar의 SPRXMobile이나 Wikitude의 Mobilizy와 같은 신생 회사들이 모바일 AR 시장에 출사표를 던지며 인기를 몰고 있었습니다만, 기존의 전통 AR 회사들이 상대적으로 조용했던 것도 사실입니다. 최근에야 Total Immersion이 모바일 AR 게임 분야에 진출하기 위해 int13과 협력하기로 했다는 소식이 전해졌었죠. 한편, metaio 역시 이에 질세라 수많은 회사들이 각축을 벌이는 AR 브라우저 시장에 뛰어든다는 계획을 두달 전에 발표하였고, 그 결실이 바로 Junaio입니다.

처음에는 알 수 없는 티져 영상으로 관심을 끌더니 막바지에 이르러 드러낸 실체는 아래와 같았습니다. GPS와 나침반 기반의, 요즘 흔히 보이는 소위 짝퉁 AR (pseudo-AR)의 일종이라고 할 수 있겠습니다.

그럼 차이점은 무엇일까요? 일단 사진과 글 위주의 2D 정보를 제공하는 다른 서비스들과는 다르게 3D 콘텐츠의 제공에 초점을 맞추고 있습니다. Layar가 한발 앞서 3D 지원을 공표하였습니다만, 아직 구체화되지는 않았죠. 이 틈을 비집고 들어온 Junaio는 사용자의 카메라 사진을 3D 모델로 ‘증강’하여 UCC를 제작하고 공유하는 서비스를 표방하게 됩니다.

그림자 덕분에 더욱 그럴싸해 보이는 Nine이 인사합니다!

그림자 덕분에 더욱 그럴싸해 보이는 Nine이 인사합니다!

물론 논란의 여지는 있습니다. 이러한 사진 증강은 사용자가 3D 모델을 직접 돌려가며 수고한 결과입니다. 마치 스티커 사진을 찍고 나서 일일이 배경을 설정해주어야 하는 포토제닉과 같은 과정이죠. 대개 증강현실에서는 이러한 정합(registration)의 자동 수행을 기대합니다만, Junaio에서는 유사한 느낌을 수동적으로 표현해주는 것에 그치고 있습니다. 물론 이렇게 만들어진 콘텐츠는 Wikitude처럼 카메라 영상 위에 둥둥 떠다니는 아이콘으로 네비게이션 할 수 있으니 여전히 광의의 AR 범주에는 포함되겠습니다만, 3D 모델이 카메라 영상 위에서 실시간으로 정합되는 증강현실 기술을 기대하였다면 실망이겠죠.

대신 Junaio는 사진을 꾸미고 돌려보는 재미 그 자체에 초점을 맞추었습니다. 오히려 이 점이 여타 AR 브라우저들과 차별화되는 부분이기도 합니다. 증강현실이라는 마케팅 트렌드 속에서 탄생한 “위치 기반 소셜 포토제닉 서비스”인 셈이죠.

사실 사진과 3D 모델의 합성 쪽에서는 3DVIA Mobile이라는 앱이 이미 출시되어 있긴 합니다. 그렇지만 차이점이라면 3DVIA Mobile이 모델러가 디자인한 3D 모델의 공유에 초점을 맞추는 반면, Junaio는 이러한 모델로 가공된 콘텐츠의 공유에 더 많은 신경을 쓰고 있다는 것입니다. 이를 위해 위치 기반 서비스가 된 것이고, 위키처럼 다른 사람의 콘텐츠를 마음대로 수정할 수 있는 것이며, 웹에서 접근 가능한 지도 서비스가 별도 제공되는 것이겠지요. Junaio의 시도가 UCC 산업에 새로운 바람을 일으킬 수 있을지 기대해봅니다.

아래는 처음 만들어본 짤방입니다^^;

제이의 수줍은 웃음과 하트 뿅뿅, 그리고 장미 한다발

제이의 수줍은 웃음과 하트 뿅뿅, 그리고 장미 한다발

SREngine Lite

최근 화제가 되고 있는 Wikitude, Layar, Nearest Tube, Sekai Camera 등은 현재 바라보고 있는 카메라 영상의 대략적인 방향 정보를 GPS와 전자 나침반을 이용해 유추해내는 기술에 기반하고 있습니다. 따라서 영상 속 사물의 정확한 위치를 인식할 수 없어 실내의 조밀한 공간에 적용하기는 어렵습니다. 이러한 정합의 부재는 연구자들 사이에서 AR이 아니다라는 논쟁을 부르기도 하였죠.

반면, SREngine이나 Point & Find 등은 영상 자체의 인식을 시도한다는 점에서 위의 시스템들과 차별화될 수 있습니다. 물론 그만큼 필요한 연산량이 많고, 넓은 범위로 확장하는 것도 쉽지 않다는 문제가 있긴 하지만요.

기존의 SREngine은 부하가 큰 인식 부분을 별도의 서버에 맡기는 방법으로 이러한 문제를 해결하고자 하였습니다. 여기서 더 나아가 이번에 나온 SREngine Lite는 인식 부분까지 iPhone에서 자체적으로 해결하고 있습니다.

영상을 보면 구형 iPhone 3G에서 대략 6초, 신형 3GS에서는 3초 정도의 인식 시간이 필요한 것을 알 수 있습니다. 화면의 사각형 프레임에 딱 맞추어 인식하는 것으로 미루어보아 회전이나 스케일 변화를 고려하지 않는 간단한 특징점을 사용했을 것 같구요. 기존의 SREngine처럼 인공 신경망 기반의 분류 기법을 사용하지 않았을까 싶어요. 그리고 무엇보다도 iPhone의 장점을 십분 발휘한 산뜻한 UI가 가장 인상적입니다.

iPhone SDK 3.1 기대중

지난 달 iPhone 3GS의 등장과 함께 발표된 iPhone SDK 3.0은 새로운 영상 편집 기능으로 많은 관심을 끌었습니다. 하지만 모바일 AR 혹은 영상처리에 관심이 있는 사람들은 반쪽짜리 카메라 API에 아쉬움을 가질 수 밖에 없었습니다. 카메라 영상에 실시간으로 접근하는 대신, 수십초 내외로 잘라낸 클립을 받아오는 것만 가능하기 때문입니다.

이때문에 AR 업계에 종사하는 몇몇 관련자들은 Apple사에 대한 공개 청원을 하기도 했습니다. 마음대로 사용할 수 있는 카메라 API를 내놓으라고 말이죠. Apple이 이 편지를 읽은 것인지는 모르겠지만 지성이면 감천이라고, 이번에 공개된 iPhone SDK 3.1 beta 2에 API가 추가된 것 같다는 소문입니다.

사실 저는 이것보다 더 기대하고 있는 부분이 있는데요. 바로 이 전 루머의 마지막에 적혀 있던 “OpenGL 개선”이라는 문구입니다. 요즘 모바일 플랫폼에서의 GPGPU 가능성에 대해 고민하고 있다 보니, OpenGL ES 2.0을 지원하는 iPhone 3GS의 성능에 많은 관심을 가지고 있었습니다. 하지만 안타깝게도 지원하는 확장 목록에는 가장 중요한 GL_OES_texture_float이 빠져 있습니다. PowerVR SGX 칩의 한계는 아니고 Apple의 드라이버 상에서 지원하지 않는 것이죠. 일반적인 게임 등에서는 크게 중요한 기능이 아닐테니까요.

아직 여러가지 면에서 시기상조인 감이 없진 않지만, 그래도 혹시나 하는 마음에 이쪽의 좋은 소식도 한번 기대해봅니다. 아무튼 강력한 하드웨어에 다양한 센서로 무장한 iPhone 3GS가 유연한 API까지 제공한다면 모바일 AR 플랫폼으로써의 왕좌를 차지하게 될 것 같군요. 내장 콤파스 덕분에 WikitudeLayar로 히트를 친 Android의 뒤를 잇는 것일까요.