Tag ‘Wikitude’

WIKITUDE.me

WikitudeLayar가 경쟁적으로 개발자용 API의 공개를 선언한 가운데, Wikitude에서는 사용자들이 새로운 콘텐츠를 손쉽게 입력할 수 있는 서비스를 시작하였습니다.

WIKITUDE.me에서 서울 어딘가의 POI를 설정하고 있는 화면

WIKITUDE.me에서 서울 어딘가의 POI를 설정하고 있는 화면

이름은 WIKITUDE.me입니다. 왠지 MobileMe를 떠올리게 하는군요. Google Maps 기반의 지도 위에서 원하는 영역 혹은 지점을 정의한 다음, 적절한 분류를 선택하고 외부 자료와의 링크도 설정할 수 있습니다. 위키라는 이름처럼 다른 사용자가 입력한 자료 또한 마음대로 수정할 수 있기 때문에 정보의 지속적인 갱신도 기대해볼 수 있겠죠. 이렇게 입력된 자료가 실제 Android상에서 잘 보이는지는 아직 확인 못 해봤습니다:)

어떤 서비스가 되었든 그 성공의 열쇠는 콘텐츠라는 사실이 자명합니다. 앞으로 얼마나 많은 사용자들을 끌어들여 자발적인 콘텐츠의 생산을 유도할 것인가가 관건이 되겠죠. 남들보다 한발 앞서 아이디어를 시험해보고 싶으신 분들은 지금 바로 각 서비스의 API 테스터 모집에 지원해 보기 바랍니다. Wikitude는 이곳, Layar는 이곳에서 할 수 있습니다.

SREngine Lite

최근 화제가 되고 있는 Wikitude, Layar, Nearest Tube, Sekai Camera 등은 현재 바라보고 있는 카메라 영상의 대략적인 방향 정보를 GPS와 전자 나침반을 이용해 유추해내는 기술에 기반하고 있습니다. 따라서 영상 속 사물의 정확한 위치를 인식할 수 없어 실내의 조밀한 공간에 적용하기는 어렵습니다. 이러한 정합의 부재는 연구자들 사이에서 AR이 아니다라는 논쟁을 부르기도 하였죠.

반면, SREngine이나 Point & Find 등은 영상 자체의 인식을 시도한다는 점에서 위의 시스템들과 차별화될 수 있습니다. 물론 그만큼 필요한 연산량이 많고, 넓은 범위로 확장하는 것도 쉽지 않다는 문제가 있긴 하지만요.

기존의 SREngine은 부하가 큰 인식 부분을 별도의 서버에 맡기는 방법으로 이러한 문제를 해결하고자 하였습니다. 여기서 더 나아가 이번에 나온 SREngine Lite는 인식 부분까지 iPhone에서 자체적으로 해결하고 있습니다.

영상을 보면 구형 iPhone 3G에서 대략 6초, 신형 3GS에서는 3초 정도의 인식 시간이 필요한 것을 알 수 있습니다. 화면의 사각형 프레임에 딱 맞추어 인식하는 것으로 미루어보아 회전이나 스케일 변화를 고려하지 않는 간단한 특징점을 사용했을 것 같구요. 기존의 SREngine처럼 인공 신경망 기반의 분류 기법을 사용하지 않았을까 싶어요. 그리고 무엇보다도 iPhone의 장점을 십분 발휘한 산뜻한 UI가 가장 인상적입니다.

Mobile Reality

지난 달에 열린 O’Reilly의 Where 2.0 ConferenceMobile Reality라는 세션이 있었습니다. 모바일 기기에서 GPS를 통한 위치 기반 서비스 와 같이 주변의 콘텍스트를 활용할 수 있는 환경이 열리고 있는데요. 증강현실은 이러한 정보를 효과적으로 보여주기 위한 인터페이스로 많은 관심을 받고 있습니다. 이번 세션은 특히 산업계에서 최근 부쩍 높아진 관심을 대변한다고도 볼 수 있겠습니다.

연사들도 최근 어디선가 한번씩 본 듯한 사람들인데요, Games AlfrescoOri Inbar가 눈에 띕니다. 역시 말도 제일 많이 하네요:)

한국계로 보이는 EveryScapeOh Mok은 iPhone에서 박물관의 가상 공간을 네비게이션하는 어플리케이션을 선보였는데, 앞으로 Google Street View 등이 AR과 접목되어 나아갈 수 있는 방향을 잘 보여주고 있습니다.

패널 토의 말미에 언급된 것처럼 AR의 상용화에 있어 가장 큰 장벽은 역시 안정적인 트래킹 기술의 확보인 것 같습니다. 현재 할 수 있는 선에서 최대한 활용해보아야 한다며 매듭을 짓고 있지만, 쉬운 것은 아니겠죠. WikitudeLayar가 보여준 타협점이 얼마나 매력적인지와도 관련이 있겠습니다.