July 2009

WIKITUDE.me

WikitudeLayar가 경쟁적으로 개발자용 API의 공개를 선언한 가운데, Wikitude에서는 사용자들이 새로운 콘텐츠를 손쉽게 입력할 수 있는 서비스를 시작하였습니다.

WIKITUDE.me에서 서울 어딘가의 POI를 설정하고 있는 화면

WIKITUDE.me에서 서울 어딘가의 POI를 설정하고 있는 화면

이름은 WIKITUDE.me입니다. 왠지 MobileMe를 떠올리게 하는군요. Google Maps 기반의 지도 위에서 원하는 영역 혹은 지점을 정의한 다음, 적절한 분류를 선택하고 외부 자료와의 링크도 설정할 수 있습니다. 위키라는 이름처럼 다른 사용자가 입력한 자료 또한 마음대로 수정할 수 있기 때문에 정보의 지속적인 갱신도 기대해볼 수 있겠죠. 이렇게 입력된 자료가 실제 Android상에서 잘 보이는지는 아직 확인 못 해봤습니다:)

어떤 서비스가 되었든 그 성공의 열쇠는 콘텐츠라는 사실이 자명합니다. 앞으로 얼마나 많은 사용자들을 끌어들여 자발적인 콘텐츠의 생산을 유도할 것인가가 관건이 되겠죠. 남들보다 한발 앞서 아이디어를 시험해보고 싶으신 분들은 지금 바로 각 서비스의 API 테스터 모집에 지원해 보기 바랍니다. Wikitude는 이곳, Layar는 이곳에서 할 수 있습니다.

ARToolKit

증강현실을 접하는 개발자들이 처음 사용하는 도구로 ARToolKit을 빼놓고 얘기할 수는 없습니다. 카메라 앞에 까만색 문양이 그려진 종이를 들이대면 그 위에 보라색 상자가 나타납니다. 종이를 이리저리 움직여도 딱 붙어다니는게 영 신기하죠. 증강현실과의 첫 만남을 이렇게 시작한 분들이 많을 것입니다. 이 마술과도 같은 일을 해주는 라이브러리가 바로 ARToolKit이고, 1999년에 처음 소개된 이후 지금까지 10년 가까운 세월 동안 장수하고 있습니다. 특히 GPL로 공개된 덕분에 폭넓게 보급되어 AR의 저변을 넓히는 데 큰 역할을 하였습니다. 원작자인 Hirokazu Kato 교수가 가상현실 분야에서 가장 저명한 학회인 IEEE VR에서 올해 공로상을 수상한 이유이기도 합니다.

ARToolKit이 하는 일을 간단히 얘기하자면 다음과 같습니다. 카메라로 받은 영상을 최대한 단순화시킨 다음 사각형 테두리를 찾습니다. 원래 정사각형이지만 원근감 때문에 어딘가 찌그러진 모양으로 찍혀있겠죠. 이렇게 변형된 상태를 수식으로 풀면 바로 이 사각형 패턴과 카메라 사이의 상대적인 위치를 알 수 있습니다. 그럼 그 위에 같은 원근감이 생기도록 3차원 물체를 그려넣을 수 있게 됩니다. 빈 종이가 가상 물체와 함께 ‘증강’되는 순간이죠. 이때 사각형 안에는 서로 다른 문양이 들어갈 수 있기 때문에 여러가지 물체를 구분해서 증강할 수도 있습니다.

추억의 히로 마커 위에 흩날리는 빛알갱이들

추억의 히로 마커 위에 흩날리는 빛알갱이들

사실 증강현실이라는 단어는 “‘영상’ 위에 뭔가 집어넣는 것” 보다 훨씬 더 넓은 의미로 쓰일 수 있습니다. 다만 사람의 오감 중 제일 민감한 것이 시각이고, 또 컴퓨터가 잘 할 수 있는 부분이 영상이기 때문에 이쪽으로 부각되고 있는 것이 사실이긴 합니다. 이 부분에 대해서는 나중에 증강현실 혹은 혼합현실에 대한 개념 정리를 하면서 다시 짚어볼 수 있도록 하겠습니다.

아무튼 ARToolKit을 위시한 마커 트래킹 기법들은 간편하면서도 안정적인 성능 덕분에 실험실에서의 아이디어 프로토타입 뿐만 아니라 광고와 같은 현업에도 많이 적용되고 있습니다. 하지만 눈에 잘 띄기 위한 마커의 장점은 그대로 단점이 되어 많은 제약이 뒤따릅니다. 우리가 정보를 얻고자 하는 모든 사물에 마커를 붙일 수도 없는 노릇이죠. 그래서 요즘에는 영상 속의 마커 대신 사물 그 자체를 인식하고 추적하기 위한 연구들이 활발히 이루어지고 있습니다. 이쪽은 ‘Natural Feature Tracking’ 혹은 줄여서 NFT라고 부릅니다. 얼마 전에 소개했던 PTAM이 좋은 예가 되겠네요.

이렇게 시대가 바뀌어도 ARToolKit이 추구하였던 간편함의 미덕은 이후 그 뒤를 이으려는 여러 ‘툴킷’들의 귀감이 될 것이라 생각합니다.

SREngine Lite

최근 화제가 되고 있는 Wikitude, Layar, Nearest Tube, Sekai Camera 등은 현재 바라보고 있는 카메라 영상의 대략적인 방향 정보를 GPS와 전자 나침반을 이용해 유추해내는 기술에 기반하고 있습니다. 따라서 영상 속 사물의 정확한 위치를 인식할 수 없어 실내의 조밀한 공간에 적용하기는 어렵습니다. 이러한 정합의 부재는 연구자들 사이에서 AR이 아니다라는 논쟁을 부르기도 하였죠.

반면, SREngine이나 Point & Find 등은 영상 자체의 인식을 시도한다는 점에서 위의 시스템들과 차별화될 수 있습니다. 물론 그만큼 필요한 연산량이 많고, 넓은 범위로 확장하는 것도 쉽지 않다는 문제가 있긴 하지만요.

기존의 SREngine은 부하가 큰 인식 부분을 별도의 서버에 맡기는 방법으로 이러한 문제를 해결하고자 하였습니다. 여기서 더 나아가 이번에 나온 SREngine Lite는 인식 부분까지 iPhone에서 자체적으로 해결하고 있습니다.

영상을 보면 구형 iPhone 3G에서 대략 6초, 신형 3GS에서는 3초 정도의 인식 시간이 필요한 것을 알 수 있습니다. 화면의 사각형 프레임에 딱 맞추어 인식하는 것으로 미루어보아 회전이나 스케일 변화를 고려하지 않는 간단한 특징점을 사용했을 것 같구요. 기존의 SREngine처럼 인공 신경망 기반의 분류 기법을 사용하지 않았을까 싶어요. 그리고 무엇보다도 iPhone의 장점을 십분 발휘한 산뜻한 UI가 가장 인상적입니다.