짧은 여행 #5 ? 프라하 ~ 짤츠부르크

2008년 2월 8일.

빈의 버스 정류장에서 우연히 만난 이후 프라하에서 삼일동안 동고동락한 소영이와 국환이. 국환이는 같은 고등학교 후배이기도 해서 더욱 반가웠었지. 각자 여행지가 달라 아쉽지만 헤어질 수 밖에 없었다. 나는 빈으로 돌아간 뒤 짤츠부르크행 기차를 타야 했고, 이들은 동유럽 더 깊숙히 헝가리 쪽을 돌아본 후 한국에 돌아갈 것이라 했다. 사람들이 북적대는 터키식 소시지 레스토랑에서 마지막 만찬을 함께 한 후 버스 정류장으로 향했다.

프라하의 삼일을 함께 추억한 세 친구

프라하의 삼일을 함께 추억한 세 친구

그런데 앗! 간발의 차이로 버스를 놓치고 말았다. 어쩔 수 없이 버스는 포기하고 멀리 돌아가는 짤츠부르크행 기차에 몸을 싣기로 했다. 이런 느긋함이 또 여행의 묘미겠지.

짤츠부르크 특급, 텅빈 객실

짤츠부르크 특급, 텅빈 객실

낯선 사람들 틈에 끼여 꾸벅꾸벅 조는 동안 어느새 남은 것은 텅빈 객실과 지는 저녁놀. 그리고 다시 그만큼의 시간을 놓아준 후에야 껌껌한 린츠역에 도착할 수 있었다. 여기서도 다시 시간이 빡빡했던 관계로 아슬아슬한 환승을 경험하였다.

한밤중 한가한 짤츠부르크 중앙역

한밤중 한가한 짤츠부르크 중앙역

기차의 갑갑한 공기가 지겨워질 때쯤 도착한 짤츠부르크 중앙역. 밤 11시가 넘었다. 역 가까운 곳의 Hotel-Pension Adlerhof라는 비싼 숙소를 잡아두었는데 햄버거를 먹으면서 여유 부리다가 길 찾는데 다시 한 시간을 허비하고 말았지.

짤츠부르크의 하룻밤을 책임진 Adlerhof 객실

짤츠부르크의 하룻밤을 책임진 Adlerhof 객실

오늘 하루는 이동하느라 시간을 다 써버렸구나. 자, 이제는 짧지만 조용한 휴식을 가지는 밤. 내일은 시내를 한바퀴 돌아본 뒤에 호수 마을 할슈타트로 떠날 예정이다.

돌아온 PTAM, OPTAMM

모바일 폰에서의 향상된 NFT 알고리즘에 이어 이번에는 다시 돌아온 PTAM 알고리즘에 대해 살펴보도록 하겠습니다. 역시 ISMAR 2009에서 발표될 예정이며 현재는 동영상만 공개되어 있는 상태입니다.

ISMAR 2007에 처음 발표되었던 PTAM (parallel tracking and mapping)은 이후 더욱 넓은 공간에의 적용을 위해 다중 맵을 지원하는 PTAMM (parallel tracking and multiple mapping)으로 개선되어 ISWC 2008에 선을 보였습니다. 하지만 예전에도 언급하였던 결정적인 약점은 계속 남아 있었으니, 바로 지도상에 인식된 지점의 실제 위치, 혹은 의미를 알 수 없다는 것입니다. 예를 들어, 미술관 실내의 지도를 멋지게 생성하더라도 앞에 있는 그림이 고흐의 그림인지 샤갈의 그림인지 인식할 수 있는 방법이 없었다는 것이죠.

이번에 나온 OPTAMM (parallel object recognition, tracking and multiple mapping)은 이러한 문제를 해결하기 위해 SIFT 알고리즘을 이용한 인식이 함께 수행되도록 확장되었습니다. 위의 동영상에는 포스터, 그림, 오실로스코프 등의 다양한 물체를 구분하는 시나리오들이 잘 표현되어 있죠.

지금까지의 PTAM은 그냥 한번 돌려서 데모용으로 보여주기에는 아주 훌륭하였지만 지속적으로 사용하기에는 불편한 점이 있었습니다. 이 때문에 자체적으로 SIFT와 통합하여 사용하는 사례도 있었는데, 아예 원작자 측에서 깔끔하게 정리를 해버렸군요. 이제 이를 기반으로 쏟아져 나올 다양한 응용들이 기대 됩니다. 물론 얼마 전의 아이폰 포트도 놓치지 말아야겠죠. 올해 ISMAR도 참 흥미진진하겠습니다.

모바일 AR을 위한 최신 트래킹 기술

증강현실 분야의 꽃이라고 할 수 있는 ISMAR 학회가 한달여 앞으로 다가온 가운데, 발표될 논문들의 윤곽이 서서히 드러나고 있습니다. 그중에서 가장 뜨거운 감자라고 할 수 있는 트래킹쪽 세션에서는 작년과 마찬가지로 오스트리아 TU Graz ICGDaniel Wagner가 참여한 논문이 두 편이나 선정된 모양입니다.

그중에서 역시 눈길이 가는 것은 위 동영상이죠. 지난 ISMAR 2008에서 최우수 논문상을 수상했던 모바일 폰에서의 Tracking by Detection 알고리즘이 Multiple Target Detection and Tracking이라는 이름으로 한층 더 업그레이드 되어 돌아왔습니다. 지난 달 Wagner가 한국을 방문했을 때 했던 강연에서 scalability에 대한 질문을 한 적이 있었는데요. 그에 대한 현재의 답이 될 수도 있겠습니다. 여러 객체를 동시에 인식하기 위해서는 속도가 느려질 수 밖에 없는데, 이를 피하기 위해 영상에서 이미 인식된 부분은 다음 번에 다시 처리되지 않도록 제외하는 것이 기본 아이디어인 듯 합니다. 자세한 내용은 논문이 발표되어야 알 수 있을 것 같고 일단 저 영상만으로도 충분히 자극적이네요. 최신 폰도 아니고 ASUSMEIZU의 적당한 모델을 사용하는데도 참 빠릅니다.

다른 한 편의 논문은 Full 6-DOF Localization Framework이라는 제목이 붙어있는데요. 주변 환경을 고해상도로 촬영하여 3D 점군을 생성한 다음, 이를 기반으로 모바일 폰에서 현재 바라보고 있는 위치와 방향을 정확히 계산해내는 알고리즘입니다. 자료를 만드는 방법은 PhotoSynth와 유사하고, 사용 목적은 PTAM과 비슷할 수 있겠네요. 폰에서 1초 내에 인식이 가능하다고 하니 실내 네비게이션과 같은 쪽에 유용하겠습니다.

그리고 마지막은 보너스입니다. 위의 두가지 알고리즘을 함께 확장하여 평면이 아닌 3D 객체에 대한 모델 기반 추적을 실험하고 있습니다. 아직 논문으로 정리된 내용은 아니지만 이미 안정적으로 작동하는 모습을 볼 수 있으며, PC에서는 무려 1000 FPS의 속도를 낸다고 하네요.