iPhone에서 PTAM

최근에 나온 AR 관련 영상 중 가장 인상 깊은 것을 꼽으라고 한다면 iPhone에서 PTAM을 돌리고 있는 아래 영상을 추천하고 싶습니다.

PTAM은 ‘Parallel Tracking And Mapping’의 줄임말입니다. 여기서 mapping은 카메라를 통해 보고 있는 공간에 대한 구조를 기록하는 과정이고, tracking은 이렇게 만들어진 지도로부터 카메라의 현재 위치를 추적하는 과정입니다. 앞에 parallel이 붙은 것은 이 과정을 동시에 수행한다는 의미로, ISMAR 2007에서 Best Paper Award를 받았던 이 논문의 핵심 아이디어이기도 합니다. 매 프레임 크게 바뀌지 않는 mapping 과정에 시간을 투자하는 쓰레드와 매번 빠짐없이 신속하게 수행되어야 하는 tracking 쓰레드를 나누어서 듀얼 코어 CPU가 달린 컴퓨터로 돌리니 멋진 결과가 나와버린 것이죠.

단점이라고 한다면 시간이 지날 수록 지도의 크기가 기하급수적으로 커져 버린다는 것입니다. 학회장에서 발표될 당시에도 많은 사람들이 궁금해했던 부분이었습니다만, 몇시간씩 연속해서 넓은 공간을 대상으로 돌리기엔 아직 무리라는 답변이 돌아왔었습니다.

그런데! 2년이 지난 지금. 그 PTAM이 iPhone에서 돌아가고 있습니다. 아직 초기 단계라고 선을 긋고 있지만 프레임 저하가 거의 보이지 않는 성능은 이미 기대 이상입니다. iPhone 3G면 겨우 400 MHz짜리 ARM11 코어인데 Cortex가 달린 3GS에서는 날라다니겠네요.

물론 PTAM이 완벽한 것은 아닙니다. 지도에 표시된 지점이 무엇을 의미하는지 알아내기 위해서는 별도의 인식(recognition) 과정이 필수적이고, 앞서 언급한 확장성의 문제도 여전합니다. 물론 많은 사람들이 이미 고민하고 있으니 앞으로가 더욱 기대됩니다.

Leave a Reply