July 2009

PS3의 두번째 AR 게임, EyePet

PlayStation 3에는 PlayStation Eye라는 괜찮은 주변기기가 있습니다. 640 x 480 크기의 영상을 60 Hz로 보내주니까 USB 카메라치고는 상당한 성능인데다가, 4개의 마이크로 간단한 음성 인식이나 위치 추적을 할 수도 있습니다. 재작년에는 이 성능을 십분 활용하여 PS3 최초의 증강현실 게임인 The Eye of Judgment가 발매되어 매니아들의 많은 관심을 받기도 하였죠.

그 이후 Sony가 두번째로 시도하는 AR 게임이 EyePet입니다. 경쟁사인 Nintendo의 Nintendogs처럼 애완동물(강아지 대신 원숭이!)과 노는 것이 목적인데, 놀랍게도 그 무대는 게임 속의 가상 공간이 아니라 우리 눈 앞의 실제 테이블입니다.

위의 영상은 얼마 전 E3에서 공개했던 홍보물이고, 실제 시연하는 장면은 여기, 저기, 거기 등에서 볼 수 있습니다.

기술적으로는 마커 트래킹에 기반하고 있는 것을 알 수 있으며, 테이블의 영역이나 손의 움직임 등을 인식하기 위해 색상 정보를 활용하는 것으로 보입니다. 그다지 새로울 것은 없는 기술이지만, 잘 만들어진 콘텐츠와 결합되면 얼마나 멋진 경험이 될 수 있는지 보여주는 또 다른 사례가 될 것 같네요. 10월 출시 예정이라고 합니다.

PhotoSynth가 되고 있는 Google Street View

SIGGRAPH 2006 논문으로 발표된 이후 Microsoft에서 실제 서비스를 시작한 PhotoSynth는 사진 속의 3차원 공간을 재구성해주는 시스템입니다. 같은 장소를 찍은 다양한 시점의 사진들을 분석하여 이들이 찍힌 상대적인 위치를 알아낸 다음, GPS 정보를 이용하여 실제 지구상의 지점에 맞추어 넣을 수 있는 것이죠. 이렇게 구성된 가상 공간은 실제 공간과 연결될 수 있는 가능성이 무궁무진하기 때문에 증강현실 혹은 혼합현실의 관점에서 많은 관심을 끌어모으고 있습니다.

다만 이러한 영상 처리 자체가 굉장히 많은 자원을 소모하는 일이기 때문에 대중화에 어려움이 있는 것 같습니다만, 이제 새로운 경쟁자가 뛰어들어 판이 커지고 있습니다. Google Street View에서 사용자들이 올린 사진들에 대한 3차원 네비게이션 기능을 제공하기 시작한 것입니다.

위 영상 속의 Big Ben 사진들은 이곳에서 직접 체험해 볼 수 있습니다. 지난 달 초에 Street View에서 사진 속 공간 구조물을 인식하여 돌아다닐 수 있는 기능이 추가되었을 때 “Google도 PhotoSynth를 만드려나 보다”라고 생각을 하였는데 이렇게 빨리 나올 줄은 생각하지 못 했었네요.

이제 모바일 폰에서 GPS와 연동하여 사진을 찍고, 기록한 다음 돌아다니는 기능이 나올 차례일까요.

Nokia Point & Find

요즘 여러 모바일 AR 서비스들이 혜성처럼 등장한 분위기이지만, 사실 그 이전부터 꾸준히 준비해온 회사들도 많이 있습니다. 특히 Nokia는 지난 수년간 전방위에서 다양한 연구 성과들을 축적해왔습니다.

ISMAR 2006에 발표되었던 MARA에서는 이미 WikitudeLayar처럼 카메라 영상과 GPS를 이용한 정보 시각화 기술을 선보인 바 있습니다. 사실 이것도 HP가 2000년대 초반 보여주었던 Cooltown의 연장선상에 있다고 하니 꽤 오랫된 아이디어인 셈이죠.

그런 의미에서 현재 베타 테스트 중인 Point & Find는 그간의 노력이 맺은 결실입니다. 카메라로 특정 대상을 찍으면 (point), 해당 정보를 찾아주는 (find) 시스템으로, 영화 포스터나 잡지, 상품 태그, 관광지 건물 인식 등 다양한 응용이 기다리고 있습니다. 카메라 영상을 인터페이스로 사용한다는 측면에서는 며칠 전 소개해드린 SREngine Lite와 유사하다고 볼 수 있겠죠.

이러한 시스템들의 큰 고민 중 하나는 역시 효율적인 영상 매칭 알고리즘의 설계가 되겠습니다. 유사한 사례를 보자면, 초기의 SREngine이 별도의 서버에 위임해버리는 방식을 택했고, 최근의 SREngine Lite에서는 20장 정도의 사진에 대한 온라인 매칭에 성공하기 시작하였습니다. Point & Find에서는 MARA에서부터 갈고 닦았던 GPS 기술로 위치 기반의 영상 DB를 구축하고, 최적화된 인식 알고리즘을 적용하여 수백장 이상의 영상에 대한 실시간 매칭이 가능합니다. 이 부분은 얼마 전 ISUVR 2009 학회로 한국을 방문하였던 Kari Pulli가 자세히 소개해주었던 내용이기도 합니다.

지난 달에는 컨텐츠 제공자들이 Point & Find에서 사용할 DB를 입력할 수 있는 포털 사이트가 공개되었습니다. 사진을 올린 다음 링크를 달아주기만 하면 되도록 쉽고 간편하게 구성해 놓았습니다. WIKITUDE.me의 사례처럼 콘텐츠의 중요성을 다시 한번 느끼게 됩니다.

Point & Find는 미국과 영국에서 현재 이미 운영되고 있는 서비스입니다. 증강현실이라고 하면 의례 떠올리는 화려한 3D 그래픽이 있는 것은 아니지만, 오히려 그렇기 때문에 보다 현실적이고 실용적인 서비스가 될 수 있겠다는 생각을 해봅니다. 국내에서도 이동통신사들의 관심이 부쩍 늘어났다고 하는데 조만간 좋은 결과를 볼 수 있었으면 좋겠습니다.