Tag ‘Wikitude’

AR 콘텐츠 표준화와 ARML

Wikitude의 제작사인 Mobilizy에서 AR 콘텐츠의 표준화를 위한 언어인 ARMLAR Consortium에 제안하였습니다. 요즘 나오는 AR 브라우저들을 보면 Google Earth나 Maps의 말풍선 같은 것이 화면에 둥둥 떠다니는 것을 볼 수 있습니다. Google에서는 이들을 표현하기 위해 KML을 사용하고 있는데, ARML은 바로 이 KML을 확장한 형태를 하고 있습니다. 아직 정확한 스펙이 공개된 것은 아니지만 예제를 보면 POI에 태그를 추가하거나 디스플레이 형태를 지정해줄 수 있다는 것을 알 수 있습니다.

그런데 이런 표준이 왜 중요한 것일까요? 쉽게 말하자면 Wikitude와 Layar가 서로의 콘텐츠를 볼 수 없는 문제를 해결하자는 것입니다. 마치 웹 초창기의 비표준 브라우저 난립에 빗대기도 하는데요. 실제로 AR 콘텐츠의 상호운용성과 이를 위한 표준화 작업은 많은 사람들이 관심을 가지고 있는 문제입니다. AR이 웹처럼 활성화되기 위한 5가지 장애물 중의 하나로 꼽히기도 하였죠.

국내 학계에서는 고려대학교의 김정현 교수님ISO JTC 1/SC 24에서 이와 관련된 표준화 작업을 진행하고 계시기도 합니다.

물론 이러한 일들이 한번에 이루어지지는 않을 것입니다. 비슷한 표준들인 X3DCollada 사이에서 고민하기도 하고, ARML에서 Layar처럼 3D 모델 지원을 할 수 있을지 걱정도 합니다. 현재의 GPS+나침반 시스템에서 영상 인식 기반으로의 확장을 기대할 수도 있겠지요.

Layar 2.0의 반격, 그리고 우려

얼마 전까지 Wikitude 소식이 넘쳐나던 가운데 잠잠하던 Layar가 한방 터뜨리고 나왔습니다. Layar Reality Browser 2.0이라는 새로운 이름으로 다양한 서드 파티 레이어를 지원하기 시작한 것입니다. 얼마 전 API 베타 테스터를 모집하며 사업계획서까지 요구하는 치밀함을 보이더니 단기간에 87개나 되는 레이어가 만들어졌군요. 본고장인 네덜란드 뿐만 아니라 미국, 일본 등 세계 각지에서 참여하고 있다는 점도 인상 깊습니다. 국내에서는 근처의 호텔 정보가 몇개 나오는 것을 확인하였습니다만, 아직 본격적인 참여가 없는 것 같네요.

현재 500개의 API를 추가 배포하고 있으며, 개발자용 위키도 공개가 되어 많은 정보를 열람할 수 있습니다. 네덜란드에서 출시될 삼성 안드로이드폰에 Layar가 기본 설치될 예정이라고 하는데 다방면에서 공격적인 행보를 취하고 있네요.

이렇게 다양한 서비스가 나오는 것은 즐거운 일이지만 걱정이 없는 것은 아닙니다. 이번에 공개된 레이어들을 보면 GPS와 콤파스를 이용한 위치 기반 서비스로써의 면모는 분명 잘 갖추고 있습니다. 그러나 기존 서비스들과 차별화하기 위해 강조하는 측면인 증강현실, 즉 카메라 영상의 활용은 여전히 부족해보입니다. 영상을 직접 인식하는 것이 아니라 단순히 배경으로만 사용하기 때문일까요. 레이어에 올라온 정보들은 실제 눈 앞에 보이지 않는 먼 거리에 있는 경우가 많기 때문에 이러한 배경이 없어도 사용에 큰 문제가 없는 것이 사실입니다. 둥둥 떠다니는 풍선이 이질적으로 느껴지는 것은 비단 제 개인적인 느낌만이 아닐 것입니다.

Layar나 Wikitude를 새로운 형태의 위치 기반 서비스로써는 환영하지만, 증강현실의 전형으로 보는 것에는 좀 더 고민이 필요하겠습니다. 문득 Sekai Camera가 한창 주가를 올리던 작년, 증강현실의 거품을 경계하자MacIntyre 교수의 이야기가 떠오르는군요.

Nokia Point & Find

요즘 여러 모바일 AR 서비스들이 혜성처럼 등장한 분위기이지만, 사실 그 이전부터 꾸준히 준비해온 회사들도 많이 있습니다. 특히 Nokia는 지난 수년간 전방위에서 다양한 연구 성과들을 축적해왔습니다.

ISMAR 2006에 발표되었던 MARA에서는 이미 WikitudeLayar처럼 카메라 영상과 GPS를 이용한 정보 시각화 기술을 선보인 바 있습니다. 사실 이것도 HP가 2000년대 초반 보여주었던 Cooltown의 연장선상에 있다고 하니 꽤 오랫된 아이디어인 셈이죠.

그런 의미에서 현재 베타 테스트 중인 Point & Find는 그간의 노력이 맺은 결실입니다. 카메라로 특정 대상을 찍으면 (point), 해당 정보를 찾아주는 (find) 시스템으로, 영화 포스터나 잡지, 상품 태그, 관광지 건물 인식 등 다양한 응용이 기다리고 있습니다. 카메라 영상을 인터페이스로 사용한다는 측면에서는 며칠 전 소개해드린 SREngine Lite와 유사하다고 볼 수 있겠죠.

이러한 시스템들의 큰 고민 중 하나는 역시 효율적인 영상 매칭 알고리즘의 설계가 되겠습니다. 유사한 사례를 보자면, 초기의 SREngine이 별도의 서버에 위임해버리는 방식을 택했고, 최근의 SREngine Lite에서는 20장 정도의 사진에 대한 온라인 매칭에 성공하기 시작하였습니다. Point & Find에서는 MARA에서부터 갈고 닦았던 GPS 기술로 위치 기반의 영상 DB를 구축하고, 최적화된 인식 알고리즘을 적용하여 수백장 이상의 영상에 대한 실시간 매칭이 가능합니다. 이 부분은 얼마 전 ISUVR 2009 학회로 한국을 방문하였던 Kari Pulli가 자세히 소개해주었던 내용이기도 합니다.

지난 달에는 컨텐츠 제공자들이 Point & Find에서 사용할 DB를 입력할 수 있는 포털 사이트가 공개되었습니다. 사진을 올린 다음 링크를 달아주기만 하면 되도록 쉽고 간편하게 구성해 놓았습니다. WIKITUDE.me의 사례처럼 콘텐츠의 중요성을 다시 한번 느끼게 됩니다.

Point & Find는 미국과 영국에서 현재 이미 운영되고 있는 서비스입니다. 증강현실이라고 하면 의례 떠올리는 화려한 3D 그래픽이 있는 것은 아니지만, 오히려 그렇기 때문에 보다 현실적이고 실용적인 서비스가 될 수 있겠다는 생각을 해봅니다. 국내에서도 이동통신사들의 관심이 부쩍 늘어났다고 하는데 조만간 좋은 결과를 볼 수 있었으면 좋겠습니다.