최근 화제가 되고 있는 Wikitude, Layar, Nearest Tube, Sekai Camera 등은 현재 바라보고 있는 카메라 영상의 대략적인 방향 정보를 GPS와 전자 나침반을 이용해 유추해내는 기술에 기반하고 있습니다. 따라서 영상 속 사물의 정확한 위치를 인식할 수 없어 실내의 조밀한 공간에 적용하기는 어렵습니다. 이러한 정합의 부재는 연구자들 사이에서 AR이 아니다라는 논쟁을 부르기도 하였죠.
반면, SREngine이나 Point & Find 등은 영상 자체의 인식을 시도한다는 점에서 위의 시스템들과 차별화될 수 있습니다. 물론 그만큼 필요한 연산량이 많고, 넓은 범위로 확장하는 것도 쉽지 않다는 문제가 있긴 하지만요.
기존의 SREngine은 부하가 큰 인식 부분을 별도의 서버에 맡기는 방법으로 이러한 문제를 해결하고자 하였습니다. 여기서 더 나아가 이번에 나온 SREngine Lite는 인식 부분까지 iPhone에서 자체적으로 해결하고 있습니다.
영상을 보면 구형 iPhone 3G에서 대략 6초, 신형 3GS에서는 3초 정도의 인식 시간이 필요한 것을 알 수 있습니다. 화면의 사각형 프레임에 딱 맞추어 인식하는 것으로 미루어보아 회전이나 스케일 변화를 고려하지 않는 간단한 특징점을 사용했을 것 같구요. 기존의 SREngine처럼 인공 신경망 기반의 분류 기법을 사용하지 않았을까 싶어요. 그리고 무엇보다도 iPhone의 장점을 십분 발휘한 산뜻한 UI가 가장 인상적입니다.