"애플 헤드셋 쓰고, 바로 문자 번역하고 정보 얻는다"
애플이 혼합현실(MR) 헤드셋 '비전 프로' 전용 운영체제 '비전OS' 베타 버전을 최근 공개하면서 헤드셋에 탑재된 기능들이 속속 공개되고 있다. IT매체 맥루머스는 22일(현지시간) 비전OS에 아이폰·아이패드에 탑재된 비주얼 룩업(Visual Lookup) 기능과 유사한 '비주얼 서치'(Visual Search) 기능이 탑재됐다고 보도했다. 아이폰의 비주얼 룩업 기능은 구글 렌즈나 네이버 스마트렌즈처럼 카메라로 사물이나 책, 식물, 랜드마크 등을 인식해 자동으로 추가 정보를 표시해주는 기능이다. 비전OS에 탑재된 비주얼 서치는 헤드셋을 통해 사용자가 보는 사물에 대한 정보를 얻고, 주변 세계의 텍스트를 감지해 상호 작용할 수 있는 기능이다. 헤드셋 너머로 보이는 문자를 사용자가 복사해 앱에 붙여 넣은 다음 17개의 언어로도 번역할 수도 있다. 해당 기능으로 인쇄된 유인물에 웹사이트 주소가 있는 경우 헤드셋으로 링크를 읽어 들인 후 사파리 브라우저 창으로 웹 사이트를 볼 수 있으며, 레시피에서 요리 재료의 용량을 그램(g)이나 온스(oz) 단위로 변환이 가능하다. 특히, 실시간 텍스트 번역은 여행 중이나 문자를 빠르게 번역해야 하는 상황에서 유용할 것이라고 해당 매체는 전했다. 이 기능은 아이폰 카메라가 사진 속 텍스트를 감지해 번역하는 것과 비슷하게 작동했다고 맥루머스는 덧붙였다. 비전 OS 1.0 개발자용 베타는 21일 출시됐고, 같은 날 개발자 지원 개발자 키트(SDK)도 함께 출시됐다. 해당 SDK는 X코드 15 베타 2를 통해 접근할 수 있으며, 아직은 개발자가 비전 프로를 사용할 수 없지만 애플은 다음 달부터 테스트를 허용할 예정이다.