눈 대신 본다…애플 비전 프로에 접근성 기능 추가

AI한줄요약 ☞ 애플이 비전 프로에 기계학습 기반 주변 환경 설명 기능을 추가했다. 이를 통해 사용자는 가상 및 현실의 객체를 확대해 볼 수 있다.

2025-05-14     AI리포터
애플 비전 프로의 새로운 접근성 기능 [사진: 애플]

[디지털투데이 AI리포터] 애플이 올해 말 비전OS에 도입될 비전 프로의 새로운 접근성 기능을공개했다. 

13일(현지시간) IT매체 더 버지에 따르면 이 기능은 헤드셋의 메인 카메라를 활용해 사용자가 보는 장면을 확대하거나, 주변 환경을 실시간으로 설명할 수 있게 해준다. 

새로운 기능은 가상 객체뿐만 아니라 현실 세계의 객체에도 적용된다. 애플이 공개한 예시에서는 비전 프로를 착용한 사용자가 실제 레시피 북을 확대해서 읽다가, 리마인더 앱을 더 읽기 쉽도록 확대해서 보는 장면이 담겼다. 이는 기존 스마트폰 확대 기능과 유사하지만, 손을 자유롭게 활용할 수 있는 점이 차별점이다. 

또한 애플의 보이스오버(VoiceOver) 접근성 기능이 비전OS에서 주변 설명, 객체 탐색, 문서 읽기 등을 지원할 예정이다.

애플은 승인된 개발자들이 접근성 앱을 제작할 수 있도록 비전 프로의 카메라 API를 공개할 예정이다. 이를 통해 '비마이아이즈(Be My Eyes)' 같은 앱이 실시간 시각 해석 기능을 제공해 사용자들이 손을 쓰지 않고도 주변을 이해할 수 있게 된다.

현재 비전 프로 판매량은 저조하지만, 이번 기능은 카메라 장착 에어팟이나 애플 스마트 글라스 등 향후 제품에서도 유용할 가능성이 있다고 매체는 전했다.