[사진: 메타]
[사진: 메타]

[디지털투데이 AI리포터] 메타가 언어로 장면을 표현할 수 있는 새로운 장면 생성 모델 '씬스크립트'(SceneScript)를 개발했다.

25일(현지시간) 대만 IT홈에 따르면 이 모델을 통해 3D 공간 프로그램을 더 효율적이고 가볍게 재구성할 수 있으며, 사용자가 쉽게 읽고 편집할 수 있다.

씬스크립트는 대규모 언어 모델(LLM)이 단어를 예측하는 방식을 적용해 개발됐다. 다만, 단어 대신 벽이나 문과 같은 건물 토큰을 예측하며 실제 환경 데이터를 사용하는 대신 아리아(Aria)라는 실내 환경 합성 데이터셋을 통해 학습됐다.

또한 시각 데이터를 기본적인 장면 표현으로 인코딩하고 방의 레이아웃을 설명하는 언어로 디코딩할 수 있다. 즉, 씬스크립트는 시각적 데이터를 분석하고 장면을 텍스트로 설명할 수 있으며 이러한 설명을 사용해 복잡한 환경을 재구성할 수 있다.

이러한 씬스크립트는 정확한 실내 지도를 생성하는 데 사용될 수 있으며 혼합현실(XR) 및 증강현실(AR) 헤드셋 개발에도 중요한 역할을 할 수 있다는 설명이다.

저작권자 © 디지털투데이 (DigitalToday) 무단전재 및 재배포 금지