MoveAI, 공간 모션 캡쳐를 위한 Gen 2 모델 발표

Gen 2 모델 소개

2025년 3월 6일, 런던에서 열린 Movement Day에서 Move AI는 자사의 두 번째 세대 공간 모션 모델 ‘Gen 2’를 공개했습니다. Gen 2 모델은 AI와 물리 기반 기술을 결합해 단일(혹은 다중) 카메라로도 고품질 3D 모션 캡처를 수행하는 모델로, 이번 Gen 2에는 총 5가지 모델이 포함되어 있습니다.

Gen 2의 5가지 모델들은 각각의 목적과 사용 환경에 따라 최적화된 구조로 제공됩니다. 특히 단일 카메라 기반 모델인 s2s2-light는 기존 모델보다 향상된 정확도와 실시간 처리가 가능한 속도를 자랑합니다. 멀티 카메라 기반의 m2m2-xl은 대규모 공간과 인원도 처리할 수 있으며, enhance 모델은 기존 모션 데이터를 자동 보정하거나 생성하는 기능을 갖추고 있어 편집 워크플로우에도 적합합니다. 각 모델들의 특징은 다음과 같습니다:

Gen 2: s2 / s2-light 모델

Gen 2: s2 / s2-light 모델 소개 영상

s2는 Move AI가 개발한 가장 정밀한 단일 카메라 기반 모션 캡처 모델로, 깊이 정보가 없는 단일 시점에서도 높은 정확도의 3D 모션을 안정적으로 예측할 수 있습니다. 특히 발 고정(foot planting)과 같은 세밀한 움직임의 재현에서 강점을 가지며, 다중 인물의 동시 추적도 지원합니다. s2-lights2의 경량화 버전으로, 최대 20배 빠른 추론 속도를 제공하면서도 양호한 품질의 모션 재구성이 가능합니다. 빠른 프로토타이핑이나 실시간 애플리케이션에 적합한 모델입니다.

Gen 2: m2 / m2-xl 모델

Gen 2: m2 모델 소개 영상

m2 모델은 다중 카메라 기반의 고정밀 모션 캡처 모델로, 기존 m1 모델 대비 모든 면에서 향상된 성능을 제공합니다. 복잡하거나 동적인 장면에서도 더 부드럽고 안정적인 모션 캡처가 가능하며, 새로운 6자유도(6-DoF) 어깨 모델과 향상된 척추 생체역학이 특징입니다.

Gen 2: m2-xl 모델 소개 영상

m2-xl 모델은 이 기능을 대규모 공간으로 확장한 모델로, 경기장과 같은 광범위한 환경에서도 20명 이상의 인원을 동시에 정확히 추적할 수 있습니다. RGB 카메라의 대형 공간 보정에도 최적화되어 있어 라이브 스포츠나 대형 실감형 콘텐츠 제작에 적합합니다.

Gen 2: enhance 모델

Gen 2: enhance 모델 소개 영상

enhance는 모션-투-모션(motion-to-motion) 구조의 생성 모델로, 기존의 모션 데이터를 기반으로 자동 보정, 예측, 보간(in-painting)을 수행합니다. 노이즈가 많은 데이터나 가려진 움직임을 현실감 있게 보완할 수 있으며, 애니메이션 클린업 워크플로우에 강력한 도구가 될 수 있습니다. 복잡한 씬이나 부정확한 입력에서도 자연스러운 결과물을 얻고자 할 때 유용한 모델입니다.

:scroll: MoveAI의 Gen 2 모델 소개 페이지




이 글은 GPT 모델로 정리한 글을 바탕으로 한 것으로, 원문의 내용 또는 의도와 다르게 정리된 내용이 있을 수 있습니다. 관심있는 내용이시라면 원문도 함께 참고해주세요! 읽으시면서 어색하거나 잘못된 내용을 발견하시면 덧글로 알려주시기를 부탁드립니다. :hugs:

:pytorch:파이토치 한국 사용자 모임:kr:이 정리한 이 글이 유용하셨나요? 회원으로 가입하시면 주요 글들을 이메일:love_letter:로 보내드립니다! (기본은 Weekly지만 Daily로 변경도 가능합니다.)

:gift: 아래:arrow_lower_right:쪽에 좋아요:+1:를 눌러주시면 새로운 소식들을 정리하고 공유하는데 힘이 됩니다~ :star_struck: