/ PROJECT

Human Dance Movement Transfer via First Order Motion Model

First Order Motion Model 기반 전신 춤 동작 전이 연구

1. 프로젝트 개요

  • 소프트웨어융합학과 졸업논문으로 단독 수행한 연구
  • First Order Motion Model for Image Animation을 기반으로, 한 인물의 춤 동작을 다른 인물 이미지에 전이하는 전신 동작 전이 연구
  • 기존 모델을 그대로 사용하는 데서 그치지 않고, 춤 동작 전이에 맞도록 데이터셋과 학습 구조를 수정 및 최적화

주요 개발 내용

  • 춤 동작 전이에 적합한 데이터셋 구성 및 전처리
  • 키포인트 개수 10개 → 14개로 수정
  • Mixed Precision Training 적용을 통한 학습 최적화

2. 나의 역할

  • 논문 분석 후 기존 코드베이스를 직접 수정하여 춤 동작 전이에 맞게 적용
  • 데이터셋 구성 및 학습 환경 설정
  • 키포인트 개수를 조정해 동작 표현력 개선 시도
  • Mixed Precision Training을 적용하여 학습 시간 및 메모리 효율 개선
  • 학습 결과를 비교하며 전신 춤 동작 전이에 적합한 방향으로 모델 최적화

3. 트러블슈팅

1) 비정상적으로 긴 학습 시간

문제

초기 학습 환경에서 1 epoch에 7시간이 걸리는 문제가 발생

원인 분석

  • 코드 자체의 문제인지, 학습 환경의 문제인지 구분이 필요했음
  • 개인 PC와 학교 GPU 환경에서 각각 다시 학습을 돌려 비교
  • 이후 학교 GPU 환경의 일시적 문제였음을 확인

해결

  • 환경을 바꿔가며 원인을 분리해서 확인
  • 학습 환경 문제와 코드 문제를 구분해 디버깅

2) 학습 속도 최적화

문제

반복 실험이 필요한 연구 특성상, 긴 학습 시간으로 인해 다양한 시도를 해보기 어려웠음

원인 분석

기존 FP32 학습은 메모리 사용량이 크고 속도도 느렸음

해결

  • Mixed Precision Training 적용
  • 더 적은 메모리로 더 빠르게 학습할 수 있도록 개선
  • 개인 PC 기준 1 epoch 약 1시간 20분 → 40분 수준으로 단축

3) 춤 동작 표현력 개선

문제

기존 설정의 키포인트 수로는 전신 춤 동작의 특징을 충분히 반영하기 어렵다고 판단

원인 분석

춤 동작은 팔, 다리, 몸통의 세부 움직임이 중요해 더 많은 동작 정보가 필요했음

해결

  • 키포인트 개수를 10개에서 14개로 수정
  • 더 세밀한 움직임 정보를 반영하도록 모델 구조를 조정
  • 시각적으로 더 자연스러운 결과를 얻을 수 있도록 개선