← Back to feed
Papers·4일 전

Google A^2RD: 에이전틱 확산 모델로 장편 비디오 일관성 30% 향상

Google A^2RD: 에이전틱 확산 모델로 장편 비디오 일관성 30% 향상

Google 팀이 장편 비디오 합성의 일관성 문제를 해결하는 A^2RD(Agentic Auto-Regressive Diffusion)를 공개했습니다. 세그먼트 단위로 생성과 자기 개선을 반복하는 폐루프 구조로, 멀티모달 비디오 메모리와 적응형 생성 모드, 계층적 테스트타임 자기 개선을 결합했습니다. 1~10분 길이의 공개 및 자체 LVBench-C 벤치마크에서 일관성 30%, 내러티브 일관성 20% 향상을 달성했으며, 인간 평가에서도 움직임과 전환의 부드러움이 개선되었습니다. 다만 8x A100 환경 기준으로 학습되어 단일 GPU에서의 효율성은 추가 검증이 필요합니다.

Google

Comments

— 첫 댓글을 남겨보세요 —