Papers·어제
MinT: LoRA 어댑터만 이동해 1T 파라미터 모델을 관리 — 4B 모델에서 18.3x 속도 향상
Mind Lab이 LoRA 어댑터 기반의 대규모 정책 관리 시스템 MinT를 공개했습니다. 베이스 모델을 상주시키고 어댑터만 이동해 학습·서빙·롤백을 처리하는데, rank-1 설정에서 어댑터 크기가 베이스 모델의 1% 미만이라 4B dense 모델에서 18.3x, 30B MoE에서 2.85x 단계 단축을 달성했습니다. 1T 파라미터급 모델에서도 동작하며, 100K 규모의 어드레서블 카탈로그와 클러스터 단위의 천-어댑터 활성 웨이브를 지원합니다. 다만 이 구조는 다수의 정책을 소수의 고가 베이스 모델 위에서 운용하는 시나리오에 최적화되어 있습니다.
- #lora
- #serving
- #infrastructure
- #mind-lab
- #moE
Mind Lab