← Back to feed
Papers·어제

MinT: LoRA 어댑터만 이동해 1T 파라미터 모델을 관리 — 4B 모델에서 18.3x 속도 향상

MinT: LoRA 어댑터만 이동해 1T 파라미터 모델을 관리 — 4B 모델에서 18.3x 속도 향상

Mind Lab이 LoRA 어댑터 기반의 대규모 정책 관리 시스템 MinT를 공개했습니다. 베이스 모델을 상주시키고 어댑터만 이동해 학습·서빙·롤백을 처리하는데, rank-1 설정에서 어댑터 크기가 베이스 모델의 1% 미만이라 4B dense 모델에서 18.3x, 30B MoE에서 2.85x 단계 단축을 달성했습니다. 1T 파라미터급 모델에서도 동작하며, 100K 규모의 어드레서블 카탈로그와 클러스터 단위의 천-어댑터 활성 웨이브를 지원합니다. 다만 이 구조는 다수의 정책을 소수의 고가 베이스 모델 위에서 운용하는 시나리오에 최적화되어 있습니다.

  • #lora
  • #serving
  • #infrastructure
  • #mind-lab
  • #moE
Mind Lab

Comments

— 첫 댓글을 남겨보세요 —