← Back to feed
Papers·3일 전

LoopUS: 사전 학습된 LLM을 루프드 아키텍처로 변환하는 후처리 프레임워크 — 추론 성능 향상

LoopUS: 사전 학습된 LLM을 루프드 아키텍처로 변환하는 후처리 프레임워크 — 추론 성능 향상

부산대 연구팀이 LoopUS(Looped Depth Up-Scaling)를 제안, 사전 학습된 표준 LLM을 루프드 아키텍처로 변환해 추론 성능을 개선했습니다. 기존 방법은 처음부터 재귀 모델을 학습하거나 기존 모델을 대대적으로 개조해야 했지만, LoopUS는 인코더-루프드 추론 블록-디코더 구조로 재구성하고, 입력 의존적 선택 게이트, 랜덤 딥 슈퍼비전, 적응형 조기 종료 헤드 등을 도입해 안정적인 잠재 루핑을 구현합니다. 생성된 추론 체인을 늘리지 않고도 성능 향상을 얻을 수 있다는 점이 특징이나, 코드 공개 여부는 아직 확인되지 않았습니다.

  • #looped-computation
  • #llm
  • #reasoning
  • #busan-national-university
BIGDATA ANALYTICS ENGINEERING LAB, Pusan National University, Busan, Korea

Comments

— 첫 댓글을 남겨보세요 —