Papers·4일 전
FlashEvolve — 비동기 LLM 진화 프레임워크로 제안 처리량 3.5~4.9배 향상

UCSD 연구진이 LLM 기반 에이전트 진화의 병목인 동기식 단계 실행을 비동기 워커와 큐로 대체한 FlashEvolve를 제안했습니다. 언어 공간의 데이터 부실은 검사 및 수정이 가능하다는 점을 활용해 버전 추적과 정책 기반 갱신·폐기·패치로 처리하며, 추측성 단계 완료와 적응형 워크플로 제어로 처리량과 토큰 효율을 높였습니다. GEPA 워크로드에서 로컬 vLLM 기준 3.5배, API 서빙 기준 4.9배 제안 처리량 향상을 달성했으며, ACE와 Meta-Harness에도 동일 설계를 적용할 수 있습니다.
- #llm
- #evolution
- #asynchronous
- #ucsd
- #agent
University of California at San Diego