Papers·6일 전
RewardHarness: 100개 선호 데이터로 이미지 편집 평가 — GPT-5 대비 5.3점 향상

자연 및 인공지능 연구소(Natural and Artificial Intelligence Lab)가 단 100개의 선호 데모(EditReward의 0.05%)만으로 이미지 편집 평가에서 GPT-5를 5.3포인트 앞서는 47.4% 정확도를 달성한 자기 진화형 보상 프레임워크 RewardHarness를 공개했습니다. 기존 보상 모델이 수십만 건의 비교 데이터와 추가 학습을 필요로 하는 데 반해, RewardHarness는 가중치 최적화 대신 도구와 스킬 라이브러리를 반복적으로 진화시키며 추론 체인을 구성합니다. Orchestrator가 실패 분석을 통해 라이브러리를 자동 개선하므로 추가 주석이 필요 없으며, GRPO 미세조정 시 ImgEdit-Bench에서 3.52 점수를 기록했습니다.
- #reward-model
- #image-editing
- #data-efficiency
- #self-evolving
- #rlhf
Natural and Artificial Intelligence Lab