Ships·3일 전
Hugging Face, Hy3 Preview 공개 — 295B 파라미터 중 21B 활성화 MoE

Hugging Face 커뮤니티 아티클을 통해 Hy3 Preview가 공개됐다. 총 295B 파라미터 중 21B만 활성화하는 MoE 구조로, 기존 대비 활성 파라미터 수를 크게 줄이면서도 복잡 추론과 코딩 성능을 개선했다. Context Learning 기능을 통해 장기 문맥 이해에서 강점을 보이며, Tencent Yuanbao 제품군에 통합되어 도구 호출 및 심층 검색을 지원한다. 오픈소스로 제공되며, 활성 파라미터 대비 효율성을 강조한 점이 특징이다.
- #hugging-face
- #hy3-preview
- #moe
- #reasoning
- #open-source
Hugging Face