hypes.news
← Back to feed
Ships·2주 전

llama.cpp, OCR 모델 지원 — 4GB VRAM GPU 및 CPU에서 구동 가능

llama.cpp, OCR 모델 지원 — 4GB VRAM GPU 및 CPU에서 구동 가능

Hugging Face의 ggml-org이 llama.cpp에서 LightOnOCR, Qianfan-OCR, GLM-OCR, Deepseek-OCR 등 여러 소형 OCR 모델을 지원한다고 발표했다. 이 모델들은 4GB VRAM GPU에서 실행 가능하며 일부는 CPU에서도 준수한 성능을 낸다. CLI 테스트나 REST API 서버 모드로 사용할 수 있으며, GLM-OCR GGUF 모델을 예시로 제시했다.

Hugging Face

Comments

— 첫 댓글을 남겨보세요 —