새 모델·툴 출시
Ships
Ships·어제Hugging Face 커뮤니티 에세이 — AI 산업의 '데이터'와 '피드백' 라벨이 가리는 노동 문제
Hugging Face 커뮤니티 게시글 'You do the work. Big Tech takes the model.'이 AI 산업의 두 가지 숨겨진 노동 문제를 지적합니다. 첫째는 웹에서 수집된 기존 인간 창작물(소설, 논문, 코드 등)을 '공개 데이터'로 명명해 허가 없이 학습에 사용하는 점, 둘째는 어노테이션, 랭킹, 레드팀, 선호도 라벨링 등 후처리 노동자를 계약직으로 숨기고 '인간 피드백'으로 포장하는 점입니다. 저자는 이러한 관행이 공정한 보상, 동의, 심리적 안전을 보장하지 않으며, 지시 튜닝 모델을 구축하는 자신의 프로젝트에도 동일한 윤리 기준을 적용해야 한다고 주장합니다.
- #huggingface
- #ai-ethics
- #data-labor
- #human-feedback
Hugging Face
Ships·어제Hugging Face 커뮤니티, 안전 평가 시 추론 연산량을 명시해야 한다는 제안
Hugging Face 커뮤니티 글에서 안전 평가가 정적이지 않고, 적대적 공격자가 사용할 수 있는 다양한 추론 연산량(샘플 수, 재시도, 도구 사용 등)을 고려해야 한다고 주장합니다. 저렴한 단일 평가에서는 안전해 보여도, 더 많은 추론 자원을 투입하면 위험해질 수 있다는 점을 지적하며, 평가 결과에 '예산 라벨'을 붙여 추론 연산량을 명시할 것을 제안합니다. 실무자 입장에서는 모델의 실질적 위험을 평가할 때 이 관점을 반영할 필요가 있겠네요.
- #hugging-face
- #safety-evals
- #test-time-compute
- #adversarial
Hugging Face
Ships·어제로컬 AI 성능, 2년 만에 4.7배 향상 — 무어의 법칙보다 2배 빠른 개선
Hugging Face의 Mishig Davaadorj가 2024년 5월부터 2026년 5월까지 128GB MacBook Pro에서 실행 가능한 최고 오픈웨이트 모델의 성능 변화를 추적한 결과, AI 지수(AAI Index)가 10에서 47로 4.7배 상승했습니다. 같은 기간 무어의 법칙이 예측한 2배보다 2배 이상 빠른 속도입니다. 하드웨어는 동일한 RAM 용량에 메모리 대역폭만 50% 증가했을 뿐인데, 모델 효율성과 양자화 기술 덕분에 성능이 급격히 향상된 셈입니다. 로컬 AI 실무자라면 눈여겨볼 만한 트렌드네요.
- #hugging-face
- #local-ai
- #moores-law
- #open-models
Hugging Face
Ships·3일 전Hugging Face, 개인정보 보호 암 진단 AI 'OncoAgent' 공개 — AMD MI300X 기반 오픈소스
OncoAgent 연구팀이 개인정보를 보호하는 암 임상 의사결정 지원 시스템 OncoAgent를 발표했습니다. 9B(속도 최적화)와 27B(심층 추론) 이중 계층 구조에 LangGraph 기반 멀티에이전트, 70여 개 NCCN/ESMO 가이드라인을 활용한 4단계 Corrective RAG, Zero-PHI 정책을 적용한 3계층 반사 안전 검증기를 탑재했습니다. AMD Instinct MI300X(192GB HBM3)에서 QLoRA로 미세조정했으며, 시퀀스 패킹으로 50분 만에 전체 데이터셋 학습이 가능해 API 기반 대비 56배 처리량 향상을 보였습니다. 100% 오픈소스로 온프레미스 배포가 가능해 클라우드 의존성을 없앤 점이 특징입니다.
- #huggingface
- #oncoagent
- #oncology
- #multi-agent
Hugging Face
Ships·4일 전Hugging Face, CyberSecQwen-4B 공개 — 단일 AMD MI300X로 학습한 방어 특화 4B 모델
Hugging Face 커뮤니티가 AMD 개발자 해커톤의 결과물로 방어적 사이버 보안에 특화된 4B 파라미터 모델 CyberSecQwen-4B를 Apache 2.0 라이선스로 공개했습니다. 단일 AMD Instinct MI300X GPU로 파인튜닝되었으며, 로컬 실행이 가능해 민감한 증거를 외부 API로 보내지 않아도 됩니다. 프론티어 모델 대비 성능은 낮지만, 사고 보고서나 악성 페이로드 같은 민감 데이터를 다루는 SOC 분석가나 취약점 연구원에게 실용적인 선택지가 될 수 있습니다.
- #huggingface
- #cybersecqwen-4b
- #cybersecurity
- #local-ai
Hugging Face
Ships·4일 전Hugging Face, JFrog Artifactory 엔터프라이즈 가이드 공개 — 2026년 6월 레거시 저장소 마이그레이션 필수
Hugging Face가 JFrog Artifactory를 통해 Hub 모델을 프록시하는 엔터프라이즈 가이드를 발표했습니다. Artifactory는 캐싱·스캐닝·거버넌스에 유용하지만, 설정된 Hub ID의 rate limit을 그대로 물려받고 Xet 프로토콜 구현이 얕아 저장소 사용량이 거의 두 배로 늘어납니다. 2026년 6월까지 모든 레거시 'Hugging Face' 저장소를 새로운 'Machine Learning' 저장소 레이아웃으로 강제 마이그레이션해야 하며, 대규모 AI 워크로드에는 Enterprise Plus(높은 rate limit, SSO/SCIM, 감사 로그, Model Gateway)가 적합합니다.
- #huggingface
- #jfrog-artifactory
- #enterprise
- #migration
Hugging Face
Ships·5일 전Anthropic, Model Context Protocol(MCP) 공개 — AI와 데이터 소스 연결하는 오픈 표준
Anthropic이 AI 어시스턴트와 데이터 저장소(콘텐츠 리포지토리, 비즈니스 도구, 개발 환경)를 연결하는 오픈 표준 Model Context Protocol(MCP)을 오픈소스로 공개했습니다. 기존에는 데이터 소스마다 커스텀 구현이 필요했지만, MCP는 단일 프로토콜로 통합해 보안성 있는 양방향 연결을 제공합니다. Claude Desktop 앱에 로컬 MCP 서버 지원이 포함됐고, Google Drive·Slack·GitHub·Postgres 등 프리빌트 서버도 함께 공개됐습니다. 초기 도입사로 Block과 Apollo가 이름을 올렸네요.
- #anthropic
- #model-context-protocol
- #open-standard
- #claude
Anthropic
Ships·5일 전Hugging Face, Depth Anything V2 압축 강건성 개선 연구 공개 — 압축을 학습 증강으로 활용
Hugging Face 커뮤니티 연구진이 Depth Anything V2 모델이 비디오 압축 아티팩트에 강건해지도록 미세 조정한 방법을 공개했습니다. 압축을 단순한 전처리가 아닌 학습 증강 기법으로 사용해, 손실 압축 후에도 깊이 추정 정확도를 유지하도록 했네요. 자율주행차량의 대규모 데이터 파이프라인에서 압축이 불가피한 점을 고려하면 실무적으로 유용한 접근입니다. 다만 특정 코덱에 국한되지 않는 일반적인 강건성인지, 추가 벤치마크가 필요해 보입니다.
- #hugging-face
- #depth-anything-v2
- #video-compression
- #autonomous-vehicles
Hugging Face
Ships·5일 전Hugging Face, QVAC MedPsy 공개 — 1.7B 모델이 16배 큰 MedGemma-27B 능가
Tether Data의 AI 연구팀이 의료 특화 edge 모델 QVAC MedPsy 패밀리를 공개했습니다. 1.7B와 4B 파라미터 두 가지로, 1.7B 모델은 7개 의료 벤치마크 평균 62.62를 기록해 MedGemma-1.5-4B-it(51.20)을 11점 이상 앞섰고, HealthBench에서 70.33을 찍어 16배 큰 MedGemma-27B-text-it(65.00)도 제쳤습니다. 4B 모델은 70.54로 MedGemma-27B(69.95)를 넘겼고, HealthBench Hard에서 58.00 vs 42.00으로 격차가 더 벌어졌네요. 텍스트 전용 모델이지만 실제 임상 추론에 가까운 벤치마크에서 강점을 보여, 스마트폰이나 웨어러블에서 쓸 만한 수준입니다. 다만 아직 API나 배포 일정은 공개되지 않았고, 라이선스도 확인이 필요합니다.
- #huggingface
- #qvac-medpsy
- #medical-ai
- #edge
Hugging Face
Ships·6일 전Hugging Face 커뮤니티 글 — EQ 벤치마크로 2만 5천 달러 프리랜서 계약을 따낸 이야기
Hugging Face 커뮤니티에 올라온 개인 에세이입니다. 작성자는 EQ(공감 능력) 벤치마크에서 높은 점수를 받은 파인튠 모델을 공개한 뒤, 출판사로부터 Claude API를 통해 25,000달러 이상을 써가며 책을 쓰는 프리랜서 계약을 따냈다고 합니다. EQ 벤치마크가 실제 채용이나 계약으로 이어진 드문 사례인 셈인데, 흥미로운 포인트네요.
- #hugging-face
- #community
- #eq-benchmark
- #freelance
Hugging Face
Ships·6일 전Anthropic, Claude 사용량 한도 상향 및 SpaceX와 컴퓨트 파트너십 체결
Anthropic이 Claude Code와 API의 사용량 한도를 대폭 상향했습니다. Pro/Max/Team/Enterprise 플랜의 5시간 rate limit이 두 배로 늘어나고, Opus 모델 API rate limit도 인상됐네요. 동시에 SpaceX와 Colossus 1 데이터센터 전체 컴퓨트(300MW, 22만 장 이상의 NVIDIA GPU)를 사용하는 계약을 체결했습니다. 이 용량은 Claude Pro/Max 구독자에게 직접 혜택이 돌아갈 예정입니다. 기존 Amazon(5GW), Google·Broadcom(5GW), Microsoft·NVIDIA(300억 달러) 계약에 더해 단기 용량 확보를 위한 움직임으로 보입니다.
- #anthropic
- #claude
- #rate-limits
- #spacex
Anthropic
Ships·6일 전Hugging Face, Reachy Mini 앱스토어 공개 — AI 에이전트가 로봇 코드 작성
Hugging Face가 오픈소스 데스크톱 로봇 Reachy Mini용 앱스토어를 출시했습니다. 영어로 동작을 설명하면 AI 에이전트가 코드를 작성·테스트·배포하며, SDK나 로봇 지식이 없어도 사용 가능합니다. 현재 150명 이상의 크리에이터가 200개 이상의 앱을 제작했고, 전 세계 설치 대수는 약 10,000대에 달합니다. 78세의 비개발자가 음성 기반 AI 회의 보조 앱을 만든 사례도 공개됐는데, 로봇 프로그래밍 진입장벽을 낮춘 점이 인상적입니다.
- #hugging-face
- #reachy-mini
- #robotics
- #app-store
Hugging Face
- Ships·6일 전
Google DeepMind, AlphaEvolve로 DNA 시퀀싱 오류 교정 모델 개선 — 변이 검출 오류 30% 감소
Google DeepMind가 AlphaEvolve를 활용해 DNA 시퀀싱 오류 교정 모델 DeepConsensus를 개선했습니다. 변이 검출 오류가 30% 줄었고, PacBio의 시퀀싱 장비 정확도가 크게 향상됐네요. PacBio 측은 이전에 발견되지 않았던 질병 유발 돌연변이를 찾는 데 도움이 될 것이라고 평가했습니다. 연구자에게는 더 저렴한 비용으로 더 정확한 유전자 분석이 가능해진 셈입니다.
- #google-deepmind
- #alphaevolve
- #genomics
- #deepconsensus
Google DeepMind
Ships·1주 전혼자서 프랑스어 LLM을 처음부터 학습한 20살 개발자 — 1080 Ti, 정전 극복기
Hugging Face 커뮤니티에 RDTvlokip가 단독으로 처음부터 프랑스어 LLM을 학습한 과정을 공개했습니다. GTX 1080 Ti 11GB 한 장으로 15M 파라미터 모델을 LLaMA 스타일(RoPE, RMSNorm, SwiGLU, Flash Attention)로 구축했고, 데이터셋 271M 토큰을 직접 수집·정제했습니다. 7가지 크기를 실험한 끝에 Chinchilla 법칙(토큰/파라미터 ≈ 20)에 맞춰 15M으로 결정했네요. 4개월 데이터 준비 후 학습 중 정전이 두 번이나 발생했지만 체크포인트로 복구했다고. LoRA 파인튜닝 대신 전체 파이프라인을 이해하려는 접근이 인상적입니다.
- #hugging-face
- #llm
- #french
- #training
Hugging Face
Ships·1주 전Anthropic, 금융 서비스용 에이전트 템플릿 10종 공개 — 피치북·KYC·월결산 자동화
Anthropic이 금융 서비스와 보험 조직을 위해 10개의 기성 에이전트 템플릿을 출시했습니다. 피치북 작성, KYC 스크리닝, 월말 결산 등에 특화되었으며, Claude Cowork·Claude Code 플러그인과 Managed Agents 쿡북으로 제공됩니다. Microsoft 365 애드인을 통해 Excel·PowerPoint·Word 간 컨텍스트 연동도 지원하고, 새 커넥터와 MCP 앱으로 실시간 데이터 접근이 가능합니다. Claude Opus 4.7과 조합 시 Vals AI Finance Agent 벤치마크에서 64.37%로 업계 최고 성능을 냅니다. 템플릿은 금융 서비스 마켓플레이스에서 확인 가능합니다.
- #anthropic
- #claude
- #finance
- #agents
Anthropic
Ships·1주 전Hugging Face, 법률 RAG 앱 구축 튜토리얼 공개 — semchunk·Kanon 2·LangChain·Gemini 활용
Hugging Face 커뮤니티에 법률 문서 특화 RAG 앱 구축 튜토리얼이 올라왔습니다. semchunk로 의미 단위 청킹, Kanon 2 임베더와 리랭커로 검색 정확도를 높이고, LangChain과 Gemini로 LLM 추론을 연결하는 구조네요. 튜토리얼은 초보자 기준이지만, 법률 도메인에서 RAG를 직접 시험해보려는 실무자에게 한 번 봐둘 만합니다.
- #hugging-face
- #legal-rag
- #tutorial
- #langchain
Hugging Face
Ships·1주 전Anthropic, Blackstone·Hellman & Friedman·Goldman Sachs와 함께 기업 AI 서비스 회사 설립
Anthropic이 Blackstone, Hellman & Friedman, Goldman Sachs 등과 함께 중견 기업 대상 AI 서비스 회사를 설립합니다. Applied AI 엔지니어가 고객사에 직접 투입되어 Claude를 핵심 업무에 통합하고, 맞춤형 솔루션을 구축합니다. 기존 시스템 통합 파트너십을 보완하는 형태로, 자체 AI 엔지니어링 인력이 부족한 중견 기업을 주 대상으로 합니다.
- #anthropic
- #enterprise
- #partnership
- #claude
Anthropic
Ships·1주 전Hugging Face, Axolotl로 Falcon-E BitNet 파인튜닝 컬렉션 공개
Hugging Face가 Axolotl을 활용해 Falcon-E BitNet 모델을 파인튜닝한 컬렉션을 공개했습니다. 7개 모델이 포함되어 있으며, 3시간 전 업데이트되었습니다. 이번 릴리스는 삼진 가중치(ternary) LLM의 미세 조정 가능성을 보여주는 사례입니다.
- #hugging-face
- #axolotl
- #falcon-e-bitnet
- #fine-tuning
Hugging Face
Ships·1주 전Anthropic, 장기적 공익을 위한 새로운 거버넌스 구조 LTBT 공개
Anthropic이 자사 지배구조를 개편하는 '장기적 공익 신탁(LTBT)' 세부 내용을 공개했습니다. LTBT는 재정적 이해관계가 없는 5명의 독립 위원으로 구성되며, 시간이 지남에 따라 이사회 과반수를 선임·해임할 수 있는 권한을 갖습니다. 기존 주주 중심의 이사회 책임 구조에서 벗어나 인류의 장기적 이익을 우선시하려는 시도로, 공익법인(PBC) 지위와 결합해 AI 안전성에 초점을 맞춘 거버넌스를 만든 점이 특징입니다.
- #anthropic
- #governance
- #ltbt
- #ai-safety
Anthropic
- Ships·1주 전
Google DeepMind, AI 공동 임상의 연구 이니셔티브 발표 — 삼자 진료 모델 제안
Google DeepMind가 AI 공동 임상의(AI co-clinician) 연구 이니셔티브를 공개했습니다. 기존 AMIE 연구를 확장해, 의사의 감독 아래 AI 에이전트가 환자와 상호작용하는 '삼자 진료(triadic care)' 모델을 제안하네요. WHO는 2030년까지 1,000만 명 이상의 의료 인력 부족을 예측하는데, 이 접근법이 그 격차를 메우는 데 기여할 수 있을지 주목됩니다. 아직 연구 초기 단계라 구체적인 제품이나 출시 일정은 없습니다.
- #google-deepmind
- #ai-co-clinician
- #healthcare
- #triadic-care
Google DeepMind
Ships·1주 전Hugging Face 커뮤니티 에세이: MCP 시대는 데자뷰 — 우리는 소프트웨어 생태계를 처음부터 다시 짓고 있다
Navid-AI 팀이 MCP(Model Context Protocol) 기반 툴 생태계를 분석하며, 사실상 기존 소프트웨어 함수·문서·디스커버리 메커니즘을 JSON Schema로 다시 포장한 것에 불과하다고 비판합니다. smolagents 예시를 통해 '툴'이 단순히 함수를 LLM이 이해할 수 있도록 메타데이터로 감싼 클래스임을 지적하며, 혁신보다 재발명에 가깝다고 주장합니다. 커뮤니티 의견글로, 공식 릴리스는 아닙니다.
- #hugging-face
- #mcp
- #agent
- #tools
Hugging Face
Ships·1주 전AI 평가 비용, 컴퓨팅 병목으로 부상 — HAL 벤치마크 4만 달러, 단일 GAIA 2,829달러
Hugging Face 커뮤니티 분석에 따르면 AI 평가 비용이 급격히 증가해 새로운 컴퓨팅 병목이 되고 있습니다. Holistic Agent Leaderboard(HAL)는 9개 모델·9개 벤치마크에 21,730회 에이전트 롤아웃을 실행하는 데 약 4만 달러를 썼고, 단일 GAIA 실행은 캐싱 전 2,829달러에 달합니다. Exgentic의 2만2천 달러 스윕에서는 동일 태스크에서 33배 비용 차이가 발견돼 스캐폴드 선택이 주요 비용 요인으로 지목됐습니다. 정적 LLM 벤치마크도 2022년 HELM 기준 30개 모델·42개 시나리오에 약 10만 달러가 들었습니다. 에이전트 벤치마크는 노이즈가 많고 스캐폴드에 민감해 압축이 어려워, 평가 비용이 지속적으로 상승할 전망입니다.
- #hugging-face
- #ai-evaluation
- #benchmark-cost
- #agent-benchmarks
Hugging Face
Ships·1주 전Mistral Medium 3.5 공개 — 128B 밀집 모델, Vibe 원격 코딩 에이전트 지원
Mistral이 새로운 플래그십 모델 Mistral Medium 3.5를 공개 프리뷰로 출시했습니다. 128B 파라미터 밀집 모델로 256K context를 지원하며, 오픈 웨이트(수정 MIT 라이선스)로 공개되어 4대 GPU로 자체 호스팅 가능합니다. 이 모델은 Mistral Vibe의 원격 코딩 에이전트와 Le Chat의 새로운 Work 모드(복잡한 멀티스텝 태스크 전용)를 구동합니다. Vibe 에이전트는 클라우드에서 비동기로 실행되며 CLI나 Le Chat에서 시작할 수 있고, 로컬 세션을 클라우드로 텔레포트하는 기능도 제공합니다. 가격 정보는 아직 공개되지 않았지만, 자체 호스팅이 가능한 점은 실무자에게 유용할 만합니다.
- #mistral
- #mistral-medium-3.5
- #coding-agent
- #open-weights
Mistral
Ships·1주 전Hugging Face, JAX용 Pallas 커널 튜토리얼 공개 — GPU/TPU 커스텀 커널 입문 가이드
Hugging Face 커뮤니티 아티클로, JAX 사용자를 위한 Pallas 튜토리얼이 게재됐습니다. Pallas는 GPU/TPU용 커스텀 커널을 JAX 스타일로 작성할 수 있는 실험적 확장으로, 메모리와 블록 구조를 직접 제어합니다. 현재 TPU는 Mosaic, NVIDIA Hopper 이상 GPU는 Mosaic GPU로 컴파일되며, Triton 백엔드는 유지보수만 되고 있어 신규 사용에는 권장되지 않습니다. JAX에 익숙하지만 커널 수준 최적화를 처음 접하는 사람에게 적합한 입문 자료네요.
- #huggingface
- #pallas
- #jax
- #kernel
Hugging Face
Ships·2주 전Hugging Face, 22.7M 파라미터 BiomedBERT Small 시리즈 공개 — CPU 구동 가능
Hugging Face 가 22.7M 파라미터의 BiomedBERT Small 시리즈를 출시했습니다. 기존 110M BiomedBERT Base 와 0.969M Hash 시리즈 사이를 채우는 모델로, 밀집 임베딩 모델은 PubMedBERT Embeddings 를 모든 지표에서 능가하면서 파라미터는 20%에 불과합니다. all-MiniLM-L6-v2 와 비슷한 크기라 CPU-only 환경에서도 동작하며, Apache 2.0 라이선스로 공개되었습니다.
- #hugging-face
- #biomedbert-small
- #medical-nlp
- #embeddings
Hugging Face
Ships·2주 전Anthropic, 크리에이티브 툴 연동 커넥터 공개 — Blender·Adobe·Ableton 등 7종
Anthropic이 Blender, Autodesk, Adobe, Ableton, Splice 등과 협력해 Claude를 크리에이티브 소프트웨어에 연동하는 커넥터 세트를 출시했습니다. Ableton 공식 문서 기반 응답, Adobe Creative Cloud 50여 개 앱 제어, Blender Python API 자연어 인터페이스 등이 포함됩니다. 반복 작업 자동화와 아이데이션 가속에 초점을 맞췄지만, 각 커넥터는 해당 앱의 구독이나 라이선스가 별도로 필요해 실무자 입장에선 추가 비용이 발생할 수 있습니다.
- #anthropic
- #claude
- #creative-tools
- #connectors
Anthropic
Ships·2주 전Mistral, Workflows 퍼블릭 프리뷰 공개 — 엔터프라이즈 AI 오케스트레이션 레이어
Mistral AI가 Workflows를 퍼블릭 프리뷰로 공개했습니다. 이는 엔터프라이즈 AI 워크플로우를 위한 오케스트레이션 레이어로, 내구성·관찰 가능성·내결함성을 제공합니다. ASML, ABANCA 등이 이미 도입했으며, Studio에 통합되어 Python으로 작성한 워크플로우를 Le Chat에서 트리거할 수 있습니다. 기존에는 노트북에서만 돌아가던 파이프라인이 프로덕션에서 조용히 실패하거나, 장기 실행 작업이 네트워크 타임아웃을 견디지 못하는 문제를 해결한다는 점이 실무자에게 유용해 보입니다. 다만 아직 퍼블릭 프리뷰 단계이므로 프로덕션 적용 시 안정성을 면밀히 검토할 필요가 있습니다.
- #mistral
- #workflows
- #enterprise
- #orchestration
Mistral
Ships·2주 전NVIDIA·Siemens Healthineers, 초음파 원시 신호 기반 AI 모델 NV-Raw2Insights-US 공개
NVIDIA와 Siemens Healthineers가 협력해 초음파 프로브의 원시 센서 데이터를 직접 학습하는 AI 모델 NV-Raw2Insights-US를 출시했습니다. 기존 빔포밍 파이프라인이 버리던 정보까지 활용해 환자별 조직 특성을 더 정밀하게 반영할 수 있다는 점이 특징입니다. 아직 연구 단계 모델이지만, 초음파 영상의 근본적인 한계를 건드리는 접근이라 한 번 봐둘 만합니다.
- #huggingface
- #nvidia
- #siemens-healthineers
- #ultrasound
Hugging Face
Ships·2주 전Anthropic, 호주·뉴질랜드 총괄에 시오 아우르무지스 선임 — 시드니 오피스 공식 개소
Anthropic이 Snowflake 출신 시오 아우르무지스를 호주·뉴질랜드 총괄로 임명하고 시드니 오피스를 공식 개소했습니다. 아우르무지스는 20년 이상의 APAC 기술 리더십 경험을 바탕으로 Commonwealth Bank, Quantium 등 기업 및 정부 파트너십을 강화할 예정입니다. 호주 정부와 체결한 MOU 이행의 일환으로, AI 안전과 엄격함을 중시하는 지역 조직들의 Claude 도입을 지원한다는 점이 눈에 띕니다.
- #anthropic
- #australia
- #new-zealand
- #office
Anthropic
Ships·2주 전Hugging Face, 커뮤니티 과학팀이 AI 연구자 대상 모델·데이터셋 허브 활용 가이드 공개
Hugging Face 커뮤니티 과학팀이 AI 연구자들을 위해 모델과 데이터셋을 허브에 업로드할 때의 이점을 설명하는 글을 게시했습니다. Google Drive, Dropbox 등 대신 허브를 사용하면 모델 카드, 데이터셋 카드, 메타데이터 태그를 통해 발견성과 가시성이 높아지고, Paper Pages 기능으로 Arxiv 논문과 연동도 가능합니다. 현재 허브에는 약 300만 개 모델과 100만 개 데이터셋이 등록되어 있습니다.
- #hugging-face
- #community-science
- #models
- #datasets
Hugging Face