← Back to feed
Papers·어제

독일 정치 텍스트 좌-우 스펙트럼 분류 — DeBERTa-large F1 0.844, Gemma2-2B MAE 0.172

독일 정치 텍스트 좌-우 스펙트럼 분류 — DeBERTa-large F1 0.844, Gemma2-2B MAE 0.172

UniBW 연구팀이 독일 정치 텍스트를 좌-우 연속 스펙트럼(-1~1)으로 투영하는 transformer 기반 모델을 제안했습니다. 13개 후보 모델 중 DeBERTa-large가 의회 회의록 내부 평가에서 F1 0.844, X(트위터) 외부 평가에서 ACC 0.864로 가장 높았고, 신문 기사 외부 평가에서는 Gemma2-2B가 MAE 0.172로 우수했습니다. 흥미로운 점은 모델 크기보다 도메인 특화 데이터와 아키텍처 선택이 정치적 편향 추정에 더 큰 영향을 미칠 수 있다는 분석입니다. 다만 4개 말뭉치(의회 회의록, Wahl-O-Mat, 33개 신문, 597명 의원 트윗)로 구성된 독일어 데이터에 한정되며, 방법론적 한계와 견고성 개선 방향도 함께 논의되었습니다.

  • #political-bias
  • #german
  • #transformer
  • #deberta
  • #gemma
NLP Research Group UniBW

Comments

— 첫 댓글을 남겨보세요 —