소개
Transformers는 Hugging Face가 개발한 오픈소스 머신러닝 라이브러리입니다. BERT, GPT, Llama 등 수천 개의 사전 훈련 모델을 PyTorch·TensorFlow·JAX로 쉽게 사용하고 파인튜닝할 수 있습니다. AI 연구자와 엔지니어에게 필수 라이브러리입니다.
주요 기능
사전 훈련 모델
파인튜닝
PyTorch·TensorFlow 지원
수천 개 모델
Pipeline API
업데이트 히스토리
5.0.0
Transformers v5: 5년 만의 메이저 버전 업그레이드
- •5년 만의 메이저 버전 업그레이드(1,200+ 커밋)
- •Dynamic weight loading API 도입: 체크포인트 레이어 reshape/merge/split 가능
- •오래된 deprecated API 제거 및 내부 코드 대규모 리팩터링
- •v5 이후 매주 마이너 릴리스 전환(기존 5주 주기 → 주 1회)
- •마이그레이션 가이드 제공(MIGRATION_GUIDE_V5.md)
4.51.0
v4.51: Llama 4, Phi-4 Multimodal, DeepSeek-v3, Qwen3 지원
- •Meta Llama 4 (Maverick·Scout MoE 멀티모달 모델) 지원 추가
- •Microsoft Phi-4 Multimodal 지원 추가
- •DeepSeek-v3 모델 지원 추가
- •Alibaba Qwen3 모델 시리즈 지원 추가
- •pip install -U transformers[hf_xet] 로 최신 설치 가능
4.50.0
v4.50: EuroBERT, VibeVoice ASR 추가
- •EuroBERT: 유럽 다국어 지원 양방향 인코더 모델 추가 (최대 8192 토큰)
- •VibeVoice ASR 음성 인식 모델 지원
- •Qwen3-VL 비전 언어 모델 통합
- •1M+ 모델 체크포인트가 Hugging Face Hub에서 지원
가격
무료 오픈소스 (Apache 2.0)
지원 플랫폼
api



