Transformers

Transformers

AI 모델 구축·훈련·배포를 위한 핵심 라이브러리.

코딩무료미지원
0
평점
0
리뷰 수
1
플랫폼
2018
출시년도
Transformers 바로가기

소개

Transformers는 Hugging Face가 개발한 오픈소스 머신러닝 라이브러리입니다. BERT, GPT, Llama 등 수천 개의 사전 훈련 모델을 PyTorch·TensorFlow·JAX로 쉽게 사용하고 파인튜닝할 수 있습니다. AI 연구자와 엔지니어에게 필수 라이브러리입니다.

주요 기능

사전 훈련 모델
파인튜닝
PyTorch·TensorFlow 지원
수천 개 모델
Pipeline API

업데이트 히스토리

5.0.0

Transformers v5: 5년 만의 메이저 버전 업그레이드

  • 5년 만의 메이저 버전 업그레이드(1,200+ 커밋)
  • Dynamic weight loading API 도입: 체크포인트 레이어 reshape/merge/split 가능
  • 오래된 deprecated API 제거 및 내부 코드 대규모 리팩터링
  • v5 이후 매주 마이너 릴리스 전환(기존 5주 주기 → 주 1회)
  • 마이그레이션 가이드 제공(MIGRATION_GUIDE_V5.md)
4.51.0

v4.51: Llama 4, Phi-4 Multimodal, DeepSeek-v3, Qwen3 지원

  • Meta Llama 4 (Maverick·Scout MoE 멀티모달 모델) 지원 추가
  • Microsoft Phi-4 Multimodal 지원 추가
  • DeepSeek-v3 모델 지원 추가
  • Alibaba Qwen3 모델 시리즈 지원 추가
  • pip install -U transformers[hf_xet] 로 최신 설치 가능
4.50.0

v4.50: EuroBERT, VibeVoice ASR 추가

  • EuroBERT: 유럽 다국어 지원 양방향 인코더 모델 추가 (최대 8192 토큰)
  • VibeVoice ASR 음성 인식 모델 지원
  • Qwen3-VL 비전 언어 모델 통합
  • 1M+ 모델 체크포인트가 Hugging Face Hub에서 지원

가격

무료 오픈소스 (Apache 2.0)

지원 플랫폼

api