Hugging Face, Training Cluster As a Service 공개
복잡한 프로세스 없이 대규모 모델을 허깅페이스의 클러스터에서 손쉽게 훈련하기 위한 서비스
콤보박스에서 주요 값을 수정해서 가격 확인 가능
I want to train a "7B/13B/30B/70B"
parameters "text/multimodal"
model on a "1.4T/3.5T/7T" tokens dataset,
on "200/500/1000" "A100/H100 GPUs/Trainium Nodes"
70B 파라미터 text 모델을 1.4T 토큰 데이터셋으로 500개의 H100 GPU를 가지고 훈련하겠다 선택하면
총 57일 소요되며 가격은 $2,879,856
출처
https://huggingface.co/training-cluster
Training Cluster as a service: Train your LLM at scale on our infrastructure
Back to website Hugging Face presents Training Cluster As a service Train your LLM at scale on our infrastructure I want to train a 7B13B30B70B parameters multimodaltext model on a 600B tokens1.5T tokens3T tokens dataset, on 2005001000 A100 GPUsH100 GPUs T
huggingface.co
https://news.hada.io/topic?id=10772
Hugging Face, Training Cluster As a Service 공개 | GeekNews
복잡한 프로세스 없이 대규모 모델을 허깅페이스의 클러스터에서 손쉽게 훈련하기 위한 서비스콤보박스에서 주요 값을 수정해서 가격 확인 가능I want to train a "7B/13B/30B/70B" parameters "text/multimodal"
news.hada.io
'데이터 분석 > 머신러닝' 카테고리의 다른 글
Vision Transformer(ViT) 모델의 예측 결과 영향도 시각화 방법 (2) | 2023.09.20 |
---|---|
[2023/09/11 ~ 09/17] 이번 주의 주요 ML 논문 (Top ML Papers of the Week) (2) | 2023.09.19 |
Hugging Face 모델 학습 Checkpoint 저장 주기 변경 (0) | 2023.07.28 |
Vision Encoder Decoder Model 샘플 코드 (0) | 2023.07.27 |
디코더(Decoder)의 특수 토큰(Special Token) (0) | 2023.07.27 |