LLM을 집에서 간단하게 실행하기 위해 https://petals.dev/ 을 활용해서
BitTorrent-style 과 같이 모델을 자를 것이고
from transformers import AutoTokenizer
from petals import AutoDistributedModelForCausalLM
# Choose any model available at https://health.petals.dev
model_name = "meta-llama/Meta-Llama-3-70B" # This one is fine-tuned Llama 3 (70B)
# Connect to a distributed network hosting model layers
tokenizer = AutoTokenizer.from_pretrained(model_name)
model = AutoDistributedModelForCausalLM.from_pretrained(model_name)
# Run the model as if it were on your computer
inputs = tokenizer("A cat sat", return_tensors="pt")["input_ids"]
outputs = model.generate(inputs, max_new_tokens=5)
print(tokenizer.decode(outputs[0])) # A cat sat on a mat...
코드는 위와 같다.
https://colab.research.google.com/drive/1uCphNY7gfAUkdDrTx21dZZwCOUDCMPw8?usp=sharing
'서비스 개발' 카테고리의 다른 글
[AWS] 다른 개인이나 비즈니스로 AWS 계정을 이전 (2) | 2024.04.27 |
---|---|
[AWS] 클라우드 컴퓨팅의 6가지 장점 (0) | 2024.04.27 |
[JAVA] text/event-stream 받는 방법 (0) | 2024.04.27 |
[AI] Meta Llama 3 릴리즈: GPT4급 Open-Source 모델의 탄생 (0) | 2024.04.27 |
[App] AI Town Project (0) | 2024.04.21 |