File size: 496 Bytes
33a7037
 
00426dd
33a7037
00426dd
 
 
33a7037
00426dd
 
 
33a7037
00426dd
 
 
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
from transformers import AutoModelForCausalLM, AutoTokenizer

model_name = "EleutherAI/gpt-j-6B"  # Exemplo de modelo suportado

try:
    model = AutoModelForCausalLM.from_pretrained(model_name)
    tokenizer = AutoTokenizer.from_pretrained(model_name)

    input_text = "O que você pensa sobre aprendizado de máquina?"
    inputs = tokenizer(input_text, return_tensors="pt")
    outputs = model(**inputs)

    print(outputs)
except Exception as e:
    print(f"Erro ao carregar o modelo: {e}")