from transformers import AutoModelForCausalLM, AutoTokenizer model_name = "EleutherAI/gpt-j-6B" # Exemplo de modelo suportado try: model = AutoModelForCausalLM.from_pretrained(model_name) tokenizer = AutoTokenizer.from_pretrained(model_name) input_text = "O que você pensa sobre aprendizado de máquina?" inputs = tokenizer(input_text, return_tensors="pt") outputs = model(**inputs) print(outputs) except Exception as e: print(f"Erro ao carregar o modelo: {e}")