from transformers import AutoModelForCausalLM, AutoTokenizer # Nome do modelo correto model_name = "gpt2" # Carregar o modelo model = AutoModelForCausalLM.from_pretrained(model_name) tokenizer = AutoTokenizer.from_pretrained(model_name) # Testar o modelo com uma entrada simples input_text = "O que vocĂȘ acha sobre inteligĂȘncia artificial?" inputs = tokenizer(input_text, return_tensors="pt") outputs = model(**inputs) print(outputs)