Update README.md
Browse files
README.md
CHANGED
@@ -42,6 +42,6 @@ tokenizer = AutoTokenizer.from_pretrained("MaxLSB/LeCarnet-8M")
|
|
42 |
prompt = "Il était une fois"
|
43 |
input_ids = tokenizer(prompt, return_tensors="pt").input_ids
|
44 |
|
45 |
-
output = model.generate(input_ids, max_length=512)
|
46 |
print(tokenizer.decode(output[0], skip_special_tokens=True))
|
47 |
```
|
|
|
42 |
prompt = "Il était une fois"
|
43 |
input_ids = tokenizer(prompt, return_tensors="pt").input_ids
|
44 |
|
45 |
+
output = model.generate(input_ids, max_length=512, temperature=0.4)
|
46 |
print(tokenizer.decode(output[0], skip_special_tokens=True))
|
47 |
```
|