Update README.md
Browse files
README.md
CHANGED
@@ -60,6 +60,21 @@ base_model = AutoModelForSeq2SeqLM.from_pretrained(base_model_id)
|
|
60 |
|
61 |
base_model.resize_token_embeddings(len(tokenizer))
|
62 |
inference_model = PeftModel.from_pretrained(base_model, adapter_repo_id)
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
63 |
```
|
64 |
|
65 |
---
|
@@ -67,7 +82,7 @@ inference_model = PeftModel.from_pretrained(base_model, adapter_repo_id)
|
|
67 |
## 📊 Example
|
68 |
|
69 |
**Input:**
|
70 |
-
|
71 |
**Output:**
|
72 |
`Вона працює викладачкою в університеті.`
|
73 |
|
|
|
60 |
|
61 |
base_model.resize_token_embeddings(len(tokenizer))
|
62 |
inference_model = PeftModel.from_pretrained(base_model, adapter_repo_id)
|
63 |
+
|
64 |
+
prefix = "Перефразуй це речення, змінивши гендерні сутності на протилежні (чоловічий <-> жіночий): "
|
65 |
+
|
66 |
+
def generate_swapped_response(input_text, inference_model, tokenizer):
|
67 |
+
inputs = tokenizer(prefix + input_text, return_tensors="pt")
|
68 |
+
|
69 |
+
with torch.no_grad():
|
70 |
+
outputs = inference_model.generate(**inputs, max_new_tokens=100, temperature=0.1)
|
71 |
+
|
72 |
+
generated = tokenizer.decode(outputs[0], skip_special_tokens=True)
|
73 |
+
|
74 |
+
return generated
|
75 |
+
|
76 |
+
input = "Він працює викладачем в університеті."
|
77 |
+
gender-swapped_output = generate_swapped_response(input, inference_model, tokenizer)
|
78 |
```
|
79 |
|
80 |
---
|
|
|
82 |
## 📊 Example
|
83 |
|
84 |
**Input:**
|
85 |
+
`Він працює викладачем в університеті.`
|
86 |
**Output:**
|
87 |
`Вона працює викладачкою в університеті.`
|
88 |
|