huseyinemreseyrek commited on
Commit
2ed5a49
·
verified ·
1 Parent(s): ef4e34b

Update README.md

Browse files
Files changed (1) hide show
  1. README.md +13 -0
README.md CHANGED
@@ -42,9 +42,15 @@ messages = [
42
  {"role": "user", "content": "İsmi RD olan bir fonksiyon ona verilen sayının çarpmaya göre tersini döndürmektedir. Örneğin RD(3)=1/3. Buna göre RD(X)=X ifadesini doğru yapan kaç X değeri vardır?"}
43
  ]
44
 
 
 
 
 
 
45
  outputs = pipeline(
46
  messages,
47
  max_new_tokens=512,
 
48
  do_sample=True,
49
  temperature=0.6,
50
  top_p=0.9,
@@ -78,15 +84,22 @@ model = AutoModelForCausalLM.from_pretrained(
78
  messages = [
79
  {"role": "user", "content": "İsmi RD olan bir fonksiyon ona verilen sayının çarpmaya göre tersini döndürmektedir. Örneğin RD(3)=1/3. Buna göre RD(X)=X ifadesini doğru yapan kaç X değeri vardır?"}
80
  ]
 
81
  input_ids = tokenizer.apply_chat_template(
82
  messages,
83
  add_generation_prompt=True,
84
  return_tensors="pt"
85
  ).to(model.device)
86
 
 
 
 
 
 
87
  outputs = model.generate(
88
  input_ids,
89
  max_new_tokens=512,
 
90
  do_sample=False,
91
  )
92
  response = outputs[0][input_ids.shape[-1]:]
 
42
  {"role": "user", "content": "İsmi RD olan bir fonksiyon ona verilen sayının çarpmaya göre tersini döndürmektedir. Örneğin RD(3)=1/3. Buna göre RD(X)=X ifadesini doğru yapan kaç X değeri vardır?"}
43
  ]
44
 
45
+ terminators = [
46
+ pipeline.tokenizer.eos_token_id,
47
+ pipeline.tokenizer.convert_tokens_to_ids("<end_of_turn>")
48
+ ]
49
+
50
  outputs = pipeline(
51
  messages,
52
  max_new_tokens=512,
53
+ eos_token_id=terminators,
54
  do_sample=True,
55
  temperature=0.6,
56
  top_p=0.9,
 
84
  messages = [
85
  {"role": "user", "content": "İsmi RD olan bir fonksiyon ona verilen sayının çarpmaya göre tersini döndürmektedir. Örneğin RD(3)=1/3. Buna göre RD(X)=X ifadesini doğru yapan kaç X değeri vardır?"}
86
  ]
87
+
88
  input_ids = tokenizer.apply_chat_template(
89
  messages,
90
  add_generation_prompt=True,
91
  return_tensors="pt"
92
  ).to(model.device)
93
 
94
+ terminators = [
95
+ pipeline.tokenizer.eos_token_id,
96
+ pipeline.tokenizer.convert_tokens_to_ids("<end_of_turn>")
97
+ ]
98
+
99
  outputs = model.generate(
100
  input_ids,
101
  max_new_tokens=512,
102
+ eos_token_id=terminators,
103
  do_sample=False,
104
  )
105
  response = outputs[0][input_ids.shape[-1]:]