ogulcanakca commited on
Commit
bba5026
·
verified ·
1 Parent(s): 4bb4a4a

Update README.md

Browse files
Files changed (1) hide show
  1. README.md +31 -34
README.md CHANGED
@@ -158,6 +158,7 @@ response_text = tokenizer.decode(response_ids, skip_special_tokens=True)
158
  print("\nModel Output:")
159
  print(response_text)
160
  ```
 
161
  ## Training Details
162
 
163
  ### Training Data
@@ -212,19 +213,23 @@ No formal evaluation metrics were calculated for this initial trial run (200 ste
212
 
213
  #### Testing Data
214
 
215
- N/A
216
-
217
- #### Factors
218
-
219
- N/A
220
-
221
- #### Metrics
222
-
223
- N/A
224
-
225
- ### Results
226
-
227
- N/A
 
 
 
 
228
 
229
  #### Summary
230
 
@@ -260,7 +265,7 @@ Kaggle Notebook environment with a single NVIDIA GPU (likely T4 or P100).
260
  * Datasets (`datasets`)
261
  * Python 3.10/3.11 (Kaggle default)
262
 
263
- ## Citation [optional]
264
 
265
  Please cite the base Llama 3 model and the relevant PEFT/LoRA techniques:
266
 
@@ -268,26 +273,18 @@ Please cite the base Llama 3 model and the relevant PEFT/LoRA techniques:
268
  * **PEFT:** [https://github.com/huggingface/peft](https://github.com/huggingface/peft)
269
  * **LoRA:** Hu, E. J., Shen, Y., Wallis, P., Allen-Zhu, Z., Li, Y., Wang, S., ... & Chen, W. (2021). LoRA: Low-Rank Adaptation of Large Language Models. arXiv preprint arXiv:2106.09685.
270
 
271
- ## Glossary [optional]
272
-
273
- [More Information Needed]
274
-
275
- ## More Information [optional]
276
-
277
- [More Information Needed]
278
-
279
- ## Model Card Authors [optional]
280
-
281
- ogulcanakca
282
 
283
  ## Model Card Contact
284
 
285
- ogulcanakca (Hugging Face user)
286
-
287
- ### Framework versions
288
-
289
- * PEFT 0.15.2
290
- * Transformers [More Information Needed - Check with `!pip show transformers`]
291
- * PyTorch [More Information Needed - Check with `!pip show torch`]
292
- * Datasets [More Information Needed - Check with `!pip show datasets`]
293
- * Tokenizers [More Information Needed - Check with `!pip show tokenizers`]
 
158
  print("\nModel Output:")
159
  print(response_text)
160
  ```
161
+
162
  ## Training Details
163
 
164
  ### Training Data
 
213
 
214
  #### Testing Data
215
 
216
+ ```
217
+ EPDK'nın elektrik piyasasındaki temel görevleri nelerdir?
218
+ ---------------------------------------------------------
219
+ --- Model Response ---
220
+ EPDK, Elektrik Piyasası Kanunu'nun 5 inci maddesine göre, elektrik piyasasının işletilmesi ve gelişimi için gerekli ortamı oluşturmak, piyasada rekabetin gelişmesi için gerekli düzenlemeleri yapmak, serbest tüketim ve üretim faaliyetlerine ilişkin usul ve esasları belirlemek, denetlemek ve lisanslama işlemlerini yapmak, görevleri arasındadır. EPDK'nın elektrik piyasasındaki temel görevleri şu şekilde özetlenebilir:
221
+ 1) Elektrik piyasasının gelişimi için gerekli düzenlemeleri yapmak: EPDK, elektrik piyasasının gelişimi için gerekli düzenlemeleri yapmakla yükümlüdür. Bu kapsamda, EPDK tarafından hazırlanan düzenlemeler, Kurul tarafından onaylanmak suretiyle yürürlüğe girer.
222
+ 2) Piyasa işletimine ilişkin düzenlemeleri yapmak: EPDK, elektrik piyasasının işletilmesi için gerekli düzenlemeleri yapmakla yükümlüdür. Bu kapsamda, EPDK tarafından hazırlanan düzenlemeler, Kurul tarafından onaylanmak suretiyle yürürlüğe girer.
223
+ 3) Lisans alma ve lisanslama işlemlerini yapmak: EPDK, lisans alma ve lisanslama işlemlerini yapmakla yükümlüdür. EPDK, lisans alma ve lisanslama işlemlerini yapmak için gerekli işlemleri yapar, lisansları verir, tadil ve iptal işlemlerini gerçekleştirir.
224
+ 4) Denetlemek: EPDK, lisans sahibi tüzel kişilerden, lisanslarına ilişkin yükümlülüklerini yerine getirmelerini sağlamak amacıyla gerekli denetimleri yapmakla yükümlüdür. EPDK, denetimleri yapmak için gerekli işlemleri yapar, denetim sonuçlarını raporlar ve Kurul tarafından onaylanmak suretiyle yayımlar.
225
+ 5) Elektrik piyasasının işletilmesi için gerekli ortamı oluşturmak: EPDK, elektrik piyasasının işletilmesi için gerekli ortamı oluşturmakla yükümlüdür. Bu kapsamda, EPDK tarafından hazırlanan düzenlemeler, Kurul tarafından onaylanmak suretiyle yürürlüğe girer.
226
+ 6) Piyasa işletimine ilişkin usul ve esasları belirlemek: EPDK, elektrik piyasasının işletilmesi için gerekli usul ve esasları belirlemekle yükümlüdür. Bu kapsamda, EPDK tarafından hazırlanan düzenlemeler, Kurul tarafından onaylanmak suretiyle yürürlüğe girer.
227
+ 7) Serbest tüketim ve üretim faaliyetlerine ilişkin usul ve esasları belirlemek: EPDK, serbest tüketim ve üretim faaliyetlerine ilişkin usul ve esasları belirlemekle yükümlüdür. Bu kapsamda, EPDK tarafından hazırlanan düzenlemeler, Kurul tarafından onaylanmak suretiyle yürürlüğe girer.
228
+ 8) Lisans sahibi tüzel kişilerin faaliyetlerini izlemek: EPDK, lisans sahibi tüzel kişilerin faaliyetlerini izlemekle yükümlüdür. Bu kapsamda, EPDK, lisans sahibi tüzel kişilerin faaliyetlerini izlemek için gerekli işlemleri yapar.
229
+ 9) Lisans sahibi tüzel kişilerin faaliyetlerine ilişkin incelemeleri yapmak: EPDK, lisans sahibi tüzel kişilerin faaliyetlerine ilişkin incelemeleri yapmakla yükümlüdür. Bu kapsamda, EPDK, lisans sahibi tüzel kişilerin faaliyetlerine ilişkin incelemeleri yapmak için gerekli işlemleri yapar.
230
+ 10) Lisans sahibi tüzel kişilerin faaliyetlerine ilişkin inceleme sonuçlarını raporlamak: EPDK, lisans sahibi tüzel kişilerin faaliyetlerine ilişkin inceleme sonuçlarını raporlamakla yüküml
231
+ --- End of Response ---
232
+ ```
233
 
234
  #### Summary
235
 
 
265
  * Datasets (`datasets`)
266
  * Python 3.10/3.11 (Kaggle default)
267
 
268
+ ## Citation
269
 
270
  Please cite the base Llama 3 model and the relevant PEFT/LoRA techniques:
271
 
 
273
  * **PEFT:** [https://github.com/huggingface/peft](https://github.com/huggingface/peft)
274
  * **LoRA:** Hu, E. J., Shen, Y., Wallis, P., Allen-Zhu, Z., Li, Y., Wang, S., ... & Chen, W. (2021). LoRA: Low-Rank Adaptation of Large Language Models. arXiv preprint arXiv:2106.09685.
275
 
276
+ ```
277
+ @misc{ogulcanakca_llama3_epdk_adapter_2025,
278
+ author = {ogulcanakca},
279
+ title = {llama3-8b-epdk-domain-adapter-v1: A LoRA Adapter for Llama 3 8B Instruct Domain-Adapted to Turkish EPDK Legislation},
280
+ year = {2025},
281
+ publisher = {Hugging Face},
282
+ version = {v1},
283
+ url = {https://huggingface.co/ogulcanakca/llama3-8b-epdk-domain-adapter-v1}
284
+ }
285
+ ```
 
286
 
287
  ## Model Card Contact
288
 
289
+ ogulcanakca (Hugging Face)
290