LLMA finetuned for UFAM legislation Q/A
Este repositório contém parte de um modelo LLMA especializado para tarefa de responder perguntas relacionadas a legislação da UFAM. O código de treino e um sistema de RAG simples poder ser encontrado neste notebook.
Finetune do Modelo
O modelo especializado teve como base o Llama-2-7b-chat-hf com os seguintes parâmetros para o LoRA e a quantização do modelo:
LoraConfig(
lora_alpha=lora_alpha,
lora_dropout=lora_dropout,
r=lora_r,
bias="none",
task_type="CAUSAL_LM",
)
BitsAndBytesConfig(
load_in_4bit=use_4bit,
bnb_4bit_quant_type=bnb_4bit_quant_type,
bnb_4bit_compute_dtype=compute_dtype,
bnb_4bit_use_double_quant=use_nested_quant,
)
Avaliação do Modelo
O modelo foi treinado utilizando este dataset no decorrer de três épocas com todos os dados a fim de melhorar sua performance. Ele começou com uma LOSS de 3.4873
e baixou até 1.0381
durante o processo de treino.
Exemplos de Perguntas e Respostas
- Quando a terceira solicitação de matrícula ocorre?
A terceira solicitação de matrícula ocorre em 15 de janeiro do ano letivo correspondente
- Qual é a missão da pró-reitoria de ensino de graduação (PROEG)?
A missão da PROEG é promover a qualidade do ensino de graduação e a formação de profissionais do magistério.
- Qual documentação deve ser enviada à coordenação de curso após a prática de campo?
Deve ser enviada uma notificação de conclusão do campo de práticas, com o nome do aluno, data e local do campo, e o nome do coordenador de curso.
Training procedure
The following bitsandbytes
quantization config was used during training:
- load_in_8bit: False
- load_in_4bit: True
- llm_int8_threshold: 6.0
- llm_int8_skip_modules: None
- llm_int8_enable_fp32_cpu_offload: False
- llm_int8_has_fp16_weight: False
- bnb_4bit_quant_type: nf4
- bnb_4bit_use_double_quant: False
- bnb_4bit_compute_dtype: float16
Framework versions
- PEFT 0.4.0
- Downloads last month
- 2