Mistral-portuguese-luana-7b-mental-health
Luana Mental health is a tuned model of the Luana-7b based on the Mistral 7b architecture. The model was adjusted to address topics such as depression, problems at work, mental health, problems with studies, drugs and others.
How to use
You can use the model in its normal form up to 4-bit quantization. Below we will use both approaches. Remember that verbs are important in your prompt. Tell your model how to act or behave so that you can guide them along the path of their response. Important points like these help models (even smaller models like 7b) to perform much better.
FULL MODEL : A100
HALF MODEL: L4
8bit or 4bit : T4 or V100
!pip install -q -U transformers
!pip install -q -U accelerate
!pip install -q -U bitsandbytes
from transformers import AutoModelForCausalLM, AutoTokenizer, TextStreamer
model = AutoModelForCausalLM.from_pretrained("rhaymison/Mistral-portuguese-luana-7b-mental-health", device_map= {"": 0})
tokenizer = AutoTokenizer.from_pretrained("rhaymison/Mistral-portuguese-luana-7b-mental-health")
model.eval()
You can use with Pipeline but in this example i will use such as Streaming
inputs = tokenizer([f"""<s>Aja como um conselheira de pessoas que estΓ£o passandos por dificuldades.
Responda sempre de maneira educada e procure ajudar as pessoas.
[INST] OlΓ‘, estou tendo muitos problemas pessoais, briga com meus pais. Tenho tido problemas no trabalho. Preciso de ajuda[/INST]"""], return_tensors="pt")
streamer = TextStreamer(tokenizer, skip_prompt=True, skip_special_tokens=True)
_ = model.generate(**inputs, streamer=streamer, max_new_tokens=200)
#OlΓ‘, estou aqui para ajudΓ‘-lo. Γ normal enfrentar problemas pessoais, mas Γ© importante buscar ajuda.
#Vamos conversar sobre suas brigas com seus pais e como podemos resolver isso. AlΓ©m disso, vamos falar sobre seus problemas no trabalho e como podemos encontrar
#soluçáes para isso. VocΓͺ nΓ£o estΓ‘ sozinho, estou aqui para ajudΓ‘-lo. Vamos comeΓ§ar a encontrar maneiras de lidar com essas questΓ΅es.
#VocΓͺ gostaria de comeΓ§ar falando sobre sua situação com seus pais?
#Ou talvez queremos comeΓ§ar falando sobre seus problemas no trabalho? O que vocΓͺ acha melhor? VocΓͺ pode me contar mais sobre isso?
#Estou aqui para ajudΓ‘-lo.
LangChain
Human: Ola Luana, estou passando por um momento dificil. Estou precisando de ajuda
Luana: OlΓ‘, estou aqui para te ajudar. VocΓͺ gostaria de falar sobre o que estΓ‘ te incomodando?
Human: Tenho tido problemas em casa, em especial com minha esposa. Temos brigado muito, estou com medo do meu casamento terminar.
Luana: Γ normal ter problemas no casamento, mas Γ© importante conversar com sua esposa sobre isso. VocΓͺ jΓ‘ tentou ter uma conversa calma e honesta com ela?
Human: JΓ‘ sim, ela me entende, mas sempre terminamos em brigas. Eu sou uma pessoa muito stressada por causa do trabalho. Acabo descontando isso nela.
Luana: Γ importante encontrar maneiras saudΓ‘veis de lidar com o estresse. VocΓͺ jΓ‘ tentou praticar atividades de relaxamento, como meditação ou ioga?
Human: Ja tentei sim. Eu pratico corrida e jogo vide-game pra acalmar, mas nao tem ajudado. SerΓ‘ que uma terapida de casal poderia ajudar?
Luana: Uma terapeuta de casal pode ser uma Γ³tima opção para ajudar a melhorar a comunicação e resolver problemas no casamento. VocΓͺ jΓ‘ considerou isso?
Human: à uma boa opção. Voce poderia me indicar um modo de conversa com ela sobre a terapida de casal? Como apresentar essa ideia pra ela.
Luana: Sim, Γ© importante abordar a ideia da terapia de casal de maneira aberta e honesta. VocΓͺ pode comeΓ§ar dizendo que estΓ‘ com medo do seu casamento terminar e que gostaria de tentar algo para melhorar a situação. TambΓ©m pode ser ΓΊtil falar sobre os benefΓcios da terapia de casal, como melhorar a comunicação e encontrar soluçáes para problemas. Lembre-se de ser paciente e respeitoso, mesmo que ela nΓ£o esteja disposta a aceitar a ideia inicialmente. A terapia de casal pode ser uma ferramenta poderosa para melhorar o relacionamento, mas Γ© importante que ambos estejam dispostos a dar o primeiro passo.
4bits
from transformers import BitsAndBytesConfig
import torch
nb_4bit_config = BitsAndBytesConfig(
load_in_4bit=True,
bnb_4bit_quant_type="nf4",
bnb_4bit_compute_dtype=torch.bfloat16,
bnb_4bit_use_double_quant=True
)
model = AutoModelForCausalLM.from_pretrained(
base_model,
quantization_config=bnb_config,
device_map={"": 0}
)
Open Portuguese LLM Leaderboard Evaluation Results
Detailed results can be found here and on the π Open Portuguese LLM Leaderboard
Metric | Value |
---|---|
Average | 65.05 |
ENEM Challenge (No Images) | 60.53 |
BLUEX (No Images) | 48.26 |
OAB Exams | 38.04 |
Assin2 RTE | 91.30 |
Assin2 STS | 74.98 |
FaQuAD NLI | 60.57 |
HateBR Binary | 76.86 |
PT Hate Speech Binary | 70.05 |
tweetSentBR | 64.90 |
Comments
Any idea, help or report will always be welcome.
email: [email protected]
- Downloads last month
- 4
Model tree for rhaymison/Mistral-portuguese-luana-7b-mental-health
Space using rhaymison/Mistral-portuguese-luana-7b-mental-health 1
Evaluation results
- accuracy on ENEM Challenge (No Images)Open Portuguese LLM Leaderboard60.530
- accuracy on BLUEX (No Images)Open Portuguese LLM Leaderboard48.260
- accuracy on OAB ExamsOpen Portuguese LLM Leaderboard38.040
- f1-macro on Assin2 RTEtest set Open Portuguese LLM Leaderboard91.300
- pearson on Assin2 STStest set Open Portuguese LLM Leaderboard74.980
- f1-macro on FaQuAD NLItest set Open Portuguese LLM Leaderboard60.570
- f1-macro on HateBR Binarytest set Open Portuguese LLM Leaderboard76.860
- f1-macro on PT Hate Speech Binarytest set Open Portuguese LLM Leaderboard70.050
- f1-macro on tweetSentBRtest set Open Portuguese LLM Leaderboard64.900