SYAS1
SYAS1-PTBR é um modelo Transformer com base no Distilbert, focado em análise de sentimentos para o Português Brasileiro.
O principal intuito dele, além de estudo, é contribuir com a comunidade brasileira, pois há uma grande escassez de LLMs para a lingua portuguesa.
Descrição
O SYAS1-PTBR é um modelo baseado no Distilbert-base sendo treinado por fine-tuning utilizando o dataset "Portuguese Tweets for Sentiment Analysis" do Kaggle. O seu treinamento foi feito exclusivamente pelo Google Colab Pro, utilizando de uma GPU NVIDIA L4.
Detalhes do Modelo
- Criado por: Arhat
- Tipo do Modelo: Text Classification
- Licença: Apache 2.0
- Modelo base: distilbert-base-uncased
- Idioma: Português Brasileiro
Como usar
import torch
import torch.nn.functional as F
from transformers import AutoTokenizer, AutoModelForSequenceClassification
tokenizer = AutoTokenizer.from_pretrained("1Arhat/SYAS1-PTBR")
model = AutoModelForSequenceClassification.from_pretrained("1Arhat/SYAS1-PTBR")
# Texto para classificação
texto = "Esse produto é incrível! Recomendo muito."
# Processar seu texto
inputs = tokenizer(texto, return_tensors="pt")
# Previsões do modelo
with torch.no_grad():
outputs = model(**inputs)
logits = outputs.logits
predicao = torch.argmax(logits, dim=1).item()
#print(f"Classe prevista: {predicao}")
# Output: Classe prevista: 2
# Caso deseje que ele entregue porcentagens de todas as classes:
probs = F.softmax(logits, dim=1) # Uso da função softmax para transformar a saída do logits em probabilidades
labels = ["Negativo", "Neutro", "Positivo"]
for idx, label in enumerate(labels):
print(f'{label}: {probs[0][idx]}')
# Output:
#Negativo: 0.2401905506849289
#Neutro: 0.028042761608958244
#Positivo: 0.7317667007446289
# Caso deseje mais praticidade, use o pipeline do Hugging face
Função
O SYAS1 foi criado para análise de sentimentos com foco na língua portuguesa.
Por ser um modelo treinado por fine-tuning do DistilBERT, ele pode funcionar em inglês, mas é altamente recomendado utilizá-lo apenas para o português.
Se precisar de análise de sentimentos em outro idioma, recomendo usar outros modelos disponíveis.
Resultados
Metric | Value |
---|---|
Accuracy | 0.7384 |
F1-SCORE | 0.74 |
- Downloads last month
- 205
Model tree for 1Arhat/SYAS1-PTBR
Base model
distilbert/distilbert-base-uncased