BERT Bahasa - Sentimen Berita

Model ini merupakan model klasifikasi sentimen berbasis BERT untuk artikel berita media online berbahasa Indonesia. Model ini memetakan artikel menjadi tiga kategori sentimen:

  • Positif
  • Netral
  • Negatif

Dataset

Model dilatih menggunakan kumpulan artikel berita dalam Bahasa Indonesia yang telah diberi label sentimen oleh LLM. Setiap sampel terdiri dari:

  • title: judul artikel
  • article_text: isi artikel
  • analisis_llm: label sentimen (positif, netral, atau negatif)

Jumlah data latih: 10.125 sampel
Distribusi label seimbang

Arsitektur

Model ini menggunakan pretrained BERT Indo (indobenchmark/indobert-base-p1) dan fine-tuned untuk tugas klasifikasi tiga label menggunakan transformers dari Hugging Face.

Cara Menggunakan

from transformers import AutoTokenizer, AutoModelForSequenceClassification, pipeline

model = AutoModelForSequenceClassification.from_pretrained("dwili/bert-bahasa-sentimen-berita")
tokenizer = AutoTokenizer.from_pretrained("dwili/bert-bahasa-sentimen-berita")

classifier = pipeline("text-classification", model=model, tokenizer=tokenizer)

text = "Pemerintah resmi meluncurkan kebijakan baru yang mendukung ekonomi masyarakat."
classifier(text)
Downloads last month
49
Safetensors
Model size
124M params
Tensor type
F32
ยท
Inference Providers NEW
This model isn't deployed by any Inference Provider. ๐Ÿ™‹ Ask for provider support

Model tree for dwili/bert-bahasa-sentimen-berita

Finetuned
(73)
this model