Edit model card

判決書「犯罪事實」欄草稿自動生成

本模型是以司法院公開之「詐欺」案件判決書做成之資料集,基於 BLOOM 560m 模型進行微調訓練,可以自動生成詐欺及竊盜案件之犯罪事實段落之草稿。資料集之資料範圍從100年1月1日至110年12月31日,所蒐集到的原始資料共有 74823 篇(判決以及裁定),我們只取判決書的「犯罪事實」欄位內容,並把這原始的資料分成三份,用於訓練的資料集有59858篇,約佔原始資料的80%,剩下的20%,則是各分配10%給驗證集(7482篇),10%給測試集(7483篇)。在本網頁進行測試時,請在模型載入完畢並生成第一小句後,持續按下Compute按鈕,就能持續生成文字。或是輸入自己想要測試的資料到文字框中進行測試。或是可以到這裡有更完整的使用體驗。

使用範例

如果要在自己的程式中調用本模型,可以參考下列的 Python 程式碼,藉由呼叫 API 的方式來生成刑事判決書「犯罪事實」欄的內容。

點擊後展開
  
import requests, json
from time import sleep
from tqdm.auto import tqdm, trange

API_URL = "https://api-inference.huggingface.co/models/jslin09/bloom-560m-finetuned-fraud" API_TOKEN = 'XXXXXXXXXXXXXXX' # 調用模型的 API token headers = {"Authorization": f"Bearer {API_TOKEN}"}

def query(payload): response = requests.post(API_URL, headers=headers, json=payload) return json.loads(response.content.decode("utf-8"))

prompt = "森上梅前明知其無資力支付酒店消費,亦無付款意願,竟意圖為自己不法之所有," query_dict = { "inputs": prompt, } text_len = 300 t = trange(text_len, desc= '生成例稿', leave=True) for i in t: response = query(query_dict) try: response_text = response[0]['generated_text'] query_dict["inputs"] = response_text t.set_description(f"{i}: {response[0]['generated_text']}") t.refresh() except KeyError: sleep(30) # 如果伺服器太忙無回應,等30秒後再試。 pass print(response[0]['generated_text'])

或是,你要使用 transformers 套件來實作你的程式,將本模型下載至你本地端的電腦中執行,可以參考下列程式碼:

點擊後展開
  
from transformers import AutoTokenizer, AutoModelForCausalLM

tokenizer = AutoTokenizer.from_pretrained("jslin09/bloom-560m-finetuned-fraud") model = AutoModelForCausalLM.from_pretrained("jslin09/bloom-560m-finetuned-fraud")

本模型進行各項指標進行評估的結果如下 Open LLM Leaderboard Evaluation Results

詳細的結果在 這裡。 本模型只使用範圍相當小的資料集進行微調,就任務目標來說,已經是完美解決,但就廣泛的通用性來說,其實是不完美的。總的來說,如果應用場景是需要把模型建置在本地端、不能連到外部網路、提示字資料也不能外送的情境下,本模型的建置過程及結果提供了一個可行性的示範。

Metric Value
Avg. 18.37
ARC (25-shot) 26.96
HellaSwag (10-shot) 28.87
MMLU (5-shot) 24.03
TruthfulQA (0-shot) 0.0
Winogrande (5-shot) 48.38
GSM8K (5-shot) 0.0
DROP (3-shot) 0.33

引文訊息

@misc{lin2024legal,
      title={Legal Documents Drafting with Fine-Tuned Pre-Trained Large Language Model}, 
      author={Chun-Hsien Lin and Pu-Jen Cheng},
      year={2024},
      eprint={2406.04202},
      archivePrefix={arXiv},
      primaryClass={cs.CL}
      url = {https://arxiv.org/abs/2406.04202}
}
Downloads last month
1,673
Safetensors
Model size
559M params
Tensor type
F32
·
Inference Examples
This model does not have enough activity to be deployed to Inference API (serverless) yet. Increase its social visibility and check back later, or deploy to Inference Endpoints (dedicated) instead.

Model tree for jslin09/bloom-560m-finetuned-fraud

Finetunes
3 models

Dataset used to train jslin09/bloom-560m-finetuned-fraud