File size: 2,160 Bytes
953fc91 2f94b62 953fc91 e927e9e 1786e78 e927e9e |
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 |
---
language: ja
widget:
- text: "次の出来事の後に起こりうることは何ですか: Xが食パンにジャムを塗る"
---
# COMET-T5 ja
Finetuned T5 on [ATOMIC ja](https://github.com/nlp-waseda/comet-atomic-ja) using a text-to-text language modeling objective.
It was introduced in this paper.
### How to use
You can use this model directly with a pipeline for text2text generation.
Since the generation relies on some randomness, we set a seed for reproducibility:
```python
>>> from transformers import pipeline, set_seed
>>> generator = pipeline('text2text-generation', model='nlp-waseda/comet-t5-base-japanese')
>>> set_seed(42)
>>> generator("次の出来事の後に起こりうることは何ですか: Xが大学で勉強する", max_length=30, num_return_sequences=5, do_sample=True)
[{'generated_text': 'Xが成績順で合格する'},
{'generated_text': 'Xが学位を取得する'},
{'generated_text': 'Xが勉強を始める'},
{'generated_text': 'Xが大学に合格する'},
{'generated_text': 'Xが試験官から褒められる'}]
```
### Preprocessing
The prompts are different for each relation:
| Relation | Prompt |
| :------: | :---------------------------------------: |
| xNeed | 次の出来事に必要な前提条件は何ですか: |
| xEffect | 次の出来事の後に起こりうることは何ですか: |
| xIntent | 次の出来事が起こった動機は何ですか: |
| xReact | 次の出来事の後に感じることは何ですか: |
## Evaluation results
The model achieves the following results:
| BLEU | BERTScore |
|:-----:|:---------:|
| 39.85 | 82.37 |
### BibTeX entry and citation info
```bibtex
@InProceedings{ide_nlp2023_event,
author = "井手竜也 and 村田栄樹 and 堀尾海斗 and 河原大輔 and 山崎天 and 李聖哲 and 新里顕大 and 佐藤敏紀",
title = "人間と言語モデルに対するプロンプトを用いたゼロからのイベント常識知識グラフ構築",
booktitle = "言語処理学会第29回年次大会",
year = "2023",
url = ""
}
```
|