Commit
·
2d91705
verified
·
0
Parent(s):
Super-squash branch 'main' using huggingface_hub
Browse filesCo-authored-by: SFconvertbot <[email protected]>
- .gitattributes +34 -0
- README.md +193 -0
- config.json +30 -0
- model.safetensors +3 -0
- pytorch_model.bin +3 -0
- special_tokens_map.json +7 -0
- tokenizer.json +0 -0
- tokenizer_config.json +16 -0
- vocab.txt +0 -0
.gitattributes
ADDED
@@ -0,0 +1,34 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
+
*.7z filter=lfs diff=lfs merge=lfs -text
|
2 |
+
*.arrow filter=lfs diff=lfs merge=lfs -text
|
3 |
+
*.bin filter=lfs diff=lfs merge=lfs -text
|
4 |
+
*.bz2 filter=lfs diff=lfs merge=lfs -text
|
5 |
+
*.ckpt filter=lfs diff=lfs merge=lfs -text
|
6 |
+
*.ftz filter=lfs diff=lfs merge=lfs -text
|
7 |
+
*.gz filter=lfs diff=lfs merge=lfs -text
|
8 |
+
*.h5 filter=lfs diff=lfs merge=lfs -text
|
9 |
+
*.joblib filter=lfs diff=lfs merge=lfs -text
|
10 |
+
*.lfs.* filter=lfs diff=lfs merge=lfs -text
|
11 |
+
*.mlmodel filter=lfs diff=lfs merge=lfs -text
|
12 |
+
*.model filter=lfs diff=lfs merge=lfs -text
|
13 |
+
*.msgpack filter=lfs diff=lfs merge=lfs -text
|
14 |
+
*.npy filter=lfs diff=lfs merge=lfs -text
|
15 |
+
*.npz filter=lfs diff=lfs merge=lfs -text
|
16 |
+
*.onnx filter=lfs diff=lfs merge=lfs -text
|
17 |
+
*.ot filter=lfs diff=lfs merge=lfs -text
|
18 |
+
*.parquet filter=lfs diff=lfs merge=lfs -text
|
19 |
+
*.pb filter=lfs diff=lfs merge=lfs -text
|
20 |
+
*.pickle filter=lfs diff=lfs merge=lfs -text
|
21 |
+
*.pkl filter=lfs diff=lfs merge=lfs -text
|
22 |
+
*.pt filter=lfs diff=lfs merge=lfs -text
|
23 |
+
*.pth filter=lfs diff=lfs merge=lfs -text
|
24 |
+
*.rar filter=lfs diff=lfs merge=lfs -text
|
25 |
+
*.safetensors filter=lfs diff=lfs merge=lfs -text
|
26 |
+
saved_model/**/* filter=lfs diff=lfs merge=lfs -text
|
27 |
+
*.tar.* filter=lfs diff=lfs merge=lfs -text
|
28 |
+
*.tflite filter=lfs diff=lfs merge=lfs -text
|
29 |
+
*.tgz filter=lfs diff=lfs merge=lfs -text
|
30 |
+
*.wasm filter=lfs diff=lfs merge=lfs -text
|
31 |
+
*.xz filter=lfs diff=lfs merge=lfs -text
|
32 |
+
*.zip filter=lfs diff=lfs merge=lfs -text
|
33 |
+
*.zst filter=lfs diff=lfs merge=lfs -text
|
34 |
+
*tfevents* filter=lfs diff=lfs merge=lfs -text
|
README.md
ADDED
@@ -0,0 +1,193 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
+
---
|
2 |
+
datasets:
|
3 |
+
- squad_it
|
4 |
+
metrics:
|
5 |
+
- squad
|
6 |
+
language:
|
7 |
+
- it
|
8 |
+
license: apache-2.0
|
9 |
+
tags:
|
10 |
+
- italian
|
11 |
+
- squad_it
|
12 |
+
- question-answering
|
13 |
+
widget:
|
14 |
+
- text: Qual è il soprannome di Vasco Rossi?
|
15 |
+
context: >-
|
16 |
+
Vasco Rossi, noto anche semplicemente come Vasco e in passato con
|
17 |
+
l'appellativo Blasco (Zocca, 7 febbraio 1952), è un cantautore italiano
|
18 |
+
- text: >-
|
19 |
+
La foresta pluviale amazzonica è diventata per lo più una foresta interna
|
20 |
+
intorno a quale evento globale?
|
21 |
+
context: >-
|
22 |
+
In seguito all' evento di estinzione del Cretaceo-Paleogene, l' estinzione
|
23 |
+
dei dinosauri e il clima umido possono aver permesso alla foresta pluviale
|
24 |
+
tropicale di diffondersi in tutto il continente. Dal 66-34 Mya, la foresta
|
25 |
+
pluviale si estendeva fino a sud fino a 45°. Le fluttuazioni climatiche
|
26 |
+
degli ultimi 34 milioni di anni hanno permesso alle regioni della savana di
|
27 |
+
espandersi fino ai tropici. Durante l' Oligocene, ad esempio, la foresta
|
28 |
+
pluviale ha attraversato una banda relativamente stretta. Si espandeva di
|
29 |
+
nuovo durante il Miocene medio, poi si ritrasse ad una formazione
|
30 |
+
prevalentemente interna all' ultimo massimo glaciale. Tuttavia, la foresta
|
31 |
+
pluviale è riuscita ancora a prosperare durante questi periodi glaciali,
|
32 |
+
consentendo la sopravvivenza e l' evoluzione di un' ampia varietà di specie.
|
33 |
+
- text: >-
|
34 |
+
Il Regno Unito e la Francia non hanno avuto interruzioni dell'
|
35 |
+
approvvigionamento petrolifero in quanto non hanno consentito a quale paese
|
36 |
+
di utilizzare il loro aeroporto?
|
37 |
+
context: >-
|
38 |
+
L' embargo non era uniforme in tutta Europa. Dei nove membri della Comunità
|
39 |
+
Economica Europea (CEE), i Paesi Bassi hanno dovuto affrontare un embargo
|
40 |
+
totale, il Regno Unito e la Francia hanno ricevuto forniture quasi
|
41 |
+
ininterrotte (poichè si sono rifiutati di consentire all' America di
|
42 |
+
utilizzare i loro aerodromi e le armi e forniture embargo sia agli arabi che
|
43 |
+
agli israeliani), mentre gli altri sei hanno dovuto affrontare tagli
|
44 |
+
parziali. Il Regno Unito era tradizionalmente un alleato di Israele, e il
|
45 |
+
governo di Harold Wilson ha sostenuto gli israeliani durante la guerra dei
|
46 |
+
sei giorni. Il suo successore, Ted Heath, ribaltò questa politica nel 1970,
|
47 |
+
chiedendo a Israele di ritirarsi ai suoi confini prima del 1967.
|
48 |
+
- context: >-
|
49 |
+
Nel 1962, il grafico Paul Rand ridisegna il logo ABC nella sua forma più
|
50 |
+
conosciuta (e attuale) con le lettere minuscole 'abc' racchiuse in un unico
|
51 |
+
cerchio nero. Il nuovo logo esordisce in onda per le promozioni di ABC all'
|
52 |
+
inizio della stagione 1963-64. Le lettere ricordano fortemente il carattere
|
53 |
+
tipografico Bauhaus disegnato da Herbert Bayer negli anni Venti, ma
|
54 |
+
condividono anche similitudini con diversi altri caratteri, come ITC Avant
|
55 |
+
Garde e Horatio, e lo Chalet più simile. La semplicità del logo ha reso più
|
56 |
+
facile la riprogettazione e la duplicazione, il che ha conferito un
|
57 |
+
beneficio per ABC (soprattutto prima dell' avvento della computer grafica).
|
58 |
+
text: Di quale carattere tipografico ricordano le lettere dell' iconico logo ABC?
|
59 |
+
- context: >-
|
60 |
+
La fotorespirazione può verificarsi quando la concentrazione di ossigeno è
|
61 |
+
troppo elevata. Rubisco non è in grado di distinguere molto bene tra
|
62 |
+
ossigeno e anidride carbonica, quindi può accidentalmente aggiungere O2
|
63 |
+
invece di CO2 a RuBP. Questo processo riduce l' efficienza della
|
64 |
+
fotosintesi: consuma ATP e ossigeno, rilascia CO2 e non produce zucchero.
|
65 |
+
Può sprecare fino alla metà del carbonio fissato dal ciclo di Calvin.
|
66 |
+
Diversi meccanismi si sono evoluti in diversi lignaggi che aumentano la
|
67 |
+
concentrazione di anidride carbonica rispetto all' ossigeno all' interno del
|
68 |
+
cloroplasto, aumentando l' efficienza della fotosintesi. Questi meccanismi
|
69 |
+
sono chiamati meccanismi di concentrazione dell' anidride carbonica, o CCM.
|
70 |
+
Tra questi figurano il metabolismo degli acidi crassulaceanici, la
|
71 |
+
fissazione del carbonio C4 e i pirenoidi. I cloroplasti negli impianti C4
|
72 |
+
sono notevoli in quanto presentano un chiaro dimorfismo cloroplastico.
|
73 |
+
text: Che cosa può fare rubisco per errore?
|
74 |
+
model-index:
|
75 |
+
- name: electra-italian-xxl-cased-squad-it
|
76 |
+
results:
|
77 |
+
- task:
|
78 |
+
type: question-answering
|
79 |
+
name: Question Answering
|
80 |
+
dataset:
|
81 |
+
type: squad_it
|
82 |
+
name: SQuAD-IT
|
83 |
+
metrics:
|
84 |
+
- type: exact-match
|
85 |
+
value: 0.66
|
86 |
+
name: Test Exact Match
|
87 |
+
- type: f1
|
88 |
+
value: 0.775
|
89 |
+
name: Test F1
|
90 |
+
train-eval-index:
|
91 |
+
- config: default
|
92 |
+
task: question-answering
|
93 |
+
task_id: extractive_question_answering
|
94 |
+
splits:
|
95 |
+
eval_split: test
|
96 |
+
col_mapping:
|
97 |
+
context: context
|
98 |
+
question: question
|
99 |
+
answers.text: answers.text
|
100 |
+
answers.answer_start: answers.answer_start
|
101 |
+
pipeline_tag: question-answering
|
102 |
+
library_name: transformers
|
103 |
+
---
|
104 |
+
|
105 |
+
# electra-italian-xxl-cased-squad-it
|
106 |
+
|
107 |
+
Electra model for (Extractive) Question Answering on Italian texts
|
108 |
+
|
109 |
+
## Model description
|
110 |
+
This model has been fine-tuned on [squad_it dataset](https://huggingface.co/datasets/squad_it), starting from the pre-trained model [dbmdz/electra-base-italian-xxl-cased-discriminator](https://huggingface.co/dbmdz/electra-base-italian-xxl-cased-discriminator).
|
111 |
+
|
112 |
+
It can be used for [Extractive Q&A](https://huggingface.co/tasks/question-answering) on Italian texts.
|
113 |
+
|
114 |
+
## Evaluation
|
115 |
+
|
116 |
+
| Metric | Value |
|
117 |
+
| ------ | --------- |
|
118 |
+
| **EM** | **0.660** |
|
119 |
+
| **F1** | **0.775** |
|
120 |
+
|
121 |
+
[Evaluation notebook](https://github.com/anakin87/electra-italian-xxl-cased-squad-it/blob/main/evaluation.ipynb)
|
122 |
+
|
123 |
+
## Usage in Transformers 🤗
|
124 |
+
Model checkpoints are available for usage in PyTorch. They can be used directly with pipelines as:
|
125 |
+
|
126 |
+
```python
|
127 |
+
from transformers import pipelines
|
128 |
+
|
129 |
+
qa = pipeline('question-answering', model='anakin87/electra-italian-xxl-cased-squad-it')
|
130 |
+
qa(question="Qual è il soprannome di Vasco Rossi?", context="Vasco Rossi, noto anche semplicemente come Vasco e in passato con l'appellativo Blasco (Zocca, 7 febbraio 1952), è un cantautore italiano")
|
131 |
+
>>> {'score': 0.93, 'start': 80, 'end': 86, 'answer': 'Blasco'}
|
132 |
+
```
|
133 |
+
## Usage in Haystack 🚀🚀🚀
|
134 |
+
|
135 |
+
With the [Haystack NLP framework](https://github.com/deepset-ai/haystack), you can use this model and create a scalable Question Answering system that works across millions of documents.
|
136 |
+
|
137 |
+
For a complete walkthrough, see [this notebook](https://github.com/anakin87/electra-italian-xxl-cased-squad-it/blob/main/usage_in_haystack.ipynb).
|
138 |
+
|
139 |
+
```python
|
140 |
+
...
|
141 |
+
print_answers(prediction, details="medium")
|
142 |
+
|
143 |
+
>>> Query: Con chi ha parlato di vaccini il premier Mario Draghi?
|
144 |
+
Answers:
|
145 |
+
[ { 'answer': 'Von der Leyen',
|
146 |
+
'context': " vaccino dell'azienda britannica. Durante la telefonata "
|
147 |
+
'tra Draghi e Von der Leyen, la presidente della '
|
148 |
+
'Commissione Ue ha annunciato al presidente del',
|
149 |
+
'score': 0.9663902521133423},
|
150 |
+
{ 'answer': 'Ursula Von der Leyen',
|
151 |
+
'context': 'colloquio telefonico con la presidente della Commissione '
|
152 |
+
'europea Ursula Von der Leyen. Secondo fonti di Palazzo '
|
153 |
+
'Chigi, dalla conversazione è emerso ch',
|
154 |
+
'score': 0.9063920974731445},
|
155 |
+
{ 'answer': 'Mario Draghi, ha tenuto un lungo discorso alla 76esima '
|
156 |
+
'Assemblea Generale delle Nazioni Unite',
|
157 |
+
'context': 'Il presidente del Consiglio, Mario Draghi, ha tenuto un '
|
158 |
+
'lungo discorso alla 76esima Assemblea Generale delle '
|
159 |
+
'Nazioni Unite, nella notte italiana. Tant',
|
160 |
+
'score': 0.5243796706199646}]
|
161 |
+
```
|
162 |
+
|
163 |
+
## Comparison ⚖️
|
164 |
+
|
165 |
+
| Model | EM | F1 | Model size (PyTorch) | Architecture |
|
166 |
+
|-----------------------------------------------------------|-------|-------|----------------------|------------------|
|
167 |
+
| it5/it5-large-question-answering | 69.10 | 78.00 | 3.13 GB | encoder-decoder |
|
168 |
+
| ***anakin87/electra-italian-xxl-cased-squad-it (this one)*** | *66.03* | *77.47* | *437 MB* | *encoder* |
|
169 |
+
| it5/it5-base-question-answering | 66.30 | 76.10 | 990 MB | encoder-decoder |
|
170 |
+
| it5/mt5-base-question-answering | 66.30 | 75.70 | 2.33 GB | encoder-decoder |
|
171 |
+
| antoniocappiello/bert-base-italian-uncased-squad-it | 63.80 | 75.30 | 440 MB | encoder |
|
172 |
+
| luigisaetta/squad_it_xxl_cased_hub1 | 63.95 | 75.27 | 440 MB | encoder |
|
173 |
+
| it5/it5-efficient-small-el32-question-answering | 64.50 | 74.70 | 569 MB | encoder-decoder |
|
174 |
+
| mrm8488/bert-italian-finedtuned-squadv1-it-alfa | 62.51 | 74.16 | 440 MB | encoder |
|
175 |
+
| mrm8488/umberto-wikipedia-uncased-v1-finetuned-squadv1-it | 60.50 | 72.41 | 443 MB | encoder |
|
176 |
+
| it5/it5-small-question-answering | 61.90 | 71.60 | 308 MB | encoder-decoder |
|
177 |
+
| it5/mt5-small-question-answering | 56.00 | 66.00 | 1.2 GB | encoder-decoder |
|
178 |
+
| DrQA-it trained on SQuAD-it | 56.10 | 65.90 | ? | ? |
|
179 |
+
|
180 |
+
## Training details 🏋️
|
181 |
+
[Training notebook](https://github.com/anakin87/electra-italian-xxl-cased-squad-it/blob/main/training.ipynb)
|
182 |
+
|
183 |
+
**Hyperparameters**
|
184 |
+
- learning_rate: 2e-05
|
185 |
+
- batch_size: 8
|
186 |
+
- optimizer: Adam with betas=(0.9,0.999) and epsilon=1e-08
|
187 |
+
- lr_scheduler_type: linear
|
188 |
+
- num_epochs: 2
|
189 |
+
- mixed_precision_training: Native AMP
|
190 |
+
|
191 |
+
> Created by [Stefano Fiorucci/anakin87](https://github.com/anakin87)
|
192 |
+
>
|
193 |
+
> Made with <span style="color: #e25555;">♥</span> in Italy
|
config.json
ADDED
@@ -0,0 +1,30 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
+
{
|
2 |
+
"_name_or_path": "dbmdz/electra-base-italian-xxl-cased-discriminator",
|
3 |
+
"architectures": [
|
4 |
+
"ElectraForQuestionAnswering"
|
5 |
+
],
|
6 |
+
"attention_probs_dropout_prob": 0.1,
|
7 |
+
"classifier_dropout": null,
|
8 |
+
"embedding_size": 768,
|
9 |
+
"hidden_act": "gelu",
|
10 |
+
"hidden_dropout_prob": 0.1,
|
11 |
+
"hidden_size": 768,
|
12 |
+
"initializer_range": 0.02,
|
13 |
+
"intermediate_size": 3072,
|
14 |
+
"layer_norm_eps": 1e-12,
|
15 |
+
"max_position_embeddings": 512,
|
16 |
+
"model_type": "electra",
|
17 |
+
"num_attention_heads": 12,
|
18 |
+
"num_hidden_layers": 12,
|
19 |
+
"pad_token_id": 0,
|
20 |
+
"position_embedding_type": "absolute",
|
21 |
+
"summary_activation": "gelu",
|
22 |
+
"summary_last_dropout": 0.1,
|
23 |
+
"summary_type": "first",
|
24 |
+
"summary_use_proj": true,
|
25 |
+
"torch_dtype": "float32",
|
26 |
+
"transformers_version": "4.20.1",
|
27 |
+
"type_vocab_size": 2,
|
28 |
+
"use_cache": true,
|
29 |
+
"vocab_size": 31102
|
30 |
+
}
|
model.safetensors
ADDED
@@ -0,0 +1,3 @@
|
|
|
|
|
|
|
|
|
1 |
+
version https://git-lfs.github.com/spec/v1
|
2 |
+
oid sha256:54659e6cc32bf1486d719eed4c034ed02804bb27bdf79852b7dc1859b732750c
|
3 |
+
size 437382628
|
pytorch_model.bin
ADDED
@@ -0,0 +1,3 @@
|
|
|
|
|
|
|
|
|
1 |
+
version https://git-lfs.github.com/spec/v1
|
2 |
+
oid sha256:e3b5f04adffee3dececd094e1ba3d71b577cf7b6837044c14003f803fb6693a8
|
3 |
+
size 437425521
|
special_tokens_map.json
ADDED
@@ -0,0 +1,7 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
+
{
|
2 |
+
"cls_token": "[CLS]",
|
3 |
+
"mask_token": "[MASK]",
|
4 |
+
"pad_token": "[PAD]",
|
5 |
+
"sep_token": "[SEP]",
|
6 |
+
"unk_token": "[UNK]"
|
7 |
+
}
|
tokenizer.json
ADDED
The diff for this file is too large to render.
See raw diff
|
|
tokenizer_config.json
ADDED
@@ -0,0 +1,16 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
+
{
|
2 |
+
"cls_token": "[CLS]",
|
3 |
+
"do_basic_tokenize": true,
|
4 |
+
"do_lower_case": false,
|
5 |
+
"mask_token": "[MASK]",
|
6 |
+
"max_len": 512,
|
7 |
+
"name_or_path": "dbmdz/electra-base-italian-xxl-cased-discriminator",
|
8 |
+
"never_split": null,
|
9 |
+
"pad_token": "[PAD]",
|
10 |
+
"sep_token": "[SEP]",
|
11 |
+
"special_tokens_map_file": null,
|
12 |
+
"strip_accents": null,
|
13 |
+
"tokenize_chinese_chars": true,
|
14 |
+
"tokenizer_class": "ElectraTokenizer",
|
15 |
+
"unk_token": "[UNK]"
|
16 |
+
}
|
vocab.txt
ADDED
The diff for this file is too large to render.
See raw diff
|
|