anakin87 SFconvertbot commited on
Commit
2d91705
·
verified ·
0 Parent(s):

Super-squash branch 'main' using huggingface_hub

Browse files

Co-authored-by: SFconvertbot <[email protected]>

.gitattributes ADDED
@@ -0,0 +1,34 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ *.7z filter=lfs diff=lfs merge=lfs -text
2
+ *.arrow filter=lfs diff=lfs merge=lfs -text
3
+ *.bin filter=lfs diff=lfs merge=lfs -text
4
+ *.bz2 filter=lfs diff=lfs merge=lfs -text
5
+ *.ckpt filter=lfs diff=lfs merge=lfs -text
6
+ *.ftz filter=lfs diff=lfs merge=lfs -text
7
+ *.gz filter=lfs diff=lfs merge=lfs -text
8
+ *.h5 filter=lfs diff=lfs merge=lfs -text
9
+ *.joblib filter=lfs diff=lfs merge=lfs -text
10
+ *.lfs.* filter=lfs diff=lfs merge=lfs -text
11
+ *.mlmodel filter=lfs diff=lfs merge=lfs -text
12
+ *.model filter=lfs diff=lfs merge=lfs -text
13
+ *.msgpack filter=lfs diff=lfs merge=lfs -text
14
+ *.npy filter=lfs diff=lfs merge=lfs -text
15
+ *.npz filter=lfs diff=lfs merge=lfs -text
16
+ *.onnx filter=lfs diff=lfs merge=lfs -text
17
+ *.ot filter=lfs diff=lfs merge=lfs -text
18
+ *.parquet filter=lfs diff=lfs merge=lfs -text
19
+ *.pb filter=lfs diff=lfs merge=lfs -text
20
+ *.pickle filter=lfs diff=lfs merge=lfs -text
21
+ *.pkl filter=lfs diff=lfs merge=lfs -text
22
+ *.pt filter=lfs diff=lfs merge=lfs -text
23
+ *.pth filter=lfs diff=lfs merge=lfs -text
24
+ *.rar filter=lfs diff=lfs merge=lfs -text
25
+ *.safetensors filter=lfs diff=lfs merge=lfs -text
26
+ saved_model/**/* filter=lfs diff=lfs merge=lfs -text
27
+ *.tar.* filter=lfs diff=lfs merge=lfs -text
28
+ *.tflite filter=lfs diff=lfs merge=lfs -text
29
+ *.tgz filter=lfs diff=lfs merge=lfs -text
30
+ *.wasm filter=lfs diff=lfs merge=lfs -text
31
+ *.xz filter=lfs diff=lfs merge=lfs -text
32
+ *.zip filter=lfs diff=lfs merge=lfs -text
33
+ *.zst filter=lfs diff=lfs merge=lfs -text
34
+ *tfevents* filter=lfs diff=lfs merge=lfs -text
README.md ADDED
@@ -0,0 +1,193 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ ---
2
+ datasets:
3
+ - squad_it
4
+ metrics:
5
+ - squad
6
+ language:
7
+ - it
8
+ license: apache-2.0
9
+ tags:
10
+ - italian
11
+ - squad_it
12
+ - question-answering
13
+ widget:
14
+ - text: Qual è il soprannome di Vasco Rossi?
15
+ context: >-
16
+ Vasco Rossi, noto anche semplicemente come Vasco e in passato con
17
+ l'appellativo Blasco (Zocca, 7 febbraio 1952), è un cantautore italiano
18
+ - text: >-
19
+ La foresta pluviale amazzonica è diventata per lo più una foresta interna
20
+ intorno a quale evento globale?
21
+ context: >-
22
+ In seguito all' evento di estinzione del Cretaceo-Paleogene, l' estinzione
23
+ dei dinosauri e il clima umido possono aver permesso alla foresta pluviale
24
+ tropicale di diffondersi in tutto il continente. Dal 66-34 Mya, la foresta
25
+ pluviale si estendeva fino a sud fino a 45°. Le fluttuazioni climatiche
26
+ degli ultimi 34 milioni di anni hanno permesso alle regioni della savana di
27
+ espandersi fino ai tropici. Durante l' Oligocene, ad esempio, la foresta
28
+ pluviale ha attraversato una banda relativamente stretta. Si espandeva di
29
+ nuovo durante il Miocene medio, poi si ritrasse ad una formazione
30
+ prevalentemente interna all' ultimo massimo glaciale. Tuttavia, la foresta
31
+ pluviale è riuscita ancora a prosperare durante questi periodi glaciali,
32
+ consentendo la sopravvivenza e l' evoluzione di un' ampia varietà di specie.
33
+ - text: >-
34
+ Il Regno Unito e la Francia non hanno avuto interruzioni dell'
35
+ approvvigionamento petrolifero in quanto non hanno consentito a quale paese
36
+ di utilizzare il loro aeroporto?
37
+ context: >-
38
+ L' embargo non era uniforme in tutta Europa. Dei nove membri della Comunità
39
+ Economica Europea (CEE), i Paesi Bassi hanno dovuto affrontare un embargo
40
+ totale, il Regno Unito e la Francia hanno ricevuto forniture quasi
41
+ ininterrotte (poichè si sono rifiutati di consentire all' America di
42
+ utilizzare i loro aerodromi e le armi e forniture embargo sia agli arabi che
43
+ agli israeliani), mentre gli altri sei hanno dovuto affrontare tagli
44
+ parziali. Il Regno Unito era tradizionalmente un alleato di Israele, e il
45
+ governo di Harold Wilson ha sostenuto gli israeliani durante la guerra dei
46
+ sei giorni. Il suo successore, Ted Heath, ribaltò questa politica nel 1970,
47
+ chiedendo a Israele di ritirarsi ai suoi confini prima del 1967.
48
+ - context: >-
49
+ Nel 1962, il grafico Paul Rand ridisegna il logo ABC nella sua forma più
50
+ conosciuta (e attuale) con le lettere minuscole 'abc' racchiuse in un unico
51
+ cerchio nero. Il nuovo logo esordisce in onda per le promozioni di ABC all'
52
+ inizio della stagione 1963-64. Le lettere ricordano fortemente il carattere
53
+ tipografico Bauhaus disegnato da Herbert Bayer negli anni Venti, ma
54
+ condividono anche similitudini con diversi altri caratteri, come ITC Avant
55
+ Garde e Horatio, e lo Chalet più simile. La semplicità del logo ha reso più
56
+ facile la riprogettazione e la duplicazione, il che ha conferito un
57
+ beneficio per ABC (soprattutto prima dell' avvento della computer grafica).
58
+ text: Di quale carattere tipografico ricordano le lettere dell' iconico logo ABC?
59
+ - context: >-
60
+ La fotorespirazione può verificarsi quando la concentrazione di ossigeno è
61
+ troppo elevata. Rubisco non è in grado di distinguere molto bene tra
62
+ ossigeno e anidride carbonica, quindi può accidentalmente aggiungere O2
63
+ invece di CO2 a RuBP. Questo processo riduce l' efficienza della
64
+ fotosintesi: consuma ATP e ossigeno, rilascia CO2 e non produce zucchero.
65
+ Può sprecare fino alla metà del carbonio fissato dal ciclo di Calvin.
66
+ Diversi meccanismi si sono evoluti in diversi lignaggi che aumentano la
67
+ concentrazione di anidride carbonica rispetto all' ossigeno all' interno del
68
+ cloroplasto, aumentando l' efficienza della fotosintesi. Questi meccanismi
69
+ sono chiamati meccanismi di concentrazione dell' anidride carbonica, o CCM.
70
+ Tra questi figurano il metabolismo degli acidi crassulaceanici, la
71
+ fissazione del carbonio C4 e i pirenoidi. I cloroplasti negli impianti C4
72
+ sono notevoli in quanto presentano un chiaro dimorfismo cloroplastico.
73
+ text: Che cosa può fare rubisco per errore?
74
+ model-index:
75
+ - name: electra-italian-xxl-cased-squad-it
76
+ results:
77
+ - task:
78
+ type: question-answering
79
+ name: Question Answering
80
+ dataset:
81
+ type: squad_it
82
+ name: SQuAD-IT
83
+ metrics:
84
+ - type: exact-match
85
+ value: 0.66
86
+ name: Test Exact Match
87
+ - type: f1
88
+ value: 0.775
89
+ name: Test F1
90
+ train-eval-index:
91
+ - config: default
92
+ task: question-answering
93
+ task_id: extractive_question_answering
94
+ splits:
95
+ eval_split: test
96
+ col_mapping:
97
+ context: context
98
+ question: question
99
+ answers.text: answers.text
100
+ answers.answer_start: answers.answer_start
101
+ pipeline_tag: question-answering
102
+ library_name: transformers
103
+ ---
104
+
105
+ # electra-italian-xxl-cased-squad-it
106
+
107
+ Electra model for (Extractive) Question Answering on Italian texts
108
+
109
+ ## Model description
110
+ This model has been fine-tuned on [squad_it dataset](https://huggingface.co/datasets/squad_it), starting from the pre-trained model [dbmdz/electra-base-italian-xxl-cased-discriminator](https://huggingface.co/dbmdz/electra-base-italian-xxl-cased-discriminator).
111
+
112
+ It can be used for [Extractive Q&A](https://huggingface.co/tasks/question-answering) on Italian texts.
113
+
114
+ ## Evaluation
115
+
116
+ | Metric | Value |
117
+ | ------ | --------- |
118
+ | **EM** | **0.660** |
119
+ | **F1** | **0.775** |
120
+
121
+ [Evaluation notebook](https://github.com/anakin87/electra-italian-xxl-cased-squad-it/blob/main/evaluation.ipynb)
122
+
123
+ ## Usage in Transformers 🤗
124
+ Model checkpoints are available for usage in PyTorch. They can be used directly with pipelines as:
125
+
126
+ ```python
127
+ from transformers import pipelines
128
+
129
+ qa = pipeline('question-answering', model='anakin87/electra-italian-xxl-cased-squad-it')
130
+ qa(question="Qual è il soprannome di Vasco Rossi?", context="Vasco Rossi, noto anche semplicemente come Vasco e in passato con l'appellativo Blasco (Zocca, 7 febbraio 1952), è un cantautore italiano")
131
+ >>> {'score': 0.93, 'start': 80, 'end': 86, 'answer': 'Blasco'}
132
+ ```
133
+ ## Usage in Haystack 🚀🚀🚀
134
+
135
+ With the [Haystack NLP framework](https://github.com/deepset-ai/haystack), you can use this model and create a scalable Question Answering system that works across millions of documents.
136
+
137
+ For a complete walkthrough, see [this notebook](https://github.com/anakin87/electra-italian-xxl-cased-squad-it/blob/main/usage_in_haystack.ipynb).
138
+
139
+ ```python
140
+ ...
141
+ print_answers(prediction, details="medium")
142
+
143
+ >>> Query: Con chi ha parlato di vaccini il premier Mario Draghi?
144
+ Answers:
145
+ [ { 'answer': 'Von der Leyen',
146
+ 'context': " vaccino dell'azienda britannica. Durante la telefonata "
147
+ 'tra Draghi e Von der Leyen, la presidente della '
148
+ 'Commissione Ue ha annunciato al presidente del',
149
+ 'score': 0.9663902521133423},
150
+ { 'answer': 'Ursula Von der Leyen',
151
+ 'context': 'colloquio telefonico con la presidente della Commissione '
152
+ 'europea Ursula Von der Leyen. Secondo fonti di Palazzo '
153
+ 'Chigi, dalla conversazione è emerso ch',
154
+ 'score': 0.9063920974731445},
155
+ { 'answer': 'Mario Draghi, ha tenuto un lungo discorso alla 76esima '
156
+ 'Assemblea Generale delle Nazioni Unite',
157
+ 'context': 'Il presidente del Consiglio, Mario Draghi, ha tenuto un '
158
+ 'lungo discorso alla 76esima Assemblea Generale delle '
159
+ 'Nazioni Unite, nella notte italiana. Tant',
160
+ 'score': 0.5243796706199646}]
161
+ ```
162
+
163
+ ## Comparison ⚖️
164
+
165
+ | Model | EM | F1 | Model size (PyTorch) | Architecture |
166
+ |-----------------------------------------------------------|-------|-------|----------------------|------------------|
167
+ | it5/it5-large-question-answering | 69.10 | 78.00 | 3.13 GB | encoder-decoder |
168
+ | ***anakin87/electra-italian-xxl-cased-squad-it (this one)*** | *66.03* | *77.47* | *437 MB* | *encoder* |
169
+ | it5/it5-base-question-answering | 66.30 | 76.10 | 990 MB | encoder-decoder |
170
+ | it5/mt5-base-question-answering | 66.30 | 75.70 | 2.33 GB | encoder-decoder |
171
+ | antoniocappiello/bert-base-italian-uncased-squad-it | 63.80 | 75.30 | 440 MB | encoder |
172
+ | luigisaetta/squad_it_xxl_cased_hub1 | 63.95 | 75.27 | 440 MB | encoder |
173
+ | it5/it5-efficient-small-el32-question-answering | 64.50 | 74.70 | 569 MB | encoder-decoder |
174
+ | mrm8488/bert-italian-finedtuned-squadv1-it-alfa | 62.51 | 74.16 | 440 MB | encoder |
175
+ | mrm8488/umberto-wikipedia-uncased-v1-finetuned-squadv1-it | 60.50 | 72.41 | 443 MB | encoder |
176
+ | it5/it5-small-question-answering | 61.90 | 71.60 | 308 MB | encoder-decoder |
177
+ | it5/mt5-small-question-answering | 56.00 | 66.00 | 1.2 GB | encoder-decoder |
178
+ | DrQA-it trained on SQuAD-it | 56.10 | 65.90 | ? | ? |
179
+
180
+ ## Training details 🏋️‍
181
+ [Training notebook](https://github.com/anakin87/electra-italian-xxl-cased-squad-it/blob/main/training.ipynb)
182
+
183
+ **Hyperparameters**
184
+ - learning_rate: 2e-05
185
+ - batch_size: 8
186
+ - optimizer: Adam with betas=(0.9,0.999) and epsilon=1e-08
187
+ - lr_scheduler_type: linear
188
+ - num_epochs: 2
189
+ - mixed_precision_training: Native AMP
190
+
191
+ > Created by [Stefano Fiorucci/anakin87](https://github.com/anakin87)
192
+ >
193
+ > Made with <span style="color: #e25555;">&hearts;</span> in Italy
config.json ADDED
@@ -0,0 +1,30 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "_name_or_path": "dbmdz/electra-base-italian-xxl-cased-discriminator",
3
+ "architectures": [
4
+ "ElectraForQuestionAnswering"
5
+ ],
6
+ "attention_probs_dropout_prob": 0.1,
7
+ "classifier_dropout": null,
8
+ "embedding_size": 768,
9
+ "hidden_act": "gelu",
10
+ "hidden_dropout_prob": 0.1,
11
+ "hidden_size": 768,
12
+ "initializer_range": 0.02,
13
+ "intermediate_size": 3072,
14
+ "layer_norm_eps": 1e-12,
15
+ "max_position_embeddings": 512,
16
+ "model_type": "electra",
17
+ "num_attention_heads": 12,
18
+ "num_hidden_layers": 12,
19
+ "pad_token_id": 0,
20
+ "position_embedding_type": "absolute",
21
+ "summary_activation": "gelu",
22
+ "summary_last_dropout": 0.1,
23
+ "summary_type": "first",
24
+ "summary_use_proj": true,
25
+ "torch_dtype": "float32",
26
+ "transformers_version": "4.20.1",
27
+ "type_vocab_size": 2,
28
+ "use_cache": true,
29
+ "vocab_size": 31102
30
+ }
model.safetensors ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:54659e6cc32bf1486d719eed4c034ed02804bb27bdf79852b7dc1859b732750c
3
+ size 437382628
pytorch_model.bin ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:e3b5f04adffee3dececd094e1ba3d71b577cf7b6837044c14003f803fb6693a8
3
+ size 437425521
special_tokens_map.json ADDED
@@ -0,0 +1,7 @@
 
 
 
 
 
 
 
 
1
+ {
2
+ "cls_token": "[CLS]",
3
+ "mask_token": "[MASK]",
4
+ "pad_token": "[PAD]",
5
+ "sep_token": "[SEP]",
6
+ "unk_token": "[UNK]"
7
+ }
tokenizer.json ADDED
The diff for this file is too large to render. See raw diff
 
tokenizer_config.json ADDED
@@ -0,0 +1,16 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "cls_token": "[CLS]",
3
+ "do_basic_tokenize": true,
4
+ "do_lower_case": false,
5
+ "mask_token": "[MASK]",
6
+ "max_len": 512,
7
+ "name_or_path": "dbmdz/electra-base-italian-xxl-cased-discriminator",
8
+ "never_split": null,
9
+ "pad_token": "[PAD]",
10
+ "sep_token": "[SEP]",
11
+ "special_tokens_map_file": null,
12
+ "strip_accents": null,
13
+ "tokenize_chinese_chars": true,
14
+ "tokenizer_class": "ElectraTokenizer",
15
+ "unk_token": "[UNK]"
16
+ }
vocab.txt ADDED
The diff for this file is too large to render. See raw diff