Add SetFit model
Browse files- .gitattributes +1 -0
- 1_Pooling/config.json +7 -0
- README.md +523 -0
- config.json +29 -0
- config_sentence_transformers.json +7 -0
- config_setfit.json +4 -0
- model.safetensors +3 -0
- model_head.pkl +3 -0
- modules.json +14 -0
- sentence_bert_config.json +4 -0
- sentencepiece.bpe.model +3 -0
- special_tokens_map.json +51 -0
- tokenizer.json +3 -0
- tokenizer_config.json +61 -0
.gitattributes
CHANGED
@@ -33,3 +33,4 @@ saved_model/**/* filter=lfs diff=lfs merge=lfs -text
|
|
33 |
*.zip filter=lfs diff=lfs merge=lfs -text
|
34 |
*.zst filter=lfs diff=lfs merge=lfs -text
|
35 |
*tfevents* filter=lfs diff=lfs merge=lfs -text
|
|
|
|
33 |
*.zip filter=lfs diff=lfs merge=lfs -text
|
34 |
*.zst filter=lfs diff=lfs merge=lfs -text
|
35 |
*tfevents* filter=lfs diff=lfs merge=lfs -text
|
36 |
+
tokenizer.json filter=lfs diff=lfs merge=lfs -text
|
1_Pooling/config.json
ADDED
@@ -0,0 +1,7 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
+
{
|
2 |
+
"word_embedding_dimension": 768,
|
3 |
+
"pooling_mode_cls_token": false,
|
4 |
+
"pooling_mode_mean_tokens": true,
|
5 |
+
"pooling_mode_max_tokens": false,
|
6 |
+
"pooling_mode_mean_sqrt_len_tokens": false
|
7 |
+
}
|
README.md
ADDED
@@ -0,0 +1,523 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
+
---
|
2 |
+
library_name: setfit
|
3 |
+
tags:
|
4 |
+
- setfit
|
5 |
+
- sentence-transformers
|
6 |
+
- text-classification
|
7 |
+
- generated_from_setfit_trainer
|
8 |
+
metrics:
|
9 |
+
- '0'
|
10 |
+
- '1'
|
11 |
+
- '2'
|
12 |
+
- accuracy
|
13 |
+
- macro avg
|
14 |
+
- weighted avg
|
15 |
+
widget:
|
16 |
+
- text: 'Adil Hussain
|
17 |
+
|
18 |
+
Adil Hussain est reconnaissant d''avoir reçu l''enseignement de l''acteur Naseeruddin
|
19 |
+
Shah à l''époque où il fréquentait l''École nationale d''art dramatique'
|
20 |
+
- text: 'Les démocrates doivent y remporter des victoires pour gagner cinq sièges
|
21 |
+
à la Chambre et faire du député Hakeem Jeffries, de Brooklyn, le prochain président
|
22 |
+
de la Chambre des représentants Les démocrates aspirent à renverser six circonscriptions
|
23 |
+
détenues par les républicains que M. Biden a remportées en 2020, notamment celle
|
24 |
+
de M Des problèmes à venir pour les démocrates de New York en 2024 ?
|
25 |
+
|
26 |
+
Les dirigeants démocrates de New York se débattent depuis des mois avec le problème
|
27 |
+
de l''hébergement des dizaines de milliers de migrants qui ont été transportés
|
28 |
+
par bus jusqu''à New York et laissés à sa charge.
|
29 |
+
|
30 |
+
Mais une autre préoccupation se profile alors que la crise se poursuit sans qu''aucune
|
31 |
+
issue ne soit en vue : les retombées potentielles pour leur parti lors des élections
|
32 |
+
de l''année prochaine Des problèmes à venir pour les démocrates de New York en
|
33 |
+
2024 ?
|
34 |
+
|
35 |
+
Les dirigeants démocrates de New York se débattent depuis des mois avec le problème
|
36 |
+
de l''hébergement des dizaines de milliers de migrants qui ont été transportés
|
37 |
+
par bus jusqu''à New York et laissés à sa charge Les républicains ont tendance
|
38 |
+
à se sentir en sécurité lorsqu''ils parlent d''immigration - comme les démocrates
|
39 |
+
le font pour l''avortement - et sont clairement à l''attaque sur la question des
|
40 |
+
migrants à New York, tandis que les démocrates sont sur la défensive, a déclaré
|
41 |
+
Kyle Kondik, directeur de la communication pour le Centre de politique de l''Université
|
42 |
+
de Virginie, au réseau USA Today Plus de 100 000 migrants ont été transportés
|
43 |
+
à New York depuis la frontière sud depuis le printemps 2022. Environ 60 000 d''entre
|
44 |
+
eux sont hébergés dans la ville, et plus de 2 100 ont été transportés dans des
|
45 |
+
hôtels situés dans sept comtés au nord de la ville, de Yonkers à la périphérie
|
46 |
+
de Buffalo, où ils sont logés aux frais de la ville Bien que leurs opinions sur
|
47 |
+
la question de savoir si les migrants sont un avantage ou un fardeau soient plus
|
48 |
+
mitigées, de nettes majorités d''électeurs de toute la ville de New York, de la
|
49 |
+
banlieue et du nord de l''État ont déclaré que l''État devrait essayer de ralentir
|
50 |
+
l''afflux de migrants, plutôt que d''en accepter davantage et de s''efforcer d''assimiler
|
51 |
+
les nouveaux arrivants Isaac Goldberg, un stratège démocrate qui a travaillé sur
|
52 |
+
plusieurs campagnes électorales à New York, a affirmé qu''il était beaucoup trop
|
53 |
+
tôt pour prédire l''impact politique de la crise des migrants, soulignant que
|
54 |
+
les élections de 2024 n''auront lieu que dans 14 mois et que de nombreuses questions
|
55 |
+
tout aussi urgentes pourraient se poser Les publicités d''attaque des républicains
|
56 |
+
s''écrivent pratiquement d''elles-mêmes à partir d''un flot de titres et d''images
|
57 |
+
télévisées, alors que le gouverneur Kathy Hochul, le maire de New York Eric Adams
|
58 |
+
et le président Joe Biden - tous démocrates - se rejettent mutuellement la faute
|
59 |
+
et s''échangent des coups de feu pour savoir qui devrait en faire le plus Les
|
60 |
+
républicains se sont emparés de la crise des migrants, donnant un avant-goût des
|
61 |
+
campagnes de l''année prochaine Les républicains ont surenchéri : Elise Stefanik,
|
62 |
+
la New-Yorkaise qui dirige la conférence du parti démocrate à la Chambre des représentants,
|
63 |
+
|
64 |
+
Suite à la page suivante
|
65 |
+
|
66 |
+
a déclaré à Politico la semaine dernière que le parti allait consacrer 100 millions
|
67 |
+
de dollars aux campagnes dans les circonscriptions de New York'
|
68 |
+
- text: 'LE CANDIDAT A LA PRESIDENCE RAMASWAMY VEUT METTRE FIN AU SYSTEME DE VISA
|
69 |
+
H-1B AUX ETATS-UNIS
|
70 |
+
|
71 |
+
Décrivant le programme de visas H-1B comme une forme de "servitude", Vivek Ramaswamy,
|
72 |
+
candidat républicain indien-américain à l''élection présidentielle, a promis de
|
73 |
+
"vider" le système basé sur la loterie et de le remplacer par un système d''admission
|
74 |
+
méritocratique s''il remporte les élections présidentielles de 2024'
|
75 |
+
- text: 'Smith Hal Sparks Catherine Zeta-Jones son-Sampras Chris Owen Donald Glover
|
76 |
+
|
77 |
+
("Queer as Folk") a 54 ans. a 54 ans. Acteur
|
78 |
+
|
79 |
+
("Je sais ce que vous avez fait l''été dernier") a 50 ans Smith Hal Sparks Catherine
|
80 |
+
Zeta-Jones son-Sampras Chris Owen Donald Glover
|
81 |
+
|
82 |
+
("Queer as Folk") a 54 ans'
|
83 |
+
- text: 'Il a poursuivi en disant que Trump ne laisserait pas ses partisans s''approcher
|
84 |
+
de l''une de ses propriétés. "Les gens qui votent pour Trump, pour la plupart,
|
85 |
+
ne les laisseraient même pas entrer dans un putain d''hôtel [ "Les gens qui votent
|
86 |
+
pour Trump, pour la plupart, ne les laisseraient même pas entrer dans un putain
|
87 |
+
d''hôtel [...]. Allez à Mar-a-lago, voyez s''il y a des gens qui vous ressemblent"
|
88 |
+
"Combien de temps allons-nous continuer à élire des gens qui ont perdu l''élection
|
89 |
+
?"
|
90 |
+
|
91 |
+
Il a poursuivi en qualifiant les partisans de Trump de "nigauds".
|
92 |
+
|
93 |
+
"Mon Dieu, j''ai l''impression d''être dans une nation de nigauds. J''espère qu''il
|
94 |
+
y a encore des gens brillants et dynamiques qui aiment ce pays", a-t-il déclaré
|
95 |
+
"Et soudain, Trump a transformé Howard, qui était le roi de tous les médias, en
|
96 |
+
prince Harry de tous les médias. Tout le monde s''en fout Alors cette idée que
|
97 |
+
Trump est le pire type qui ait jamais marché sur la surface de la terre, pourquoi
|
98 |
+
traîniez-vous avec lui ?"
|
99 |
+
|
100 |
+
M. Failla a déclaré que cela avait "tué" M L''aversion d''Howard Stern pour Donald
|
101 |
+
Trump, c''est "tout l''ego".
|
102 |
+
|
103 |
+
Si "woke" signifie que je ne peux pas soutenir Trump, ce que je pense que cela
|
104 |
+
signifie, ou que je soutiens les personnes qui veulent être transgenres ou que
|
105 |
+
je suis pour le vaccin, appelez-moi "woke" comme vous voulez Si "woke" signifie
|
106 |
+
que je ne peux pas soutenir Trump, ce que je pense que cela signifie, ou que je
|
107 |
+
soutiens les personnes qui veulent être transgenres ou que je suis pour le vaccin,
|
108 |
+
appelez-moi "woke" comme vous voulez "Si être réveillé signifie que je ne peux
|
109 |
+
pas soutenir Trump, ce que je pense que cela signifie, ou que je soutiens les
|
110 |
+
personnes qui veulent être transgenres ou que je suis pour le vaccin, appelez-moi
|
111 |
+
réveillé comme vous le voulez" Stern a également abordé les affirmations de Trump
|
112 |
+
et de ses partisans selon lesquelles Joe Biden a remporté l''élection américaine
|
113 |
+
de 2020 grâce à des votes frauduleux "L''omnipotence médiatique de Donald Trump
|
114 |
+
a brisé Howard Stern. C''est très important", a déclaré Failla dans la vidéo (selon
|
115 |
+
OK ! Magazine). "Trump avait l''habitude de participer à l''émission de Stern
|
116 |
+
chaque semaine En réponse, Trump a partagé sur sa plateforme Truth Social un clip
|
117 |
+
de Fox News dans lequel l''animateur Jimmy Failla critique Stern.
|
118 |
+
|
119 |
+
"L''omnipotence médiatique de Donald Trump a brisé Howard Stern Mais Stern, qui
|
120 |
+
par le passé a été accusé de racisme et de sexisme dans nombre de ses sketches
|
121 |
+
à l''antenne, a été un critique virulent de Trump tout au long de sa présidence
|
122 |
+
et, plus récemment, alors qu''il se prépare à se présenter à nouveau en 2024.
|
123 |
+
|
124 |
+
En 2021, M Trump l''année prochaine.
|
125 |
+
|
126 |
+
"Je sais que je lui botterai le cul", a-t-il déclaré aux auditeurs.
|
127 |
+
|
128 |
+
L''année suivante, Stern a déclaré qu''il envisageait de se lancer dans la course
|
129 |
+
à la présidence "pour que le pays soit à nouveau juste" Trump profiter de sa célébrité
|
130 |
+
jusqu''à la Maison-Blanche.
|
131 |
+
|
132 |
+
"Cela a tué Howard parce qu''il était le roi de tous les médias "Je vais faire
|
133 |
+
la chose très simple qui remettra le pays sur le droit chemin : un vote, une personne",
|
134 |
+
a expliqué Stern, affirmant que Trump a en fait perdu l''élection de 2016 contre
|
135 |
+
Hillary Clinton qui a remporté le vote populaire - mais pas le collège électoral
|
136 |
+
Celui qui se décrit comme le "roi de tous les médias" a critiqué ouvertement l''ancien
|
137 |
+
président américain Donald Trump, les anti-vaxx et, plus récemment, Lauren Boebert,
|
138 |
+
qu''il a critiquée pour son comportement obscène dans un théâtre de Denver au
|
139 |
+
début du mois "Trump avait l''habitude de participer à l''émission de Stern chaque
|
140 |
+
semaine. Ils étaient amis. Alors cette idée que Trump est le pire type qui ait
|
141 |
+
jamais marché sur la surface de la terre, pourquoi traîniez-vous avec lui ?"
|
142 |
+
|
143 |
+
M'
|
144 |
+
pipeline_tag: text-classification
|
145 |
+
inference: true
|
146 |
+
base_model: sentence-transformers/paraphrase-multilingual-mpnet-base-v2
|
147 |
+
model-index:
|
148 |
+
- name: SetFit with sentence-transformers/paraphrase-multilingual-mpnet-base-v2
|
149 |
+
results:
|
150 |
+
- task:
|
151 |
+
type: text-classification
|
152 |
+
name: Text Classification
|
153 |
+
dataset:
|
154 |
+
name: Unknown
|
155 |
+
type: unknown
|
156 |
+
split: test
|
157 |
+
metrics:
|
158 |
+
- type: '0'
|
159 |
+
value:
|
160 |
+
precision: 0.6018099547511312
|
161 |
+
recall: 0.5611814345991561
|
162 |
+
f1-score: 0.5807860262008734
|
163 |
+
support: 237
|
164 |
+
name: '0'
|
165 |
+
- type: '1'
|
166 |
+
value:
|
167 |
+
precision: 0.5602409638554217
|
168 |
+
recall: 0.6262626262626263
|
169 |
+
f1-score: 0.591414944356121
|
170 |
+
support: 297
|
171 |
+
name: '1'
|
172 |
+
- type: '2'
|
173 |
+
value:
|
174 |
+
precision: 0.7932692307692307
|
175 |
+
recall: 0.7268722466960352
|
176 |
+
f1-score: 0.7586206896551724
|
177 |
+
support: 227
|
178 |
+
name: '2'
|
179 |
+
- type: accuracy
|
180 |
+
value: 0.6360052562417872
|
181 |
+
name: Accuracy
|
182 |
+
- type: macro avg
|
183 |
+
value:
|
184 |
+
precision: 0.6517733831252612
|
185 |
+
recall: 0.6381054358526059
|
186 |
+
f1-score: 0.6436072200707222
|
187 |
+
support: 761
|
188 |
+
name: Macro Avg
|
189 |
+
- type: weighted avg
|
190 |
+
value:
|
191 |
+
precision: 0.642697294251897
|
192 |
+
recall: 0.6360052562417872
|
193 |
+
f1-score: 0.6379808452498016
|
194 |
+
support: 761
|
195 |
+
name: Weighted Avg
|
196 |
+
---
|
197 |
+
|
198 |
+
# SetFit with sentence-transformers/paraphrase-multilingual-mpnet-base-v2
|
199 |
+
|
200 |
+
This is a [SetFit](https://github.com/huggingface/setfit) model that can be used for Text Classification. This SetFit model uses [sentence-transformers/paraphrase-multilingual-mpnet-base-v2](https://huggingface.co/sentence-transformers/paraphrase-multilingual-mpnet-base-v2) as the Sentence Transformer embedding model. A [LogisticRegression](https://scikit-learn.org/stable/modules/generated/sklearn.linear_model.LogisticRegression.html) instance is used for classification.
|
201 |
+
|
202 |
+
The model has been trained using an efficient few-shot learning technique that involves:
|
203 |
+
|
204 |
+
1. Fine-tuning a [Sentence Transformer](https://www.sbert.net) with contrastive learning.
|
205 |
+
2. Training a classification head with features from the fine-tuned Sentence Transformer.
|
206 |
+
|
207 |
+
## Model Details
|
208 |
+
|
209 |
+
### Model Description
|
210 |
+
- **Model Type:** SetFit
|
211 |
+
- **Sentence Transformer body:** [sentence-transformers/paraphrase-multilingual-mpnet-base-v2](https://huggingface.co/sentence-transformers/paraphrase-multilingual-mpnet-base-v2)
|
212 |
+
- **Classification head:** a [LogisticRegression](https://scikit-learn.org/stable/modules/generated/sklearn.linear_model.LogisticRegression.html) instance
|
213 |
+
- **Maximum Sequence Length:** 128 tokens
|
214 |
+
- **Number of Classes:** 3 classes
|
215 |
+
<!-- - **Training Dataset:** [Unknown](https://huggingface.co/datasets/unknown) -->
|
216 |
+
<!-- - **Language:** Unknown -->
|
217 |
+
<!-- - **License:** Unknown -->
|
218 |
+
|
219 |
+
### Model Sources
|
220 |
+
|
221 |
+
- **Repository:** [SetFit on GitHub](https://github.com/huggingface/setfit)
|
222 |
+
- **Paper:** [Efficient Few-Shot Learning Without Prompts](https://arxiv.org/abs/2209.11055)
|
223 |
+
- **Blogpost:** [SetFit: Efficient Few-Shot Learning Without Prompts](https://huggingface.co/blog/setfit)
|
224 |
+
|
225 |
+
### Model Labels
|
226 |
+
| Label | Examples |
|
227 |
+
|:------|:-------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|
|
228 |
+
| pos | <ul><li>"Xi appelle la nation à lutter pour l'unité\nLe 28 septembre, le président Xi Jinping a appelé la nation à renforcer sa confiance et à s'efforcer de rester unie dans ses efforts incessants pour construire une Chine forte et réaliser le rajeunissement national"</li><li>'"C\'est le réalisateur le plus courageux que j\'aie jamais rencontré", déclare Irwin Winkler, qui produit les films de Scorsese depuis plus de trente ans. Scorsese est peut-être surtout connu pour ses histoires policières emblématiques inspirées de sa propre éducation italo-américaine à New York, mais c\'est aussi l\'homme qui a réalisé la meilleure adaptation hollywoodienne d\'Edith Wharton, qui est passé du cadre moderne de La couleur de l\'argent à La dernière tentation du Christ et qui a dirigé une comédie musicale de Liza Minnelli reprise près de 50 ans plus tard L\'ÂGE DE L\'INNOCENCE (1993)\nAlors qu\'en 1993, Scorsese avait déjà réalisé un certain nombre de classiques new-yorkais, il se lance dans la réalisation d\'un nouveau film L\'ÂGE DE L\'INNOCENCE (1993)\nAlors qu\'en 1993, Scorsese avait déjà réalisé un certain nombre de classiques new-yorkais, il se lance dans la réalisation d\'un nouveau film.\nEn 1993, Scorsese avait déjà réalisé un certain nombre de classiques new-yorkais, mais il est entré en territoire inconnu avec ce drame romantique de l\'âge d\'or basé sur un roman Étude à l\'écran\nPour accueillir Killers of the Flower Moon à l\'écran, une étude de l\'œuvre non-Mob de Martin Scorsese.\nMARTIN SCORSESE N\'A PAS peur de ce qu\'il ne connaît pas. "C\'est le réalisateur le plus courageux que j\'aie jamais rencontré", déclare Irwin Winkler, qui produit les films de Scorsese depuis plus de trente ans SILENCE (2016)\nCe drame, qui suit des prêtres jésuites du XVIIe siècle au Japon, est peut-être le film le plus sous-estimé de Scorsese sur la foi, car il confronte les inconnus de la spiritualité. Le tournage à Taïwan s\'est déroulé dans des conditions difficiles, le temps changeant sauvagement d\'une heure à l\'autre Scorsese a dit de Silence qu\'il s\'agissait d\'un projet passionnel de plus de 25 ans.\n3. LE LOUP DE WALL STREET (2013)\nScorsese s\'est demandé si cette épopée cinétique et droguée de Wall Street était le bon film à faire à l\'époque, mais Winkler l\'a encouragé Cela n\'est pas plus évident que lorsqu\'il s\'agit des films de Scorsese qui n\'ont pas été des succès populaires, un catalogue remarquable en soi Le tournage à Taïwan s\'est déroulé dans des conditions difficiles, le temps changeant sauvagement d\'une heure à l\'autre. Scorsese a dit de Silence qu\'il s\'agissait d\'un projet passionnel de plus de 25 ans LES TUEURS DE LA FLEUR DE LUNE (2023)\nLe film est adapté du livre de David Grann sur les meurtres centenaires d\'Amérindiens Osage, mais Scorsese a considérablement élargi la perspective indigène. Il a travaillé avec Rodrigo Prieto, directeur de la photographie de ses quatre derniers films, en filmant sur les lieux de la violence et en choisissant des couleurs riches et naturalistes TAUREAU ENRAGÉ (1980)\nAu début du développement, ce brillant film de boxe avec Robert De Niro semblait voué à l\'échec. Les dirigeants le détestaient. Scorsese manquait d\'intérêt. Mais après une overdose qui l\'a conduit à l\'hôpital, le réalisateur s\'est senti à nouveau, intensément connecté à cette étude de caractère viscérale Son éclat somptueux peut être attribué au célèbre souci du détail de Scorsese. "La perfection de l\'époque", c\'est ainsi que le coiffeur Alan D\'Angerio, nommé aux Oscars, décrit le mantra de l\'équipe de conception'</li><li>"J'ai rêvé de ce jour\nCinq citoyens américains détenus depuis des années en Iran dans des conditions que les autorités américaines qualifient de brutales ont été libérés lundi et autorisés à quitter le pays par avion, à l'issue de mois de négociations secrètes, a déclaré le président Joe Biden.\nEn échange, l'Iran aura accès à 6 milliards de dollars de revenus pétroliers iraniens qui ont été gelés, et cinq citoyens iraniens emprisonnés aux États-Unis seront libérés"</li></ul> |
|
229 |
+
| obj | <ul><li>'L\'Iran a diffusé des images des deux prisonniers qui sont rentrés en République islamique dans le cadre de l\'échange, tandis que deux resteront aux États-Unis et qu\'un cinquième ira dans un pays tiers Lorsque les Américains se sont arrêtés à Doha après leur libération d\'Iran, trois d\'entre eux - Namazi, Sharghi et Morad Tahbaz - sont apparus. Ils ont serré dans leurs bras l\'ambassadeur américain au Qatar, Timmy Davis, et d\'autres personnes L\'Iran et les États-Unis ont une histoire d\'échanges de prisonniers qui remonte à la prise de l\'ambassade américaine en 1979 et à la crise des otages qui a suivi la révolution islamique Les Américains libérés par l\'Iran rentrent chez eux\nWASHINGTON >> Des Américains détenus depuis des années en Iran sont rentrés chez eux mardi, embrassant en larmes leurs proches et déclarant "Liberté !" après avoir été libérés dans le cadre d\'un accord politiquement risqué qui a vu le président Joe Biden accepter le déblocage de près de 6 milliards de dollars d\'avoirs iraniens gelés "Nous n\'avons pas connu un tel moment depuis plus de huit ans", a-t-il ajouté, en entourant de son bras son frère et son père Baquer, anciennement détenu, qui avait été libéré par l\'Iran. "C\'est incroyable.\nL\'un des autres Américains libérés, Emad Sharghi, a reçu de sa sœur, Neda, un drapeau américain et un animal en peluche qu\'elle avait offert à leur père il y a 30 ans, lorsqu\'il avait subi un pontage, a indiqué un représentant de la famille Kafrani a été inculpé en 2021 pour exportation illégale de matériel de laboratoire vers l\'Iran et blanchiment d\'argent, mais son affaire n\'a pas encore été jugée.\nSelon Nour News, Mehrdad Ansari, un Iranien condamné par les États-Unis à 63 mois de prison en 2021 pour avoir obtenu du matériel pouvant être utilisé dans des missiles, des armes électroniques, des armes nucléaires et d\'autres équipements militaires, a également été libéré Les 5,9 milliards de dollars en espèces remis à l\'Iran représentent l\'argent que la Corée du Sud devait à l\'Iran - mais qu\'elle n\'avait pas encore payé - pour du pétrole acheté avant que les États-Unis n\'imposent des sanctions sur ce type de transactions en 2019 Il est presque certain que les tensions resteront vives entre les États-Unis et l\'Iran, qui sont en conflit au sujet du programme nucléaire de Téhéran et d\'autres questions. L\'Iran affirme que son programme est pacifique, mais il enrichit aujourd\'hui de l\'uranium à un niveau plus proche que jamais de celui des armes "Aujourd\'hui, cinq Américains innocents qui étaient emprisonnés en Iran rentrent enfin chez eux", a déclaré le président démocrate dans un communiqué publié au moment où l\'avion transportant le groupe de Téhéran atterrissait à Doha, au Qatar, lundi Biden de nouvelles critiques de la part des républicains et d\'autres personnes qui estiment que l\'administration aide à stimuler l\'économie iranienne à un moment où l\'Iran représente une menace croissante pour les troupes américaines et les alliés du Moyen-Orient. Cela pourrait avoir des conséquences sur sa campagne de réélection Deux membres de la famille des Américains emprisonnés, Effie Namazi et Vida Tahbaz, qui étaient interdites de voyage en Iran, se trouvaient également dans l\'avion.\nLes 5,9 milliards de dollars en espèces remis à l\'Iran représentent l\'argent que la Corée du Sud devait à l\'Iran - mais qu\'elle n\'avait pas encore payé - pour du pétrole acheté avant que les États-Unis n\'imposent des sanctions sur ce type de transactions en 2019'</li><li>"Le ratio des prêts douteux des prêteurs philippins tombe à son niveau le plus bas depuis 4 mois\nLes prêts douteux détenus par les banques philippines ont diminué en glissement annuel à la fin du mois d'août, ramenant le ratio des prêts non performants (NPL) à son niveau le plus bas depuis quatre mois, malgré des coûts d'emprunt élevés"</li><li>'Les gouverneurs républicains du Texas et de Floride ont été critiqués pour avoir envoyé des migrants dans des villes perçues comme libérales, telles que New York et Sacramento. Mais M. Leeser, un démocrate, a déclaré que tous les migrants qui se trouvaient dans les bus d\'El Paso se rendaient volontairement dans les villes de leur choix Le maire d\'El Paso, au Texas, déclare que la ville est "au point de rupture" face à l\'afflux de migrants à la frontière\n(Reuters) - L\'afflux de migrants traversant la frontière américaine depuis le Mexique a poussé la ville d\'El Paso, au Texas, à "un point de rupture", avec plus de 2 000 personnes par jour demandant l\'asile, dépassant la capacité des refuges et mettant à rude épreuve les ressources, a déclaré son maire hier'</li></ul> |
|
230 |
+
| neg | <ul><li>'Steve Smith, directeur général de Care4Calais, a déclaré : "Aujourd\'hui, Keir Starmer avait l\'occasion d\'injecter un peu de décence et de compassion dans le débat sur les réfugiés. Au lieu de cela, il a choisi de refléter les artifices et la rhétorique de division employés par les conservateurs "Nous avons besoin d\'une plus grande tolérance à l\'égard des divergences d\'opinion dans notre politique, en particulier sur des questions sensibles telles que l\'immigration Starmer critiqué par la gauche et la droite pour son plan visant à mettre fin à la crise des petits bateaux\nKeir Starmer a été attaqué par la gauche et la droite hier soir après avoir présenté des propositions visant à résoudre la crise des petits bateaux, dans le cadre de la première intervention majeure du parti travailliste sur la question'</li><li>'Trois membres du personnel de sécurité tués au J&K\nTrois officiers - deux de l\'armée et un de la police du Jammu-et-Cachemire - ont été tués au cours d\'une opération anti-militantisme dans le district d\'Anantnag mercredi. Les forces de sécurité ont tué un militant supplémentaire au cours de l\'opération lancée mardi à Rajouri, ce qui porte leur nombre à deux Malgré le mauvais temps et un terrain hostile, le second terroriste a été poursuivi et neutralisé mercredi matin après des tirs nourris tout au long de la nuit", a déclaré un porte-parole de l\'armée basé au Jammu-et-Cachemire.\nIl a ajouté qu\'une grande quantité de matériel de guerre avait été récupérée, y compris des médicaments portant des marques pakistanaises'</li><li>'Cette annonce, bien que non confirmée, est le premier signe de l\'ampleur des enlèvements.\nOn sait que parmi les captifs se trouvent des soldats et des civils, dont des femmes, des enfants et des personnes âgées, pour la plupart des Israéliens, mais aussi des personnes d\'autres nationalités Au moins 700 personnes auraient été tuées en Israël - un bilan stupéfiant que le pays n\'avait pas connu depuis des décennies - et plus de 400 personnes auraient été tuées à Gaza En réponse, Israël a frappé plus de 800 cibles à Gaza jusqu\'à présent, a déclaré l\'armée israélienne, y compris des frappes aériennes qui ont rasé une grande partie de la ville de Beit Hanoun, dans le nord-est de l\'enclave Plusieurs médias israéliens, citant des responsables des services de secours, ont déclaré qu\'au moins 700 personnes avaient été tuées en Israël, dont 44 soldats. Le ministère de la santé de Gaza a déclaré que 413 personnes, dont 78 enfants et 41 femmes, ont été tuées dans le territoire Un responsable égyptien a déclaré qu\'Israël avait demandé l\'aide du Caire pour assurer la sécurité des otages. L\'Égypte a également discuté avec les deux parties d\'un éventuel cessez-le-feu, mais Israël n\'était pas ouvert à une trêve "à ce stade", selon ce responsable, qui a demandé à ne pas être identifié car il n\'était pas autorisé à informer les médias Une file d\'attente s\'est formée devant un poste de police du centre d\'Israël pour fournir des échantillons d\'ADN et d\'autres moyens susceptibles d\'aider à identifier des membres de la famille disparus L\'Égypte a également discuté avec les deux parties d\'un éventuel cessez-le-feu, mais Israël n\'était pas ouvert à une trêve "à ce stade", selon ce responsable, qui a demandé à ne pas être identifié car il n\'était pas autorisé à informer les médias Le Hezbollah a tiré des roquettes et des obus dimanche sur des positions israéliennes dans une zone contestée le long de la frontière, et Israël a riposté en utilisant des drones armés. L\'armée israélienne a déclaré que la situation était calme après l\'échange Israël a l\'habitude de procéder à des échanges très déséquilibrés pour ramener les Israéliens captifs chez eux.\nUn responsable égyptien a déclaré qu\'Israël avait demandé l\'aide du Caire pour assurer la sécurité des otages Au cours des quatre dernières décennies, Israël a mené des campagnes militaires de grande envergure au Liban et à Gaza, qu\'il a présentées comme des guerres, mais sans déclaration officielle Israël riposte au Hamas et le bilan s\'alourdit\nLe gouvernement israélien a officiellement déclaré la guerre et donné le feu vert à des "mesures militaires significatives" en représailles à l\'attaque surprise du Hamas Entre-temps, le Hamas et le Jihad islamique, plus petit groupe, ont affirmé avoir capturé plus de 130 personnes à l\'intérieur d\'Israël et les avoir emmenées à Gaza, déclarant qu\'elles seraient échangées contre la libération de milliers de Palestiniens emprisonnés par Israël Le nombre élevé de morts et la lenteur de la réaction à l\'assaut ont mis en évidence une défaillance majeure des services de renseignement et ébranlé l\'idée longtemps répandue selon laquelle Israël a des yeux et des oreilles partout dans le petit territoire densément peuplé qu\'il contrôle depuis des dizaines d\'années La déclaration de guerre laissait présager une intensification des combats, et l\'une des principales questions était de savoir si Israël lancerait un assaut terrestre dans la bande de Gaza, ce qui, par le passé, a entraîné une augmentation du nombre de victimes Dans le nord d\'Israël, un bref échange de frappes avec le groupe militant libanais Hezbollah a ravivé les craintes que les combats ne se transforment en une guerre régionale plus large Israël a déclaré avoir fait intervenir des forces spéciales pour tenter de reprendre le contrôle de quatre sites israéliens aux combattants du Hamas, dont deux kibboutzim dans lesquels les militants avaient pénétré plus tôt dans leurs attaques'</li></ul> |
|
231 |
+
|
232 |
+
## Evaluation
|
233 |
+
|
234 |
+
### Metrics
|
235 |
+
| Label | 0 | 1 | 2 | Accuracy | Macro Avg | Weighted Avg |
|
236 |
+
|:--------|:----------------------------------------------------------------------------------------------------------------|:---------------------------------------------------------------------------------------------------------------|:----------------------------------------------------------------------------------------------------------------|:---------|:----------------------------------------------------------------------------------------------------------------|:---------------------------------------------------------------------------------------------------------------|
|
237 |
+
| **all** | {'precision': 0.6018099547511312, 'recall': 0.5611814345991561, 'f1-score': 0.5807860262008734, 'support': 237} | {'precision': 0.5602409638554217, 'recall': 0.6262626262626263, 'f1-score': 0.591414944356121, 'support': 297} | {'precision': 0.7932692307692307, 'recall': 0.7268722466960352, 'f1-score': 0.7586206896551724, 'support': 227} | 0.6360 | {'precision': 0.6517733831252612, 'recall': 0.6381054358526059, 'f1-score': 0.6436072200707222, 'support': 761} | {'precision': 0.642697294251897, 'recall': 0.6360052562417872, 'f1-score': 0.6379808452498016, 'support': 761} |
|
238 |
+
|
239 |
+
## Uses
|
240 |
+
|
241 |
+
### Direct Use for Inference
|
242 |
+
|
243 |
+
First install the SetFit library:
|
244 |
+
|
245 |
+
```bash
|
246 |
+
pip install setfit
|
247 |
+
```
|
248 |
+
|
249 |
+
Then you can load this model and run inference.
|
250 |
+
|
251 |
+
```python
|
252 |
+
from setfit import SetFitModel
|
253 |
+
|
254 |
+
# Download from the 🤗 Hub
|
255 |
+
model = SetFitModel.from_pretrained("mogaio/pr_ebsa_fr_tran_merged25_e1_beginning_offsets_10_v3")
|
256 |
+
# Run inference
|
257 |
+
preds = model("Adil Hussain
|
258 |
+
Adil Hussain est reconnaissant d'avoir reçu l'enseignement de l'acteur Naseeruddin Shah à l'époque où il fréquentait l'École nationale d'art dramatique")
|
259 |
+
```
|
260 |
+
|
261 |
+
<!--
|
262 |
+
### Downstream Use
|
263 |
+
|
264 |
+
*List how someone could finetune this model on their own dataset.*
|
265 |
+
-->
|
266 |
+
|
267 |
+
<!--
|
268 |
+
### Out-of-Scope Use
|
269 |
+
|
270 |
+
*List how the model may foreseeably be misused and address what users ought not to do with the model.*
|
271 |
+
-->
|
272 |
+
|
273 |
+
<!--
|
274 |
+
## Bias, Risks and Limitations
|
275 |
+
|
276 |
+
*What are the known or foreseeable issues stemming from this model? You could also flag here known failure cases or weaknesses of the model.*
|
277 |
+
-->
|
278 |
+
|
279 |
+
<!--
|
280 |
+
### Recommendations
|
281 |
+
|
282 |
+
*What are recommendations with respect to the foreseeable issues? For example, filtering explicit content.*
|
283 |
+
-->
|
284 |
+
|
285 |
+
## Training Details
|
286 |
+
|
287 |
+
### Training Set Metrics
|
288 |
+
| Training set | Min | Median | Max |
|
289 |
+
|:-------------|:----|:---------|:-----|
|
290 |
+
| Word count | 1 | 243.9997 | 2071 |
|
291 |
+
|
292 |
+
| Label | Training Sample Count |
|
293 |
+
|:------|:----------------------|
|
294 |
+
| neg | 912 |
|
295 |
+
| obj | 1220 |
|
296 |
+
| pos | 908 |
|
297 |
+
|
298 |
+
### Training Hyperparameters
|
299 |
+
- batch_size: (8, 8)
|
300 |
+
- num_epochs: (10, 10)
|
301 |
+
- max_steps: -1
|
302 |
+
- sampling_strategy: oversampling
|
303 |
+
- num_iterations: 1
|
304 |
+
- body_learning_rate: (2e-05, 1e-05)
|
305 |
+
- head_learning_rate: 0.01
|
306 |
+
- loss: CosineSimilarityLoss
|
307 |
+
- distance_metric: cosine_distance
|
308 |
+
- margin: 0.25
|
309 |
+
- end_to_end: False
|
310 |
+
- use_amp: False
|
311 |
+
- warmup_proportion: 0.1
|
312 |
+
- seed: 42
|
313 |
+
- eval_max_steps: -1
|
314 |
+
- load_best_model_at_end: True
|
315 |
+
|
316 |
+
### Training Results
|
317 |
+
| Epoch | Step | Training Loss | Validation Loss |
|
318 |
+
|:-------:|:--------:|:-------------:|:---------------:|
|
319 |
+
| 0.0013 | 1 | 0.3526 | - |
|
320 |
+
| 0.0658 | 50 | 0.3825 | - |
|
321 |
+
| 0.1316 | 100 | 0.2039 | - |
|
322 |
+
| 0.1974 | 150 | 0.2579 | - |
|
323 |
+
| 0.2632 | 200 | 0.3062 | - |
|
324 |
+
| 0.3289 | 250 | 0.1744 | - |
|
325 |
+
| 0.3947 | 300 | 0.1571 | - |
|
326 |
+
| 0.4605 | 350 | 0.222 | - |
|
327 |
+
| 0.5263 | 400 | 0.2697 | - |
|
328 |
+
| 0.5921 | 450 | 0.2507 | - |
|
329 |
+
| 0.6579 | 500 | 0.311 | - |
|
330 |
+
| 0.7237 | 550 | 0.3169 | - |
|
331 |
+
| 0.7895 | 600 | 0.1766 | - |
|
332 |
+
| 0.8553 | 650 | 0.1756 | - |
|
333 |
+
| 0.9211 | 700 | 0.2497 | - |
|
334 |
+
| 0.9868 | 750 | 0.0889 | - |
|
335 |
+
| 1.0 | 760 | - | 0.2281 |
|
336 |
+
| 1.0526 | 800 | 0.1036 | - |
|
337 |
+
| 1.1184 | 850 | 0.3135 | - |
|
338 |
+
| 1.1842 | 900 | 0.1744 | - |
|
339 |
+
| 1.25 | 950 | 0.3287 | - |
|
340 |
+
| 1.3158 | 1000 | 0.1816 | - |
|
341 |
+
| 1.3816 | 1050 | 0.231 | - |
|
342 |
+
| 1.4474 | 1100 | 0.153 | - |
|
343 |
+
| 1.5132 | 1150 | 0.2131 | - |
|
344 |
+
| 1.5789 | 1200 | 0.1358 | - |
|
345 |
+
| 1.6447 | 1250 | 0.276 | - |
|
346 |
+
| 1.7105 | 1300 | 0.2646 | - |
|
347 |
+
| 1.7763 | 1350 | 0.0337 | - |
|
348 |
+
| 1.8421 | 1400 | 0.158 | - |
|
349 |
+
| 1.9079 | 1450 | 0.1123 | - |
|
350 |
+
| 1.9737 | 1500 | 0.0889 | - |
|
351 |
+
| **2.0** | **1520** | **-** | **0.2268** |
|
352 |
+
| 2.0395 | 1550 | 0.2369 | - |
|
353 |
+
| 2.1053 | 1600 | 0.196 | - |
|
354 |
+
| 2.1711 | 1650 | 0.2799 | - |
|
355 |
+
| 2.2368 | 1700 | 0.073 | - |
|
356 |
+
| 2.3026 | 1750 | 0.2392 | - |
|
357 |
+
| 2.3684 | 1800 | 0.1551 | - |
|
358 |
+
| 2.4342 | 1850 | 0.178 | - |
|
359 |
+
| 2.5 | 1900 | 0.1719 | - |
|
360 |
+
| 2.5658 | 1950 | 0.1203 | - |
|
361 |
+
| 2.6316 | 2000 | 0.1502 | - |
|
362 |
+
| 2.6974 | 2050 | 0.0963 | - |
|
363 |
+
| 2.7632 | 2100 | 0.1566 | - |
|
364 |
+
| 2.8289 | 2150 | 0.1273 | - |
|
365 |
+
| 2.8947 | 2200 | 0.264 | - |
|
366 |
+
| 2.9605 | 2250 | 0.0736 | - |
|
367 |
+
| 3.0 | 2280 | - | 0.2385 |
|
368 |
+
| 3.0263 | 2300 | 0.1577 | - |
|
369 |
+
| 3.0921 | 2350 | 0.1613 | - |
|
370 |
+
| 3.1579 | 2400 | 0.2313 | - |
|
371 |
+
| 3.2237 | 2450 | 0.1134 | - |
|
372 |
+
| 3.2895 | 2500 | 0.0593 | - |
|
373 |
+
| 3.3553 | 2550 | 0.0395 | - |
|
374 |
+
| 3.4211 | 2600 | 0.119 | - |
|
375 |
+
| 3.4868 | 2650 | 0.0152 | - |
|
376 |
+
| 3.5526 | 2700 | 0.019 | - |
|
377 |
+
| 3.6184 | 2750 | 0.1056 | - |
|
378 |
+
| 3.6842 | 2800 | 0.1355 | - |
|
379 |
+
| 3.75 | 2850 | 0.2262 | - |
|
380 |
+
| 3.8158 | 2900 | 0.102 | - |
|
381 |
+
| 3.8816 | 2950 | 0.2388 | - |
|
382 |
+
| 3.9474 | 3000 | 0.1755 | - |
|
383 |
+
| 4.0 | 3040 | - | 0.2576 |
|
384 |
+
| 4.0132 | 3050 | 0.0957 | - |
|
385 |
+
| 4.0789 | 3100 | 0.2034 | - |
|
386 |
+
| 4.1447 | 3150 | 0.0076 | - |
|
387 |
+
| 4.2105 | 3200 | 0.0431 | - |
|
388 |
+
| 4.2763 | 3250 | 0.2228 | - |
|
389 |
+
| 4.3421 | 3300 | 0.0124 | - |
|
390 |
+
| 4.4079 | 3350 | 0.2316 | - |
|
391 |
+
| 4.4737 | 3400 | 0.037 | - |
|
392 |
+
| 4.5395 | 3450 | 0.1812 | - |
|
393 |
+
| 4.6053 | 3500 | 0.2115 | - |
|
394 |
+
| 4.6711 | 3550 | 0.2534 | - |
|
395 |
+
| 4.7368 | 3600 | 0.1833 | - |
|
396 |
+
| 4.8026 | 3650 | 0.0135 | - |
|
397 |
+
| 4.8684 | 3700 | 0.1169 | - |
|
398 |
+
| 4.9342 | 3750 | 0.0093 | - |
|
399 |
+
| 5.0 | 3800 | 0.0728 | 0.2787 |
|
400 |
+
| 5.0658 | 3850 | 0.022 | - |
|
401 |
+
| 5.1316 | 3900 | 0.0586 | - |
|
402 |
+
| 5.1974 | 3950 | 0.002 | - |
|
403 |
+
| 5.2632 | 4000 | 0.1112 | - |
|
404 |
+
| 5.3289 | 4050 | 0.0902 | - |
|
405 |
+
| 5.3947 | 4100 | 0.0002 | - |
|
406 |
+
| 5.4605 | 4150 | 0.108 | - |
|
407 |
+
| 5.5263 | 4200 | 0.0158 | - |
|
408 |
+
| 5.5921 | 4250 | 0.0725 | - |
|
409 |
+
| 5.6579 | 4300 | 0.0014 | - |
|
410 |
+
| 5.7237 | 4350 | 0.2018 | - |
|
411 |
+
| 5.7895 | 4400 | 0.0023 | - |
|
412 |
+
| 5.8553 | 4450 | 0.002 | - |
|
413 |
+
| 5.9211 | 4500 | 0.213 | - |
|
414 |
+
| 5.9868 | 4550 | 0.0034 | - |
|
415 |
+
| 6.0 | 4560 | - | 0.2994 |
|
416 |
+
| 6.0526 | 4600 | 0.1203 | - |
|
417 |
+
| 6.1184 | 4650 | 0.1615 | - |
|
418 |
+
| 6.1842 | 4700 | 0.1968 | - |
|
419 |
+
| 6.25 | 4750 | 0.004 | - |
|
420 |
+
| 6.3158 | 4800 | 0.0018 | - |
|
421 |
+
| 6.3816 | 4850 | 0.048 | - |
|
422 |
+
| 6.4474 | 4900 | 0.0748 | - |
|
423 |
+
| 6.5132 | 4950 | 0.0007 | - |
|
424 |
+
| 6.5789 | 5000 | 0.0019 | - |
|
425 |
+
| 6.6447 | 5050 | 0.0015 | - |
|
426 |
+
| 6.7105 | 5100 | 0.0075 | - |
|
427 |
+
| 6.7763 | 5150 | 0.0012 | - |
|
428 |
+
| 6.8421 | 5200 | 0.0016 | - |
|
429 |
+
| 6.9079 | 5250 | 0.0009 | - |
|
430 |
+
| 6.9737 | 5300 | 0.0004 | - |
|
431 |
+
| 7.0 | 5320 | - | 0.2721 |
|
432 |
+
| 7.0395 | 5350 | 0.0142 | - |
|
433 |
+
| 7.1053 | 5400 | 0.0527 | - |
|
434 |
+
| 7.1711 | 5450 | 0.0019 | - |
|
435 |
+
| 7.2368 | 5500 | 0.0024 | - |
|
436 |
+
| 7.3026 | 5550 | 0.0002 | - |
|
437 |
+
| 7.3684 | 5600 | 0.0349 | - |
|
438 |
+
| 7.4342 | 5650 | 0.0008 | - |
|
439 |
+
| 7.5 | 5700 | 0.0008 | - |
|
440 |
+
| 7.5658 | 5750 | 0.0005 | - |
|
441 |
+
| 7.6316 | 5800 | 0.0002 | - |
|
442 |
+
| 7.6974 | 5850 | 0.0024 | - |
|
443 |
+
| 7.7632 | 5900 | 0.0017 | - |
|
444 |
+
| 7.8289 | 5950 | 0.0002 | - |
|
445 |
+
| 7.8947 | 6000 | 0.0028 | - |
|
446 |
+
| 7.9605 | 6050 | 0.0124 | - |
|
447 |
+
| 8.0 | 6080 | - | 0.3064 |
|
448 |
+
| 8.0263 | 6100 | 0.0038 | - |
|
449 |
+
| 8.0921 | 6150 | 0.064 | - |
|
450 |
+
| 8.1579 | 6200 | 0.0007 | - |
|
451 |
+
| 8.2237 | 6250 | 0.0022 | - |
|
452 |
+
| 8.2895 | 6300 | 0.0012 | - |
|
453 |
+
| 8.3553 | 6350 | 0.0103 | - |
|
454 |
+
| 8.4211 | 6400 | 0.0008 | - |
|
455 |
+
| 8.4868 | 6450 | 0.0058 | - |
|
456 |
+
| 8.5526 | 6500 | 0.0046 | - |
|
457 |
+
| 8.6184 | 6550 | 0.1061 | - |
|
458 |
+
| 8.6842 | 6600 | 0.0005 | - |
|
459 |
+
| 8.75 | 6650 | 0.1509 | - |
|
460 |
+
| 8.8158 | 6700 | 0.0027 | - |
|
461 |
+
| 8.8816 | 6750 | 0.0002 | - |
|
462 |
+
| 8.9474 | 6800 | 0.0006 | - |
|
463 |
+
| 9.0 | 6840 | - | 0.3014 |
|
464 |
+
| 9.0132 | 6850 | 0.0018 | - |
|
465 |
+
| 9.0789 | 6900 | 0.0006 | - |
|
466 |
+
| 9.1447 | 6950 | 0.0003 | - |
|
467 |
+
| 9.2105 | 7000 | 0.0007 | - |
|
468 |
+
| 9.2763 | 7050 | 0.0006 | - |
|
469 |
+
| 9.3421 | 7100 | 0.0003 | - |
|
470 |
+
| 9.4079 | 7150 | 0.1859 | - |
|
471 |
+
| 9.4737 | 7200 | 0.0009 | - |
|
472 |
+
| 9.5395 | 7250 | 0.12 | - |
|
473 |
+
| 9.6053 | 7300 | 0.0148 | - |
|
474 |
+
| 9.6711 | 7350 | 0.0002 | - |
|
475 |
+
| 9.7368 | 7400 | 0.0005 | - |
|
476 |
+
| 9.8026 | 7450 | 0.1027 | - |
|
477 |
+
| 9.8684 | 7500 | 0.0002 | - |
|
478 |
+
| 9.9342 | 7550 | 0.0004 | - |
|
479 |
+
| 10.0 | 7600 | 0.0003 | 0.3075 |
|
480 |
+
|
481 |
+
* The bold row denotes the saved checkpoint.
|
482 |
+
### Framework Versions
|
483 |
+
- Python: 3.10.12
|
484 |
+
- SetFit: 1.0.1
|
485 |
+
- Sentence Transformers: 2.2.2
|
486 |
+
- Transformers: 4.35.2
|
487 |
+
- PyTorch: 2.1.0+cu121
|
488 |
+
- Datasets: 2.16.1
|
489 |
+
- Tokenizers: 0.15.0
|
490 |
+
|
491 |
+
## Citation
|
492 |
+
|
493 |
+
### BibTeX
|
494 |
+
```bibtex
|
495 |
+
@article{https://doi.org/10.48550/arxiv.2209.11055,
|
496 |
+
doi = {10.48550/ARXIV.2209.11055},
|
497 |
+
url = {https://arxiv.org/abs/2209.11055},
|
498 |
+
author = {Tunstall, Lewis and Reimers, Nils and Jo, Unso Eun Seo and Bates, Luke and Korat, Daniel and Wasserblat, Moshe and Pereg, Oren},
|
499 |
+
keywords = {Computation and Language (cs.CL), FOS: Computer and information sciences, FOS: Computer and information sciences},
|
500 |
+
title = {Efficient Few-Shot Learning Without Prompts},
|
501 |
+
publisher = {arXiv},
|
502 |
+
year = {2022},
|
503 |
+
copyright = {Creative Commons Attribution 4.0 International}
|
504 |
+
}
|
505 |
+
```
|
506 |
+
|
507 |
+
<!--
|
508 |
+
## Glossary
|
509 |
+
|
510 |
+
*Clearly define terms in order to be accessible across audiences.*
|
511 |
+
-->
|
512 |
+
|
513 |
+
<!--
|
514 |
+
## Model Card Authors
|
515 |
+
|
516 |
+
*Lists the people who create the model card, providing recognition and accountability for the detailed work that goes into its construction.*
|
517 |
+
-->
|
518 |
+
|
519 |
+
<!--
|
520 |
+
## Model Card Contact
|
521 |
+
|
522 |
+
*Provides a way for people who have updates to the Model Card, suggestions, or questions, to contact the Model Card authors.*
|
523 |
+
-->
|
config.json
ADDED
@@ -0,0 +1,29 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
+
{
|
2 |
+
"_name_or_path": "checkpoints/step_1520/",
|
3 |
+
"architectures": [
|
4 |
+
"XLMRobertaModel"
|
5 |
+
],
|
6 |
+
"attention_probs_dropout_prob": 0.1,
|
7 |
+
"bos_token_id": 0,
|
8 |
+
"classifier_dropout": null,
|
9 |
+
"eos_token_id": 2,
|
10 |
+
"gradient_checkpointing": false,
|
11 |
+
"hidden_act": "gelu",
|
12 |
+
"hidden_dropout_prob": 0.1,
|
13 |
+
"hidden_size": 768,
|
14 |
+
"initializer_range": 0.02,
|
15 |
+
"intermediate_size": 3072,
|
16 |
+
"layer_norm_eps": 1e-05,
|
17 |
+
"max_position_embeddings": 514,
|
18 |
+
"model_type": "xlm-roberta",
|
19 |
+
"num_attention_heads": 12,
|
20 |
+
"num_hidden_layers": 12,
|
21 |
+
"output_past": true,
|
22 |
+
"pad_token_id": 1,
|
23 |
+
"position_embedding_type": "absolute",
|
24 |
+
"torch_dtype": "float32",
|
25 |
+
"transformers_version": "4.35.2",
|
26 |
+
"type_vocab_size": 1,
|
27 |
+
"use_cache": true,
|
28 |
+
"vocab_size": 250002
|
29 |
+
}
|
config_sentence_transformers.json
ADDED
@@ -0,0 +1,7 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
+
{
|
2 |
+
"__version__": {
|
3 |
+
"sentence_transformers": "2.0.0",
|
4 |
+
"transformers": "4.7.0",
|
5 |
+
"pytorch": "1.9.0+cu102"
|
6 |
+
}
|
7 |
+
}
|
config_setfit.json
ADDED
@@ -0,0 +1,4 @@
|
|
|
|
|
|
|
|
|
|
|
1 |
+
{
|
2 |
+
"labels": null,
|
3 |
+
"normalize_embeddings": false
|
4 |
+
}
|
model.safetensors
ADDED
@@ -0,0 +1,3 @@
|
|
|
|
|
|
|
|
|
1 |
+
version https://git-lfs.github.com/spec/v1
|
2 |
+
oid sha256:86c4aa0c4ba7df67fc1faf2a0b4bb183b58ee65e83a885f90ac43c9860988a18
|
3 |
+
size 1112197096
|
model_head.pkl
ADDED
@@ -0,0 +1,3 @@
|
|
|
|
|
|
|
|
|
1 |
+
version https://git-lfs.github.com/spec/v1
|
2 |
+
oid sha256:bd93c1c26eb6d4690167132239172c24dca209a546472752d3d4fb226f0f9f6c
|
3 |
+
size 19311
|
modules.json
ADDED
@@ -0,0 +1,14 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
+
[
|
2 |
+
{
|
3 |
+
"idx": 0,
|
4 |
+
"name": "0",
|
5 |
+
"path": "",
|
6 |
+
"type": "sentence_transformers.models.Transformer"
|
7 |
+
},
|
8 |
+
{
|
9 |
+
"idx": 1,
|
10 |
+
"name": "1",
|
11 |
+
"path": "1_Pooling",
|
12 |
+
"type": "sentence_transformers.models.Pooling"
|
13 |
+
}
|
14 |
+
]
|
sentence_bert_config.json
ADDED
@@ -0,0 +1,4 @@
|
|
|
|
|
|
|
|
|
|
|
1 |
+
{
|
2 |
+
"max_seq_length": 128,
|
3 |
+
"do_lower_case": false
|
4 |
+
}
|
sentencepiece.bpe.model
ADDED
@@ -0,0 +1,3 @@
|
|
|
|
|
|
|
|
|
1 |
+
version https://git-lfs.github.com/spec/v1
|
2 |
+
oid sha256:cfc8146abe2a0488e9e2a0c56de7952f7c11ab059eca145a0a727afce0db2865
|
3 |
+
size 5069051
|
special_tokens_map.json
ADDED
@@ -0,0 +1,51 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
+
{
|
2 |
+
"bos_token": {
|
3 |
+
"content": "<s>",
|
4 |
+
"lstrip": false,
|
5 |
+
"normalized": false,
|
6 |
+
"rstrip": false,
|
7 |
+
"single_word": false
|
8 |
+
},
|
9 |
+
"cls_token": {
|
10 |
+
"content": "<s>",
|
11 |
+
"lstrip": false,
|
12 |
+
"normalized": false,
|
13 |
+
"rstrip": false,
|
14 |
+
"single_word": false
|
15 |
+
},
|
16 |
+
"eos_token": {
|
17 |
+
"content": "</s>",
|
18 |
+
"lstrip": false,
|
19 |
+
"normalized": false,
|
20 |
+
"rstrip": false,
|
21 |
+
"single_word": false
|
22 |
+
},
|
23 |
+
"mask_token": {
|
24 |
+
"content": "<mask>",
|
25 |
+
"lstrip": true,
|
26 |
+
"normalized": false,
|
27 |
+
"rstrip": false,
|
28 |
+
"single_word": false
|
29 |
+
},
|
30 |
+
"pad_token": {
|
31 |
+
"content": "<pad>",
|
32 |
+
"lstrip": false,
|
33 |
+
"normalized": false,
|
34 |
+
"rstrip": false,
|
35 |
+
"single_word": false
|
36 |
+
},
|
37 |
+
"sep_token": {
|
38 |
+
"content": "</s>",
|
39 |
+
"lstrip": false,
|
40 |
+
"normalized": false,
|
41 |
+
"rstrip": false,
|
42 |
+
"single_word": false
|
43 |
+
},
|
44 |
+
"unk_token": {
|
45 |
+
"content": "<unk>",
|
46 |
+
"lstrip": false,
|
47 |
+
"normalized": false,
|
48 |
+
"rstrip": false,
|
49 |
+
"single_word": false
|
50 |
+
}
|
51 |
+
}
|
tokenizer.json
ADDED
@@ -0,0 +1,3 @@
|
|
|
|
|
|
|
|
|
1 |
+
version https://git-lfs.github.com/spec/v1
|
2 |
+
oid sha256:fa685fc160bbdbab64058d4fc91b60e62d207e8dc60b9af5c002c5ab946ded00
|
3 |
+
size 17083009
|
tokenizer_config.json
ADDED
@@ -0,0 +1,61 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
+
{
|
2 |
+
"added_tokens_decoder": {
|
3 |
+
"0": {
|
4 |
+
"content": "<s>",
|
5 |
+
"lstrip": false,
|
6 |
+
"normalized": false,
|
7 |
+
"rstrip": false,
|
8 |
+
"single_word": false,
|
9 |
+
"special": true
|
10 |
+
},
|
11 |
+
"1": {
|
12 |
+
"content": "<pad>",
|
13 |
+
"lstrip": false,
|
14 |
+
"normalized": false,
|
15 |
+
"rstrip": false,
|
16 |
+
"single_word": false,
|
17 |
+
"special": true
|
18 |
+
},
|
19 |
+
"2": {
|
20 |
+
"content": "</s>",
|
21 |
+
"lstrip": false,
|
22 |
+
"normalized": false,
|
23 |
+
"rstrip": false,
|
24 |
+
"single_word": false,
|
25 |
+
"special": true
|
26 |
+
},
|
27 |
+
"3": {
|
28 |
+
"content": "<unk>",
|
29 |
+
"lstrip": false,
|
30 |
+
"normalized": false,
|
31 |
+
"rstrip": false,
|
32 |
+
"single_word": false,
|
33 |
+
"special": true
|
34 |
+
},
|
35 |
+
"250001": {
|
36 |
+
"content": "<mask>",
|
37 |
+
"lstrip": true,
|
38 |
+
"normalized": false,
|
39 |
+
"rstrip": false,
|
40 |
+
"single_word": false,
|
41 |
+
"special": true
|
42 |
+
}
|
43 |
+
},
|
44 |
+
"bos_token": "<s>",
|
45 |
+
"clean_up_tokenization_spaces": true,
|
46 |
+
"cls_token": "<s>",
|
47 |
+
"eos_token": "</s>",
|
48 |
+
"mask_token": "<mask>",
|
49 |
+
"max_length": 128,
|
50 |
+
"model_max_length": 512,
|
51 |
+
"pad_to_multiple_of": null,
|
52 |
+
"pad_token": "<pad>",
|
53 |
+
"pad_token_type_id": 0,
|
54 |
+
"padding_side": "right",
|
55 |
+
"sep_token": "</s>",
|
56 |
+
"stride": 0,
|
57 |
+
"tokenizer_class": "XLMRobertaTokenizer",
|
58 |
+
"truncation_side": "right",
|
59 |
+
"truncation_strategy": "longest_first",
|
60 |
+
"unk_token": "<unk>"
|
61 |
+
}
|