Update with commit 66047640076a60e27c031726ec489e0b79143150
Browse filesSee: https://github.com/huggingface/transformers/commit/66047640076a60e27c031726ec489e0b79143150
- frameworks.json +1 -0
- pipeline_tags.json +4 -0
frameworks.json
CHANGED
@@ -79,6 +79,7 @@
|
|
79 |
{"model_type":"gemma","pytorch":true,"tensorflow":false,"flax":true,"processor":"AutoTokenizer"}
|
80 |
{"model_type":"gemma2","pytorch":true,"tensorflow":false,"flax":false,"processor":"AutoTokenizer"}
|
81 |
{"model_type":"git","pytorch":true,"tensorflow":false,"flax":false,"processor":"AutoProcessor"}
|
|
|
82 |
{"model_type":"glpn","pytorch":true,"tensorflow":false,"flax":false,"processor":"AutoImageProcessor"}
|
83 |
{"model_type":"gpt2","pytorch":true,"tensorflow":true,"flax":true,"processor":"AutoTokenizer"}
|
84 |
{"model_type":"gpt_bigcode","pytorch":true,"tensorflow":false,"flax":false,"processor":"AutoTokenizer"}
|
|
|
79 |
{"model_type":"gemma","pytorch":true,"tensorflow":false,"flax":true,"processor":"AutoTokenizer"}
|
80 |
{"model_type":"gemma2","pytorch":true,"tensorflow":false,"flax":false,"processor":"AutoTokenizer"}
|
81 |
{"model_type":"git","pytorch":true,"tensorflow":false,"flax":false,"processor":"AutoProcessor"}
|
82 |
+
{"model_type":"glm","pytorch":true,"tensorflow":false,"flax":false,"processor":"AutoTokenizer"}
|
83 |
{"model_type":"glpn","pytorch":true,"tensorflow":false,"flax":false,"processor":"AutoImageProcessor"}
|
84 |
{"model_type":"gpt2","pytorch":true,"tensorflow":true,"flax":true,"processor":"AutoTokenizer"}
|
85 |
{"model_type":"gpt_bigcode","pytorch":true,"tensorflow":false,"flax":false,"processor":"AutoTokenizer"}
|
pipeline_tags.json
CHANGED
@@ -402,6 +402,10 @@
|
|
402 |
{"model_class":"GemmaModel","pipeline_tag":"feature-extraction","auto_class":"AutoModel"}
|
403 |
{"model_class":"GitForCausalLM","pipeline_tag":"text-generation","auto_class":"AutoModelForCausalLM"}
|
404 |
{"model_class":"GitModel","pipeline_tag":"feature-extraction","auto_class":"AutoModel"}
|
|
|
|
|
|
|
|
|
405 |
{"model_class":"GraniteForCausalLM","pipeline_tag":"text-generation","auto_class":"AutoModelForCausalLM"}
|
406 |
{"model_class":"GraniteModel","pipeline_tag":"feature-extraction","auto_class":"AutoModel"}
|
407 |
{"model_class":"GraniteMoeForCausalLM","pipeline_tag":"text-generation","auto_class":"AutoModelForCausalLM"}
|
|
|
402 |
{"model_class":"GemmaModel","pipeline_tag":"feature-extraction","auto_class":"AutoModel"}
|
403 |
{"model_class":"GitForCausalLM","pipeline_tag":"text-generation","auto_class":"AutoModelForCausalLM"}
|
404 |
{"model_class":"GitModel","pipeline_tag":"feature-extraction","auto_class":"AutoModel"}
|
405 |
+
{"model_class":"GlmForCausalLM","pipeline_tag":"text-generation","auto_class":"AutoModelForCausalLM"}
|
406 |
+
{"model_class":"GlmForSequenceClassification","pipeline_tag":"text-classification","auto_class":"AutoModelForSequenceClassification"}
|
407 |
+
{"model_class":"GlmForTokenClassification","pipeline_tag":"token-classification","auto_class":"AutoModelForTokenClassification"}
|
408 |
+
{"model_class":"GlmModel","pipeline_tag":"feature-extraction","auto_class":"AutoModel"}
|
409 |
{"model_class":"GraniteForCausalLM","pipeline_tag":"text-generation","auto_class":"AutoModelForCausalLM"}
|
410 |
{"model_class":"GraniteModel","pipeline_tag":"feature-extraction","auto_class":"AutoModel"}
|
411 |
{"model_class":"GraniteMoeForCausalLM","pipeline_tag":"text-generation","auto_class":"AutoModelForCausalLM"}
|