mbart-neutralization

mbart-neutralization es un modelo preentrenado Sequence-to-Sequence que utiliza mBART-50. El objectivo es traducir a lenguaje neutral los textos de entrada.

Usos y limitaciones

Este modelo ha sido desarrollado para la asignatura de traducción automática del master de procesamiento del lenguaje e inteligencia artificial.

Downloads last month
10
Inference Examples
This model does not have enough activity to be deployed to Inference API (serverless) yet. Increase its social visibility and check back later, or deploy to Inference Endpoints (dedicated) instead.

Dataset used to train dandrade/mbart-neutralization