Space duplicate not Work

#8
by PrinzPesia - opened

Hello. For me, space duplicate of this XTTS on CPU does not work and I get this error message:

runtime error
Exit code: 1. Reason: odel_dir, use_cuda)
File "/usr/local/lib/python3.10/site-packages/TTS/utils/synthesizer.py", line 164, in _load_tts_from_dir
self.tts_model.load_checkpoint(config, checkpoint_dir=model_dir, eval=True)
File "/usr/local/lib/python3.10/site-packages/TTS/tts/models/xtts.py", line 773, in load_checkpoint
checkpoint = self.get_compatible_checkpoint_state_dict(model_path)
File "/usr/local/lib/python3.10/site-packages/TTS/tts/models/xtts.py", line 714, in get_compatible_checkpoint_state_dict
checkpoint = load_fsspec(model_path, map_location=torch.device("cpu"))["model"]
File "/usr/local/lib/python3.10/site-packages/TTS/utils/io.py", line 54, in load_fsspec
return torch.load(f, map_location=map_location, **kwargs)
File "/usr/local/lib/python3.10/site-packages/torch/serialization.py", line 1529, in load
raise pickle.UnpicklingError(_get_wo_message(str(e))) from None
_pickle.UnpicklingError: Weights only load failed. This file can still be loaded, to do so you have two options, do those steps only if you trust the source of the checkpoint.
(1) In PyTorch 2.6, we changed the default value of the weights_only argument in torch.load from False to True. Re-running torch.load with weights_only set to False will likely succeed, but it can result in arbitrary code execution. Do it only if you got the file from a trusted source.
(2) Alternatively, to load with weights_only=True please check the recommended steps in the following error message.
WeightsUnpickler error: Unsupported global: GLOBAL TTS.tts.configs.xtts_config.XttsConfig was not an allowed global by default. Please use torch.serialization.add_safe_globals([TTS.tts.configs.xtts_config.XttsConfig]) or the torch.serialization.safe_globals([TTS.tts.configs.xtts_config.XttsConfig]) context manager to allowlist this global if you trust this class/function.

Check the documentation of torch.load to learn more about types accepted by default with weights_only https://pytorch.org/docs/stable/generated/torch.load.html.

PrinzPesia changed discussion status to closed

Oui, en effet.. je sais que c'est embêtant mais les libraries surtout gradio mais pas que évoluent sans cesse ce qui fait qu'un code être déprécié en quelque mois sur cette plateforme.

Cet espace est buggué depuis plus de 10 mois, je ferai les réparations quand j'aurai le temps.

Cependant si tu veux utiliser le modèle, tu peux télécharger la version windows avec python embedded j'ai fait un post pour ça. Tu peux donc le faire tourner en local sur CPU ou gpu et ça marche bien ça car tout est pré-installé.

Oui, en effet.. je sais que c'est embêtant mais les libraries surtout gradio mais pas que évoluent sans cesse ce qui fait qu'un code être déprécié en quelque mois sur cette plateforme.

Cet espace est buggué depuis plus de 10 mois, je ferai les réparations quand j'aurai le temps.

Cependant si tu veux utiliser le modèle, tu peux télécharger la version windows avec python embedded j'ai fait un post pour ça. Tu peux donc le faire tourner en local sur CPU ou gpu et ça marche bien ça car tout est pré-installé.

Hello. Thank you very much for your reply. I downloaded the XTTS_V2_CPU_win-x64-release and started it on my Windows laptop, and it works! My laptop has an Intel Xeon E3-1505M v5 with 2.80 GHz. When generating on CPU, it took me on average about 25 to 45 seconds, which I don’t find too slow at all. And since I’ll never get annoying queues when running it locally on my PC, I’m quite satisfied with the speed.

Because otherwise, with the public XTTS V2 on Huggingface using a T4 GPU, I sometimes had to wait over 2 to 3 minutes in the queue (depending on how many users were using it) before everything was generated. And running it on Google Colab is not worth it either because of the limitations.

That’s why I’m satisfied with running it on my local PC when it comes to being free, without limits, and without queues. Only if someday I do get a better Nvidia GPU that would be ready for XTTS V2, could you please send me another guide on how to run it on Windows with a local GPU?

Bien-sûr, c'est en réalité plutôt simple, il faut seulement changer tous les paramètres gpu=False par gpu=True et cuda tu peux même demander à chatgpt de le faire si tu veux modifier app.py pour que cela fonctionne avec gpu. La raison pour laquelle j'ai forcé l'utilisation du CPU c'est que j'ai moi même qu'un AMD Ryzen 7 7730u et pas de carte NVIDIA. C'est le but de cet espace précisément : permettre au utilisateur avec un CPU de faire tourner le modèle dessus.

Sign up or log in to comment