############################################################################### # CUDA 12.1 runtime + PyTorch 2.1 wheels (official extra index) ############################################################################### --extra-index-url https://download.pytorch.org/whl/cu121 torch==2.1.0+cu121 # core torchvision==0.16.0+cu121 # must share the same ABI tag ############################################################################### # Transformers / training utils ############################################################################### transformers==4.46.3 accelerate>=0.26.0 bitsandbytes einops numpy<2.0.0 ############################################################################### # Video / image processing ############################################################################### decord imageio imageio-ffmpeg opencv-python-headless ffmpeg-python pillow ############################################################################### # Gradio & web interface ############################################################################### gradio==5.34.0 spaces requests ############################################################################### # HF ecosystem & model I/O ############################################################################### huggingface_hub sentencepiece safetensors ############################################################################### # Flash-Attention 2.5.8 ── prebuilt for # • CUDA 12.2 (binary still works under CUDA ≥12.1 drivers*) # • PyTorch 2.1 # • Python 3.10 (cp310) ############################################################################### https://github.com/Dao-AILab/flash-attention/releases/download/v2.5.8/flash_attn-2.5.8+cu122torch2.1cxx11abiFALSE-cp310-cp310-linux_x86_64.whl