test / requirements.txt
OneEyeDJ's picture
Update requirements.txt
d681921 verified
###############################################################################
# CUDA 12.1 runtime + PyTorch 2.1 wheels (official extra index)
###############################################################################
--extra-index-url https://download.pytorch.org/whl/cu121
torch==2.1.0+cu121 # core
torchvision==0.16.0+cu121 # must share the same ABI tag
###############################################################################
# Transformers / training utils
###############################################################################
transformers==4.46.3
accelerate>=0.26.0
bitsandbytes
einops
numpy<2.0.0
###############################################################################
# Video / image processing
###############################################################################
decord
imageio
imageio-ffmpeg
opencv-python-headless
ffmpeg-python
pillow
###############################################################################
# Gradio & web interface
###############################################################################
gradio==5.34.0
spaces
requests
###############################################################################
# HF ecosystem & model I/O
###############################################################################
huggingface_hub
sentencepiece
safetensors
###############################################################################
# Flash-Attention 2.5.8 ── prebuilt for
# β€’ CUDA 12.2 (binary still works under CUDA β‰₯12.1 drivers*)
# β€’ PyTorch 2.1
# β€’ Python 3.10 (cp310)
###############################################################################
https://github.com/Dao-AILab/flash-attention/releases/download/v2.5.8/flash_attn-2.5.8+cu122torch2.1cxx11abiFALSE-cp310-cp310-linux_x86_64.whl