|
############################################################################### |
|
# CUDA 12.1 runtime + PyTorch 2.1 wheels (official extra index) |
|
############################################################################### |
|
--extra-index-url https://download.pytorch.org/whl/cu121 |
|
|
|
torch==2.1.0+cu121 # core |
|
torchvision==0.16.0+cu121 # must share the same ABI tag |
|
|
|
############################################################################### |
|
# Transformers / training utils |
|
############################################################################### |
|
transformers==4.46.3 |
|
accelerate>=0.26.0 |
|
bitsandbytes |
|
einops |
|
numpy<2.0.0 |
|
|
|
############################################################################### |
|
# Video / image processing |
|
############################################################################### |
|
decord |
|
imageio |
|
imageio-ffmpeg |
|
opencv-python-headless |
|
ffmpeg-python |
|
pillow |
|
|
|
############################################################################### |
|
# Gradio & web interface |
|
############################################################################### |
|
gradio==5.34.0 |
|
spaces |
|
requests |
|
|
|
############################################################################### |
|
# HF ecosystem & model I/O |
|
############################################################################### |
|
huggingface_hub |
|
sentencepiece |
|
safetensors |
|
|
|
############################################################################### |
|
# Flash-Attention 2.5.8 ββ prebuilt for |
|
# β’ CUDA 12.2 (binary still works under CUDA β₯12.1 drivers*) |
|
# β’ PyTorch 2.1 |
|
# β’ Python 3.10 (cp310) |
|
############################################################################### |
|
https://github.com/Dao-AILab/flash-attention/releases/download/v2.5.8/flash_attn-2.5.8+cu122torch2.1cxx11abiFALSE-cp310-cp310-linux_x86_64.whl |