OneEyeDJ commited on
Commit
dab205a
·
verified ·
1 Parent(s): b064448

Update requirements.txt

Browse files
Files changed (1) hide show
  1. requirements.txt +31 -9
requirements.txt CHANGED
@@ -1,13 +1,23 @@
1
- # Core dependencies - HF Spaces compatible versions
2
- torch==2.1.0
3
- torchvision==0.16.0
 
 
 
 
 
 
 
 
4
  transformers==4.46.3
5
  accelerate>=0.26.0
6
- numpy<2.0.0
7
- einops
8
  bitsandbytes
 
 
9
 
10
- # Video/Image processing
 
 
11
  decord
12
  imageio
13
  imageio-ffmpeg
@@ -15,12 +25,24 @@ opencv-python-headless
15
  ffmpeg-python
16
  pillow
17
 
18
- # Gradio and web interface
 
 
19
  gradio==5.34.0
20
  spaces
21
  requests
22
 
23
- # Additional dependencies
 
 
24
  huggingface_hub
25
  sentencepiece
26
- safetensors
 
 
 
 
 
 
 
 
 
1
+ ###############################################################################
2
+ # CUDA 12.1 runtime + PyTorch 2.1 wheels (official extra index)
3
+ ###############################################################################
4
+ --extra-index-url https://download.pytorch.org/whl/cu121
5
+
6
+ torch==2.1.0+cu121 # core
7
+ torchvision==0.16.0+cu121 # must share the same ABI tag
8
+
9
+ ###############################################################################
10
+ # Transformers / training utils
11
+ ###############################################################################
12
  transformers==4.46.3
13
  accelerate>=0.26.0
 
 
14
  bitsandbytes
15
+ einops
16
+ numpy<2.0.0
17
 
18
+ ###############################################################################
19
+ # Video / image processing
20
+ ###############################################################################
21
  decord
22
  imageio
23
  imageio-ffmpeg
 
25
  ffmpeg-python
26
  pillow
27
 
28
+ ###############################################################################
29
+ # Gradio & web interface
30
+ ###############################################################################
31
  gradio==5.34.0
32
  spaces
33
  requests
34
 
35
+ ###############################################################################
36
+ # HF ecosystem & model I/O
37
+ ###############################################################################
38
  huggingface_hub
39
  sentencepiece
40
+ safetensors
41
+
42
+ ###############################################################################
43
+ # Flash-Attention 2.5.8 ── prebuilt for
44
+ # • CUDA 12.2 (binary still works under CUDA ≥12.1 drivers*)
45
+ # • PyTorch 2.1
46
+ # • Python 3.10 (cp310)
47
+ ###############################################################################
48
+ https://github.com/Dao-AILab/flash-attention/releases/download/v2.5.8/flash_attn-2.5.8+cu122torch2.1cxx11abiFALSE-cp310-cp310-linux_x86_64.whl