OneEyeDJ commited on
Commit
d681921
·
verified ·
1 Parent(s): f960b99

Update requirements.txt

Browse files
Files changed (1) hide show
  1. requirements.txt +14 -4
requirements.txt CHANGED
@@ -1,6 +1,10 @@
1
- --extra-index-url https://download.pytorch.org/whl/cu118
2
- torch==2.1.2
3
- torchvision
 
 
 
 
4
 
5
  ###############################################################################
6
  # Transformers / training utils
@@ -35,4 +39,10 @@ huggingface_hub
35
  sentencepiece
36
  safetensors
37
 
38
- https://github.com/Dao-AILab/flash-attention/releases/download/v2.5.9.post1/flash_attn-2.5.9.post1+cu118torch1.12cxx11abiFALSE-cp310-cp310-linux_x86_64.whl
 
 
 
 
 
 
 
1
+ ###############################################################################
2
+ # CUDA 12.1 runtime + PyTorch 2.1 wheels (official extra index)
3
+ ###############################################################################
4
+ --extra-index-url https://download.pytorch.org/whl/cu121
5
+
6
+ torch==2.1.0+cu121 # core
7
+ torchvision==0.16.0+cu121 # must share the same ABI tag
8
 
9
  ###############################################################################
10
  # Transformers / training utils
 
39
  sentencepiece
40
  safetensors
41
 
42
+ ###############################################################################
43
+ # Flash-Attention 2.5.8 ── prebuilt for
44
+ # • CUDA 12.2 (binary still works under CUDA ≥12.1 drivers*)
45
+ # • PyTorch 2.1
46
+ # • Python 3.10 (cp310)
47
+ ###############################################################################
48
+ https://github.com/Dao-AILab/flash-attention/releases/download/v2.5.8/flash_attn-2.5.8+cu122torch2.1cxx11abiFALSE-cp310-cp310-linux_x86_64.whl