davda54 commited on
Commit
d50210a
·
verified ·
1 Parent(s): 4cd5c5c

fixed SDPA for older PyTorch versions

Browse files
Files changed (1) hide show
  1. modeling_gptbert.py +6 -0
modeling_gptbert.py CHANGED
@@ -37,11 +37,17 @@ try:
37
  logger.warning_once(
38
  "NorBERT4 støtter FlashAttention, men det er ikke funnet i miljøet ditt. Du bør vurdere å oppdatere miljøet ditt for å få raskere og mindre minnekrevende behandling."
39
  )
 
 
 
40
  except ImportError:
41
  flash_attn_varlen_qkvpacked_func, RotaryEmbedding, apply_rotary = None, object, None
42
  logger.warning_once(
43
  "NorBERT4 støtter FlashAttention, men det er ikke funnet i miljøet ditt. Du bør vurdere å oppdatere miljøet ditt for å få raskere og mindre minnekrevende behandling."
44
  )
 
 
 
45
 
46
 
47
  # from https://github.com/huggingface/transformers/blob/main/src/transformers/models/modernbert/modeling_modernbert.py
 
37
  logger.warning_once(
38
  "NorBERT4 støtter FlashAttention, men det er ikke funnet i miljøet ditt. Du bør vurdere å oppdatere miljøet ditt for å få raskere og mindre minnekrevende behandling."
39
  )
40
+ torch.backends.cuda.enable_flash_sdp(False)
41
+ torch.backends.cuda.enable_mem_efficient_sdp(False)
42
+ torch.backends.cuda.enable_math_sdp(True)
43
  except ImportError:
44
  flash_attn_varlen_qkvpacked_func, RotaryEmbedding, apply_rotary = None, object, None
45
  logger.warning_once(
46
  "NorBERT4 støtter FlashAttention, men det er ikke funnet i miljøet ditt. Du bør vurdere å oppdatere miljøet ditt for å få raskere og mindre minnekrevende behandling."
47
  )
48
+ torch.backends.cuda.enable_flash_sdp(False)
49
+ torch.backends.cuda.enable_mem_efficient_sdp(False)
50
+ torch.backends.cuda.enable_math_sdp(True)
51
 
52
 
53
  # from https://github.com/huggingface/transformers/blob/main/src/transformers/models/modernbert/modeling_modernbert.py