Sfoglia il codice sorgente

Remove DDP MultiHeadAttention fix (#3768)

modifyDataloader
Glenn Jocher GitHub 3 anni fa
parent
commit
f2d97ebb25
Non sono state trovate chiavi note per questa firma nel database ID Chiave GPG: 4AEE18F83AFDEB23
1 ha cambiato i file con 1 aggiunte e 3 eliminazioni
  1. +1
    -3
      train.py

+ 1
- 3
train.py Vedi File

@@ -252,9 +252,7 @@ def train(hyp, # path/to/hyp.yaml or hyp dictionary

# DDP mode
if cuda and RANK != -1:
model = DDP(model, device_ids=[LOCAL_RANK], output_device=LOCAL_RANK,
# nn.MultiheadAttention incompatibility with DDP https://github.com/pytorch/pytorch/issues/26698
find_unused_parameters=any(isinstance(layer, nn.MultiheadAttention) for layer in model.modules()))
model = DDP(model, device_ids=[LOCAL_RANK], output_device=LOCAL_RANK)

# Model parameters
hyp['box'] *= 3. / nl # scale to layers

Loading…
Annulla
Salva