Parcourir la source

Fixed logging level in distributed mode (#4284)

Co-authored-by: fkwong <huangfuqiang@transai.cn>
modifyDataloader
imyhxy GitHub il y a 3 ans
Parent
révision
771ac6c53d
Aucune clé connue n'a été trouvée dans la base pour cette signature ID de la clé GPG: 4AEE18F83AFDEB23
1 fichiers modifiés avec 1 ajouts et 1 suppressions
  1. +1
    -1
      utils/torch_utils.py

+ 1
- 1
utils/torch_utils.py Voir le fichier

@@ -23,7 +23,6 @@ try:
except ImportError:
thop = None

logging.basicConfig(format="%(message)s", level=logging.INFO)
LOGGER = logging.getLogger(__name__)


@@ -108,6 +107,7 @@ def profile(input, ops, n=10, device=None):
# profile(input, [m1, m2], n=100) # profile over 100 iterations

results = []
logging.basicConfig(format="%(message)s", level=logging.INFO)
device = device or select_device()
print(f"{'Params':>12s}{'GFLOPs':>12s}{'GPU_mem (GB)':>14s}{'forward (ms)':>14s}{'backward (ms)':>14s}"
f"{'input':>24s}{'output':>24s}")

Chargement…
Annuler
Enregistrer