소스 검색

Fixed logging level in distributed mode (#4284)

Co-authored-by: fkwong <huangfuqiang@transai.cn>
modifyDataloader
imyhxy GitHub 3 년 전
부모
커밋
771ac6c53d
No known key found for this signature in database GPG Key ID: 4AEE18F83AFDEB23
1개의 변경된 파일1개의 추가작업 그리고 1개의 파일을 삭제
  1. +1
    -1
      utils/torch_utils.py

+ 1
- 1
utils/torch_utils.py 파일 보기

@@ -23,7 +23,6 @@ try:
except ImportError:
thop = None

logging.basicConfig(format="%(message)s", level=logging.INFO)
LOGGER = logging.getLogger(__name__)


@@ -108,6 +107,7 @@ def profile(input, ops, n=10, device=None):
# profile(input, [m1, m2], n=100) # profile over 100 iterations

results = []
logging.basicConfig(format="%(message)s", level=logging.INFO)
device = device or select_device()
print(f"{'Params':>12s}{'GFLOPs':>12s}{'GPU_mem (GB)':>14s}{'forward (ms)':>14s}{'backward (ms)':>14s}"
f"{'input':>24s}{'output':>24s}")

Loading…
취소
저장