GPU에 따른 모델의 성능차이

안녕하세요

파이토치를 이용하여 Self-Supervised Learning을 공부하고 있는 학생입니다.
다름이 아니라 GPU나 CUDA의 버젼 등 사용자의 환경에 따라 딥러닝 모델의 성능이 변할 수 있을까요?
서버에서 돌릴 때와 로컬에서 돌릴 때의 성능이 차이가 많이 나네요.
아 여기서 성능이란 모델의 정확도를 의미합니다.

서버는 A100 4장을 사용하였으며 로컬은 3090 2장을 사용하였습니다.
그런데 서버가 로컬보다 정확도가 많이 높네요.
물론 같은 코드를 사용하였으며 아마 세부적인것은 확인안했지만 파이썬, 쿠다 등의 버젼은 다를 것 같습니다.

감사합니다.

안녕하세요
버전에 따라서 결과가 크게 차이나지는 않을 것 같습니다.
먼저 초기화를 동일하게 하도록 random seed를 고정해 보시는것도 좋을 것 같습니다.

그리고 GPU 카드의 숫자가 다르다 보니 혹시나 실제 배치 사이즈가 동일하게 된 것 인지도 확인이 필요할 것 같습니다.
감사합니다.

2개의 좋아요

좋은 의견 감사드립니다.

올려주신 글대로 따라해보도록 하겠습니다.
항상 감사합니다.

같은 환경에서도 학습할때마다 정확도가 바뀝니다.
위에 성수님이 답변해주신 것 처럼 random seed (random state) 값을 고정해보면 좋은것 같습니다.

이 글은 마지막 댓글이 달린지 오래(7일)되어 자동으로 닫혔습니다. 댓글 대신 새로운 글을 작성해주세요! :slight_smile: