파이토치를 이용하여 Self-Supervised Learning을 공부하고 있는 학생입니다.
다름이 아니라 GPU나 CUDA의 버젼 등 사용자의 환경에 따라 딥러닝 모델의 성능이 변할 수 있을까요?
서버에서 돌릴 때와 로컬에서 돌릴 때의 성능이 차이가 많이 나네요.
아 여기서 성능이란 모델의 정확도를 의미합니다.
서버는 A100 4장을 사용하였으며 로컬은 3090 2장을 사용하였습니다.
그런데 서버가 로컬보다 정확도가 많이 높네요.
물론 같은 코드를 사용하였으며 아마 세부적인것은 확인안했지만 파이썬, 쿠다 등의 버젼은 다를 것 같습니다.