RTX 4090을 사용하려고 하는데 파이토치 CUDA 버전을 모르겠어요

4090 CUDA 버전이 11.8이던데 아직 파이토치는 11.7까지만 지원하는 것 같더라고요 찾아보니까 아직 compatible 하지 않다고 hungingface에 댓글로 적혀있던데 4090 을 사면 pytorch를 사용 못할까요? 그렇다고 3090을 사기엔 너무 아쉬워서 여쭤봅니다,!

1개의 좋아요

아래 글을 참조해보면, nvidia에서 제공하는 container에
cuda 11.8 +pytorch 1.13 으로 환경 구성이 되어있습니다.

도커 사용하신다면, pytorch 사용은 가능할 듯 합니다(베타 버전)…
앞으로도 여러 테스트 중, 환경관련 문제로 호환이 맞지않아 골치 아플 수 있을 듯 하여
저라면 3090이나 TITAN쪽을 고려해볼 듯 합니다.

2개의 좋아요

넵 감사합니다. 잘 생각 해보겠습니다.

현재 4090 사용중입니다. 파이토치 사용은 가능합니다만 cuFFT 지원이 안되는 등 문제가 발생하는 경우가 있어요. torch.stft 같은거를 쓰려다가 실패해서 nvidia container로 사용중입니다.

1개의 좋아요

도커로는 말씀해주신대로 가능한 것 같은데. 혹시 윈도우 환경에서 anaconda 를 사용할때 cuda 11.8 + pytorch 1.13 조합이 가능할까요?

pytorch 홈페이지 들어가면 있는 설치하기 위한 명령어에서 pytorch 1.13을 설치하는 것은 없던데…

안녕하세요,

윈도우 환경에서의 테스트는 해보지않아 확신드릴 수 없습니다만
조합자체가 문제가 되지는 않을 듯 합니다.

pytorch 1.13 명령어는 아래 주소에서 확인가능합니다.

답변 감사드립니다. pytorch 설치 명령어를 말씀해주신 링크에서 확인가능한데요.
cuda 버전에 맞는 설치 명령어는 cuda11.7까지 밖에 나와있지 않은데conda install pytorch torchvision torchaudio pytorch-cuda=11.8 -c pytorch -c nvidia 과 같이 버전만 바꿔서 설치해도 문제없을까요?
위와 같이 11.8로만 버전 바꿔서는 conda 로는 “The following packages are not available from current channels” 에러메시지 뜨면서 설치 안되고 pip로 직접 설치하면 설치는 되는데 torch.cuda.is_available() 함수 값이 false가 나와서 cuda 가 안되네요…