Pytorch로 만들 모델을 c++ 환경에서 inference 하기

안녕하세요.
모 기업에서 딥러닝 관련 업무를 하고 있는데요,
기존에는 tensorflow를 이용해서 개발을 했었는데,
지금은 pytorch가 대세다 보니 바꿔볼까 고민하고 있습니다.

질문드릴 사항은…
제조업이다보니 prediction하고 데이터처리하는데 시간이 여유롭지가 않아서요.
기존에 tensorflow는 그 면에서는 큰문제가 없었는데
혹시 pytorch는 c++ 환경에서 tensorflow에 비해 inference 시간이 더 오래 걸린다든지,
안정성이 떨어진다든지 하는 문제가 없을까요?

글 읽어주셔서 감사합니다.
답변 부탁드립니다.

좋아요 1

상황에 따라서 취향에 따라서 다르지만 제 경우를 기준으로 말씀드리겠습니다
우선 제가 파이토치를 좋아하고 텐서플로를 떠난지 오래이지만, inference는 파이토치를 선호하지는 않습니다.
파이토치가 특별한 문제가 있어서는 아니지만 안드로이드에서 c++이라면 tensorflowlite가 좋을 것 같고,
서버에서 gpu를 쓴다면 tensorrt,onnx같은게 좋을 것고,
서버에서 cpu를 쓴다면 이때는 libtorch와 tensorflow,tensorflowlite가 특별한 차이가 없을 것 같습니다.
모든 상황에서 파이토치가 우선하는 경우가 없으므로 이미 tensorflow를 사용하고 계시다면 inference를 위해서 파이토치로 바꾸시는건 저라면 하지않겠습니다.
학습이나 더 다양한 모델등을 실험하실 생각이라면 전환하시는 걸 추천 합니다

좋아요 1