ARM-엔비디아-인텔, 8비트 부동소수점 사양에 학습‧추론 교환가능 포맷 제공

이 기사는 AI타임즈의 허락을 받아 게재하였습니다. 자세한 정보는 아래의 본문 링크를 참조해주세요. :smiling_face:


image

…(전략)…

인텔과 ARM 그리고 엔비디아는 인공지능(AI) 학습과 추론에 적용되는 교환가능 포맷을 제공하기 위해 8비트 부동소수점(FP8) 사양 및 E5M2와 E4M3을 기술하는 연구 공동으로 14일(현지시간) 발표했다.

이러한 기업간 사양 합의를 통해, 다양한 AI 모델이 하드웨어 플랫폼을 넘나들며 일관되게 작동하고 성능을 발휘, AI 소프트웨어 개발을 가속화할 수 있으며, FP8은 하드웨어와 소프트웨어 간의 균형을 기반으로 기존 IEEE 754 부동소수점 형식으로부터의 편차를 최소화하여 기존에 적용 부분을 활용하고 신규 채택을 가속화하고 개발자 생산성을 향상한다.

인텔은 하바나® 가우디® 딥 러닝 가속기를 포함한 CPU, GPU 및 기타 AI 가속기에 대한 AI 제품 로드맵에서 해당 사양을 지원할 계획이다.

한편, FP8은 최신 프로세서에서 일반적으로 사용되는 16비트 형식을 넘어 딥러닝 학습과 추론을 가속화하기 위한 자연스러운 방법이다. 이 논문에서는 E4M3(4비트 지수 및 3비트 가수) 및 E5M2(5비트 지수 및 2비트 가수)의 두 가지 인코딩으로 구성된 8비트 부동 소수점(FP8) 이진 교환 형식을 제안했다.

이에 대한 공동 연구 결과는 지난 12일 '딥러닝을 위한 FP8 포맷(FP8 Formats for Deep Learning-다운)'란 제목으로 아카이브를 통해 발표됐으며, 이번 ARM, 엔비디아 및 인텔의 해당 포맷 제안의 원칙은 IEEE 표준화에 기반한 규약, 개념 및 알고리즘을 활용하는 것이다. 이는 현재의 산업 규약을 고수하면서 미래의 AI 혁신을 위한 가장 큰 자유도를 부여한다.

  • 참고 링크: