[GN] OpenAI, DevDay에서 새로운 모델 및 개발자 제품 공개

GeekNewsxguru님께 허락을 받고 GN에 올라온 글들 중에 AI 관련된 소식들을 공유하고 있습니다. :smiley_cat:


소개

  • 128K 문맥 창을 지원하는 GPT-4 Turbo 모델, Vision이 포함된 GPT-4 API, Assistant API, DALL-E 3 API, 새로운 GPT-3.5 Turbo 등 공개.

  • GPT-4 Turbo

GPT-4 Turbo

  • 128K 문맥 창(Context Window)을 지원하며, 2023년 4월 기준 데이터로 훈련됨.

  • GPT-4 대비 입력 토큰은 3배, 출력 토큰은 2배 저렴함.

  • 특정 형식으로 응답하는 지침을 더 잘 따르며, JSON 응답이 보장되는 JSON 모드도
    있음.

  • seed 기반으로 재현할 수 있는 출력을 지원하며 출력에 대한 로그 확률을 반환하는 기능을 추가할 예정.

  • GPT-3.5 Turbo도 같이 업데이트됨.

  • Assistants API

    • 코드 인터프리터, 검색, 함수 호출 기능을 가진 특수 목적 AI.

    • 스레드 기반으로 상태를 관리하여 무한히 긴 내용도 처리 가능.

    • 코드 인터프리터 - 샌드박스 환경에서 Python 코드를 작성하고 실행할 수 있음.

    • 검색 - 사용자가 제공한 문서 등 모델 외부의 지식으로 내용을 검색하고 응답.

    • 함수 호출 - 사용자가 정의한 함수를 적절하게 호출하고, 응답을 결과에 포함할 수 있음.

  • 그 외 신규 API

    • GPT-4 Turbo에 이미지를 인식하는 기능이 추가됨,

    • DALL-E 3가 API로 출시되었으며, 이미지 생성당 0.04 달러.

    • TTS API가 추가됨.

  • 모델 커스터마이징

    • GPT-4 미세 조정 모델이 실험적 액세스로 출시될 예정.
    • 거대 조직을 위해 사용자 정의 모델을 제작하기 위한 맞춤형 모델 서비스 제공.
      • 수십억 토큰 이상의 독점 데이터 세트를 통한 훈련 등.
  • 가격 인하
    image

    • GPT-4 Turbo 128K는 입력 토큰당 0.01 달러, 출력 토큰당 0.03 달러.

      • 기존에 비해 입력 토큰은 3배, 출력 토큰은 2배 저렴해짐.
    • GPT-3.5 Turbo 16K는 입력 토큰당 0.001 달러, 출력 토큰당 0.002 달러에 제공.

      • 기존에 비해 입력 토큰은 3배, 출력 토큰은 2배 저렴해졌으며, 4K 모델에 비해서도 입력 토큰인 33% 저렴해짐.
    • GPT-3.5 Turbo의 미세 조정 모델은 입력 토큰당 0.003 달러, 출력 토큰당 0.006 달러에 제공.

      • 기존에 비해 입력 토큰은 4배, 출력 토큰은 2.7배 저렴해짐.

원문

출처 / GeekNews

  • 이 글은 GPT 모델로 자동 요약한 설명으로, 잘못된 내용이 있을 수 있으니 원문을 참고해주세요! :smile:
  • 읽으시면서 어색하거나 잘못된 내용을 발견하시면 덧글로 알려주시기를 부탁드립니다! :bowing_man:

OpenAI DevDay 발표 요약

새로운 GPT-4 Turbo 및 개발자 제품 발표 (New GPT-4 Turbo and Developer Products Announced)

OpenAI는 DevDay에서 다양한 새로운 기능과 개선 사항을 발표했으며, 많은 부분에서 가격을 인하했습니다. 주요 발표 내용은 다음과 같습니다:

  • 더욱 향상된 기능을 갖춘 새로운 GPT-4 Turbo 모델을 선보였으며, 128K 컨텍스트 창을 지원하고 가격이 더 저렴합니다.

  • 개발자가 자체 보조 AI 앱을 쉽게 구축할 수 있도록 돕는 새로운 Assistants API를 출시했습니다.

  • 플랫폼에 새로운 멀티모달 기능을 추가했습니다. 여기에는 비전, 이미지 생성(DALL·E 3), 텍스트-투-스피치(TTS)가 포함됩니다.

  • 이러한 새로운 기능은 OpenAI 고객들에게 PT 오후 1시부터 순차적으로 제공될 예정입니다.

기능 호출 및 지시 사항 개선 (Function Calling and Instruction Following Improvements)

GPT-4 Turbo는 앱의 기능이나 외부 API를 모델에 설명하고, 모델이 JSON 객체를 출력하여 해당 기능을 호출하도록 하는 기능 호출 기능을 개선했습니다.

  • 또한 JSON 모드를 지원하여 모델이 유효한 JSON으로 응답하도록 합니다.

  • 새로운 seed 파라미터를 통해 재생산 가능한 출력을 제공하여 디버깅, 단위 테스트 등에 유용합니다.

  • 가까운 미래에 GPT-4 Turbo와 GPT-3.5 Turbo가 생성하는 가장 가능성 있는 출력 토큰의 로그 확률을 반환하는 기능을 출시할 예정입니다.

Assistants API, 검색, 및 코드 해석기 (Assistants API, Retrieval, and Code Interpreter)

OpenAI는 개발자가 자체 애플리케이션 내에서 에이전트와 같은 경험을 구축할 수 있도록 돕는 Assistants API를 출시했습니다.

  • 이 API는 코딩 보조, AI 기반 휴가 계획기 등 다양한 용도로 사용될 수 있습니다.

  • 개발자들은 이제 OpenAI의 Assistants playground를 통해 코드를 작성하지 않고도 고품질의 보조기를 만들 수 있습니다.

새로운 모달리티와 API (New Modalities in the API)

GPT-4 Turbo는 이미지를 입력으로 받아들여 사진의 캡션 생성, 실세계 이미지 분석 등의 사용 사례를 가능하게 합니다.

  • DALL·E 3을 통해 개발자는 직접적으로 앱과 제품에 이미지를 통합할 수 있습니다.

  • 새로운 TTS 모델을 통해 개발자는 텍스트로부터 고품질의 음성을 생성할 수 있습니다.

모델 맞춤화 (Model Customization)

OpenAI는 GPT-4의 세밀한 조정을 위한 실험적 접근 프로그램을 만들고 있으며, GPT-4 조정이 GPT-3.5 조정에 비해 의미 있는 개선을 달성하기 위해서는 더 많은 작업이 필요함을 발견했습니다. 특정 도메인에 대한 맞춤형 GPT-4 트레이닝을 위해 Custom Models 프로그램도 시작합니다.

가격 인하 및 상한 요율 증가 (Lower Prices and Higher Rate Limits)

OpenAI는 개발자에게 절감된 비용을 전달하기 위해 플랫폼 전반에 걸쳐 여러 가격을 인하했습니다. 모든 유료 GPT-4 고객을 위한 토큰 사용량 제한이 두 배로 증가되었습니다.

저작권 보호 및 Whisper v3 (Copyright Protection and Whisper v3)

OpenAI는 시스템 내에서 저작권 보호 기능을 통해 고객을 보호합니다. Whisper large-v3는 언어에 걸쳐 성능이 향상된 새로운 자동 음성 인식 모델이며, Consistency Decoder는 Stable Diffusion VAE 디코더의 대체품으로 개선된 이미지를 생성합니다.

더 읽어보기

OpenAI DevDay 발표 자세히 보기

  • OpenAI DevDay에서 발표된 새로운 모델과 개발자 제품에 대한 자세한 내용을 제공합니다.

GPT-4 Turbo 및 기타 모델 가격 인하 자세히 보기

  • OpenAI의 텍스트-투-스피치 API 가이드 및 가격 인하에 대한 정보를 제공합니다.

Text-to-Speech 가이드

  • 개발자가 OpenAI의 텍스트-투-스피치 기능을 사용하는 방법에 대한 안내를 제공합니다.

Whisper large-v3

  • 언어에 걸쳐 성능이 향상된 새로운 자동 음성 인식 모델에 대한 정보를 제공합니다.

Consistency Decoder

  • Stable Diffusion VAE 디코더의 대체품으로 이미지 품질 개선에 대한 정보를 제공합니다.

https://github.com/openai/consistency