이 글은 GPT 모델로 자동 요약한 설명으로, 잘못된 내용이 있을 수 있으니 원문을 참고해주세요!
읽으시면서 어색하거나 잘못된 내용을 발견하시면 덧글로 알려주시기를 부탁드립니다!
OpenAI DevDay 발표 요약
새로운 GPT-4 Turbo 및 개발자 제품 발표 (New GPT-4 Turbo and Developer Products Announced)
OpenAI는 DevDay에서 다양한 새로운 기능과 개선 사항을 발표했으며, 많은 부분에서 가격을 인하했습니다. 주요 발표 내용은 다음과 같습니다:
더욱 향상된 기능을 갖춘 새로운 GPT-4 Turbo 모델을 선보였으며, 128K 컨텍스트 창을 지원하고 가격이 더 저렴합니다.
개발자가 자체 보조 AI 앱을 쉽게 구축할 수 있도록 돕는 새로운 Assistants API를 출시했습니다.
플랫폼에 새로운 멀티모달 기능을 추가했습니다. 여기에는 비전, 이미지 생성(DALL·E 3), 텍스트-투-스피치(TTS)가 포함됩니다.
이러한 새로운 기능은 OpenAI 고객들에게 PT 오후 1시부터 순차적으로 제공될 예정입니다.
기능 호출 및 지시 사항 개선 (Function Calling and Instruction Following Improvements)
GPT-4 Turbo는 앱의 기능이나 외부 API를 모델에 설명하고, 모델이 JSON 객체를 출력하여 해당 기능을 호출하도록 하는 기능 호출 기능을 개선했습니다.
또한 JSON 모드를 지원하여 모델이 유효한 JSON으로 응답하도록 합니다.
새로운 seed 파라미터를 통해 재생산 가능한 출력을 제공하여 디버깅, 단위 테스트 등에 유용합니다.
가까운 미래에 GPT-4 Turbo와 GPT-3.5 Turbo가 생성하는 가장 가능성 있는 출력 토큰의 로그 확률을 반환하는 기능을 출시할 예정입니다.
Assistants API, 검색, 및 코드 해석기 (Assistants API, Retrieval, and Code Interpreter)
OpenAI는 개발자가 자체 애플리케이션 내에서 에이전트와 같은 경험을 구축할 수 있도록 돕는 Assistants API를 출시했습니다.
이 API는 코딩 보조, AI 기반 휴가 계획기 등 다양한 용도로 사용될 수 있습니다.
개발자들은 이제 OpenAI의 Assistants playground를 통해 코드를 작성하지 않고도 고품질의 보조기를 만들 수 있습니다.
새로운 모달리티와 API (New Modalities in the API)
GPT-4 Turbo는 이미지를 입력으로 받아들여 사진의 캡션 생성, 실세계 이미지 분석 등의 사용 사례를 가능하게 합니다.
DALL·E 3을 통해 개발자는 직접적으로 앱과 제품에 이미지를 통합할 수 있습니다.
새로운 TTS 모델을 통해 개발자는 텍스트로부터 고품질의 음성을 생성할 수 있습니다.
모델 맞춤화 (Model Customization)
OpenAI는 GPT-4의 세밀한 조정을 위한 실험적 접근 프로그램을 만들고 있으며, GPT-4 조정이 GPT-3.5 조정에 비해 의미 있는 개선을 달성하기 위해서는 더 많은 작업이 필요함을 발견했습니다. 특정 도메인에 대한 맞춤형 GPT-4 트레이닝을 위해 Custom Models 프로그램도 시작합니다.
가격 인하 및 상한 요율 증가 (Lower Prices and Higher Rate Limits)
OpenAI는 개발자에게 절감된 비용을 전달하기 위해 플랫폼 전반에 걸쳐 여러 가격을 인하했습니다. 모든 유료 GPT-4 고객을 위한 토큰 사용량 제한이 두 배로 증가되었습니다.
저작권 보호 및 Whisper v3 (Copyright Protection and Whisper v3)
OpenAI는 시스템 내에서 저작권 보호 기능을 통해 고객을 보호합니다. Whisper large-v3는 언어에 걸쳐 성능이 향상된 새로운 자동 음성 인식 모델이며, Consistency Decoder는 Stable Diffusion VAE 디코더의 대체품으로 개선된 이미지를 생성합니다.