[GN] liteLLM - 50개 이상의 LLM을 지원하는 프록시 서버

GeekNewsxguru님께 허락을 받고 GN에 올라온 글들 중에 AI 관련된 소식들을 공유하고 있습니다. :smiley_cat:


소개

  • /chat/completion API를 Azure, OpenAI, Replicate, Anthropic, Hugging Face 등의 다양한 LLM에 대해서 호출 가능
  • Input/Ouput 포맷을 OpenAI 포맷으로 통일
  • 모델 Fallback을 지원(예: GPT-4 실패시 llama2 호출)
  • 로깅 지원: Supabase, Posthog, Mixpanel, Sentry, Helicone
  • 토큰 사용량 추적
  • Semantic Caching 구현
  • 스트리밍 및 비동기 지원

원문

liteLLM Proxy-server 문서

https://github.com/BerriAI/litellm/blob/main/cookbook/proxy-server/readme.md

liteLLM 데모

https://litellm.ai/playground

liteLLM 문서

출처 / GeekNews