PyTorchKR
- 아래 내용은 GPT 모델로 자동 요약한 것으로, 자세한 내용은 원문을 참고해주세요!
- 읽으시면서 어색하거나 잘못된 내용을 발견하시면 덧글로 알려주시기를 부탁드립니다!
소개
GitHub 저장소 "llama-shepherd-cli"는 mikepapadim이 개발한 명령 줄 인터페이스(CLI) 도구로, 다양한 버전의 라마 추론 구현을 관리하고 구성하기 위해 설계되었습니다. 이 도구는 사용자가 다양한 프로그래밍 언어로 된 여러 버전의 라마 추론을 효율적으로 처리할 수 있도록 도와줍니다.
주요 특징
"llama-shepherd-cli"의 주요 특징은 다음과 같습니다:
목적 및 기능
라마 셰퍼드는 다양한 버전의 라마 추론 구현을 관리하고 실험하기 위한 CLI 도구입니다. 이 도구는 Andrej Karpathy의 "llama2.c 프로젝트"에서 시작되었습니다.
지원 언어
라마 셰퍼드는 Rust, Go, Android, C++, CUDA, JavaScript, Zig, Julia, Scala, Java, Kotlin, Python, C#, Dart, Web, WebAssembly, Fortran, Mojo, OCaml 등 다양한 프로그래밍 언어로 된 라마 추론 구현의 여러 버전을 사용합니다. 각 버전은 이 구현에 기여한 다양한 GitHub 저자들에게 귀속됩니다.
사용법
-
사용 가능한 라마 옵션을 나열하려면
python3 llamashepherd/main.py list [Optional][LANGUAGE]
명령어를 사용합니다. 이 명령어는 특정 언어를 지정하여 옵션을 필터링하거나, 언어를 지정하지 않으면 모든 옵션을 표시할 수 있습니다. -
라마 옵션을 대화식으로 설치하려면
python3 llamashepherd/main.py install
명령어를 사용합니다. -
라마 모델을 초기화하려면, Tokenizer 및/또는 TinyLLama 모델을 다운로드하고 구성하기 위해
python3 llamashepherd/main.py models
명령어를 실행합니다.
라이선스
이 프로젝트는 MIT 라이선스에 따라 오픈 소스로 사용 및 이용이 가능합니다.
원문
파이토치 한국 사용자 모임이 정리한 이 글이 유용하셨나요? 회원으로 가입하시면 주요 글들을 이메일로 보내드립니다! (기본은 Weekly지만 Daily로 변경도 가능합니다.)
아래쪽에 좋아요를 눌러주시면 뉴스 발행에 힘이 됩니다~