[GN] llamafile - 단일 파일로 LLM 배포 및 실행 하기

GeekNewsxguru님께 허락을 받고 GN에 올라온 글들 중에 AI 관련된 소식들을 공유하고 있습니다. :smiley_cat:


소개

image

  • 1개의 파일로 대부분의 컴퓨터에서 설치없이 LLM을 쉽게 실행 지원

    • llava-v1.5-7b-q4-server.llamafile 파일(3.97 GB)을 다운로드 받아 실행

    • chmod +x llava-v1.5-7b-q4-server.llamafile (윈도우의 경우 .exe 확장자 추가)

    • ./llava-v1.5-7b-q4-server.llamafile (또는 llava-v1.5-7b-q4-server.llamafile.exe 실행)

  • llama.cppCosmopolitan Libc를 결합한 프레임워크

    • 1개의 빌드로 여러 OS, 다양한 CPU 아키텍처에서 실행 가능
  • 채팅 및 이미지 인식이 가능한 LLaVA 모델을 예제로 제공

    • 4GB 파일인 llava-v1.5-7b-q4-server.llamafile 을 다운 받아서 실행하면 끝

    • 맥/리눅스/BSD 의 경우는 chmod +x 하고 바로 실행

    • 윈도우는 확장자 뒤에 .exe 를 붙여서 바로 실행

    • 실행되면 자동으로 브라우저가 열리고 채팅 인터페이스를 표시

  • 그외에 Mistral-7B-Instruct, WizardCoder-Python-13B 등의 llamafile 도 제공

Model License Command-line llamafile Server llamafile
Mistral-7B-Instruct Apache 2.0 mistral-7b-instruct-v0.1-Q4_K_M-main.llamafile (4.07 GB) mistral-7b-instruct-v0.1-Q4_K_M-server.llamafile (4.07 GB)
LLaVA 1.5 LLaMA 2 (Not provided because this model's features are best utilized via the web UI) llava-v1.5-7b-q4-server.llamafile (3.97 GB)
WizardCoder-Python-13B LLaMA 2 wizardcoder-python-13b-main.llamafile (7.33 GB) wizardcoder-python-13b-server.llamafile (7.33GB)

더 읽어보기

llamafile GitHub 저장소

llama.cpp GitHub 저장소

Cosmopolitan 프로젝트 소개

LLaVA 모델 소개

출처 / GeekNews

2개의 좋아요