Google에서 2B / 7B 크기의 작은(?) LLM Gemma를 공개했는데요,
gemma.cpp까지 공개했다는걸 뒤늦게 알게되어 집에서 사용 중인 M1 mac mini에서 빌드 및 실행을 해봤습니다 ㅎㅎ
gemma.cpp에 대한 소개는 gemma.cpp: Gemma 모델의 빠른 실행을 위한 C++ 추론 엔진 (by Google) 에서,
로컬 빌드 및 사용 환경 구성기(?)는 위 글의 2번째 글에서 확인하실 수 있습니다.
트래픽(서버비)이 무서워 영상을 빙자한 Animated GIF입니다
2B 모델의 경우에도 한국어를 못하지는 않는데 내용이 만족스러운 정도는 아니네요.
Gemma는 감기를 무서워하는 것으로...
밤이 늦었으니 일단 자고, 다른 모델들도 한 번 사용해보고 후기 남겨보겠습니다
이번 주말에는 Gemma와 함께 놀아보시면 어떨까요?