파이토치 한국 사용자 모임
healing
글
댓글
조회수
활동
LLM의 효율성 및 성능 최적화에 대한 연구: Layer-Pruning & QLoRA를 활용한 모델 경량화 & 성능 유지
읽을거리&정보공유
qlora
,
peft
,
model-compression-for-llms
,
pruning
,
layer-pruning
,
healing
0
1240
4월 2, 2024