파이토치 한국 사용자 모임
low-rank-adapter
글
댓글
조회수
활동
QLoRA: 48GB GPU로 65B 모델의 미세조정(파인튜닝)이 가능하다고요?
읽을거리&정보공유
qlora
,
lora
,
quantized-llm
,
fine-tuning
,
low-rank-adapter
,
peft
,
llm-finetuning
,
paper
0
5893
5월 30, 2023