[문제해결] LoRA fine-tuning > adapter_model.bin 이 1kb 미만인 현상

Topic. adapter_model.bin 파일이 1kb 로 깨져서 생성되는 문제를 해결합니다.


 

열심히 하이퍼파라미터를 조정하며 인내의 시간을 기다려 fine-tuning이 완료되었을 때

생성된 adapter model이 1kb (443byte) 인 누가봐도 이상한 현상

가중치가 사라졌다...

열심히 디버그를 돌리다가 save_checkpoint 나 save_model 시 아래 구문이 실행되며

가중치를 모두 초기화 하여 저장하는 현상이 있다는 것을 알았습니다.

old_state_dict = model.state_dict
model.state_dict = (
lambda self, *_, **__: get_peft_model_state_dict(self, old_state_dict())
).__get__(model, type(model))

소스에서 위 문구가 발견된다면 지워버립시다.

LLM Fine-tuning 소스가 올라온지 얼마 안됐을 때 peft에서 처리하지 못한 부분을 위와같이 처리하였다가

이제 peft 모델이 업데이트 되며 저 구문이 문제를 일으킨거같긴 한데...

정확한 이유를 아시는 분있으면 공유 부탁드립니다.

  • 네이버 블로그 공유
  • 네이버 밴드 공유
  • 페이스북 공유