32t 256GB ram(램입니다..) 6TB (nvme), a6000 (48gb) x 4 시스템에서 파인튜닝은 배치사이즈 1이 최대네요 ㅠㅠ
아무튼 7b 이 녀석과 얼추 chatgpt 느낌나게 대화가 되긴합니다.
홍보 문구 만들어달라는거나 간단한 코드도 짜주긴 하더라구요..
chatgpt 로 파이프라인 훈련데이터 만들어주면 더 성능이 좋아질것 같고, lora 적용해서 적은 size 에서도 맞춤형으로 동작되는 모델도 가능해 보이긴합니다.
훈련을 잘 시키니 계속 좋아지나 보네요