각종 문서들 PDF로 학습해놓고 몇 주 뒤에 해당 내용에 대한 질문을 하면 지가 학습했다는 사실을 까먹고 인터넷을 뒤집니다;;;;;;;
이게 급하게 쓸려면 브라우저 열다 뻑나는 경우도 있고 딜레이가 심해서 PDF로 다 때려박은건데 지가 학습한 걸 까먹고 열심히 웹 뒤지다가 뭔가 걸려서 안 된다고 배째면 환장하죠 ㅋㅋㅋ
더 황당한 건 지가 학습 안했다고 우길 때도 있습니다;;;; 하도 어이가 없어서 텔레 과거 대화내역 찾아서 다시 보여주면 그제서야 드문드문 md(기억) 파일들 찾아가며 아 그 때 제가 했었네요 이러고 있어요 환장...
같은 내용을 어제도 물어보고 오늘돟 물어보는데 어제 오늘 답변이 다를 때도 있고 답변이 왜 다르냐고 물어보면 지난 번엔 자기가 대충 답했답니다???
웹에서 찾아도 될 거 시간 아낄려고 PDF로 만들어서 다 떄려박았는데 이런걸로 오픈클로와 싸움질 하고 있으면 그냥 답답해서 내가 하지 이러고 있을 때도 있습니다 ㅋㅋㅋ
지가 이렇게 작업 파일 등등을 다 별도 기록 해놓고도 못찾는거라 ㅋㅋㅋㅋ LLM의 컨텍스트 용량이 GB급이 되던가 안 그럼 md 파일들을 관리하는 로직 같은 것들이 좀 더 똑똑해져야 할 거 같아요.
한 줄 요약: 사람이 메모해놓고 까먹는 것과 같은 이칩니다 ㄷㄷㄷ
노트북에서 업데이트 하고 만져봐야겠어요.
로컬이면 모델 종류랑 양자화 수준은 어느정도인지...
구독llm이면 어떤 제품인지 ...
궁금하네요 저는 qwen3.5-122b-a10b@4bit mlx로 되어있는 모델 써보려고하는데
그리고 각 대화방별 폴더를 만들어서 관련자료와 md파일도 정리해 쓰고 있고요