5월 4일 녹화분이군여
처음부터 보실분은 보셔도 됩니댜
학습 위주 방식의 공식 -> 추론으로, 그런데 8비트(2진수 3자리)로 퉁쳐서.
터보 퀀트 대략적인 풀이 해주시네유
임베딩된 y안에 거짓말, 궤변, 쓸데없는 말 데이터가 축적되어있으면 엉터리 짬뽕으로 가중치에 따라 불러오니께네 할루시네이션이 발생됩니댜.
그라모 x는 입력인데 입력 잘 해봤자 엄벙짬때리는말을 가져오는디 불합리하죠잉.
그러다 데이터 자체에는 오로지 있는말, 되는말, 현실적 표현을 넣어 x자체의 정확도를 끌어올린 상태에서 불러오쟈는겁니다.
(제 아무리 빅데이터라봤자 엉뚱한것에 빈도가 정해진 상황이 더러 있을 수 있으니 그걸 다 일일이 걸러냈을겁니댜. 독파모 같은 프롬 스크래치 할때요)
그다음은 터보퀀트 설명이 있겠네여