예측불가한 행동하기 영상들이 한떄 유행했었나보네요 ㅋㅋ;;
문득 이렇게 확률상 안할것 같은 행동에 대한 맥락은 모델 자체 학습에서 계속 제외될거라는 생각이 드네유
모델데이터에 아예 없는 내용은 제 아무리 제로샷 알고리즘일지라도 안해야될 행동을 하는걸 봤을때 대처방법을 과연 사고할 수 있을지가 의문이고욤
반대로 일론머스크는
뻔한것보다 특이점이 많은 부분을 오히려 더 수집하여 이미지상으로 최선을 다해 상황파악하는 알고리즘을 얻고있겠쥬
현재 대부분의 교육용 자료를 잘 둘러보면
정상적인 빅데이터를 쌓아놓고 쌓인 단어 하나하나가 명령의 앞뒤 단어를 파악해서 맥락을 파악하고,
이 정상적인 맥락들에 사용된 각 단어들의 확률을 매겨서 '자주쓰는 표현' 정도로 빈도체크를 하고,
매번 모든 데이터에서 불러올 순 없으니 모델의 크기를 원본 -> 몇백B-> 몇십B ->몇B만으로도 맥락을 잘 이해시킨다는 알고리즘 짜느라 노력중인걸로 아는데요
정상적인 행동만 해라 알고리즘을 만드는 상황 같고
불순한 단어나 비속어 필터는 다른 부가적인 이야기겠고욤
또 100B, 200B 또는 그 이상급 빅빅빅데이터를 가지고있을 때, 내적 계산 같은 최소한의 움직임으로 모델을 학습시키고자 하는 노력도 보이지만, 첫 영상의 예측 불가한 행동을 할 낮은 확률에 대응을 잘 하려면 머스크의 방법 처럼 뜬금없이 벌어지는 버드스트라이크라던지 운전자 탈출? 등등 기상천외한 실험 다 하고있을거같은데
오히려 이런 상황들을 학습시켜둘수록 더 유리할거라는 생각이 큽니당
어떤 상황도 조금은 벌어질 수 있다 알고리즘을 만드는 차이랄까요
이미지 처리라는게 계속 마음에 걸리지만요..