LLM은 아는 건 많지만 기억상실증에 걸린 학자같다네요.
출처 1
LLM은 인간과 같은 작업 기억을 가지고 있지 않다
https://www.researchgate.net/publication/391701363_LLMs_Do_Not_Have_Human-Like_Working_Memory
출처 2
LLM은 아는 건 많지만 기억상실증에 걸린 학자같다네요.
출처 1
https://www.researchgate.net/publication/391701363_LLMs_Do_Not_Have_Human-Like_Working_Memory
출처 2
검색엔진은 조회가 안되면 결과가 안나오는데
LLM은 모르면 추론을 통해서 답을 만들어내는데... 거짓말을 논리적으로 그럴듯하게 잘해요. ㅎㅎ
네, 말씀하신대로 인간과 달리 모순을 이해하는 능력이 없어서 인 거 같긴 하네요. 내가 틀릴 수 없다고 생각하는 멍청한 인간과 닮은 거 같긴 하네요.
모델자체가 추론을 도출해내는 구조를 가지고 있어서 그런듯 합니다.
게다가 잘못된 정보를 학습했을때의 문제도 있구요.
대화 친구가 되기엔 시간이 꽤 필요할거 같네요.
네, 말씀하신대로 고치기는 어렵고 뭔가 새로운 돌파구가 필요한가 보네요.
우리가 엄청날 꺼라고 생각하는 생의 기억들은 사실 데이터로 압축하면 얼마 안될수 있다고 봅니다.
컨텍스트 윈도우가 태생적 한계를 지니고 있다 한들 극복가능할 거라 봐요
산업계 실제 구현 사례
상용화된 솔루션들
• OpenAI GPTs: 사용자 정의 지식베이스 연동
• Google Workspace의 Duet AI: 문서 기반 컨텍스트 유지
• Microsoft 365 Copilot: 조직 내 데이터 통합 활용
• Notion AI: 페이지 간 맥락 연결 및 참조
기업 내부 개발 동향
• Meta의 LLaMA: 효율적 파라미터 활용으로 메모리 최적화
• Anthropic의 Constitutional AI: 대화 일관성 유지 메커니즘
• Cohere의 Command-R+: 기업용 RAG 최적화 모델
미래 발전 방향성
단기 로드맵 (1-2년)
• 멀티모달 메모리: 텍스트, 이미지, 음성 통합 기억 시스템
• 개인화 메모리: 사용자별 맞춤형 장기 기억 구축
• 실시간 학습: 대화 중 즉시 학습 및 적응
중장기 비전 (3-5년)
• 뉴로모픽 컴퓨팅: 뇌 구조 모방 하드웨어 기반 메모리
• Quantum-Enhanced Memory: 양자 컴퓨팅 활용 초고속 메모리 처리
• Distributed Intelligence: 분산 네트워크 기반 집단 지능 메모리
근본적 패러다임 전환
• From Stateless to Stateful: 상태 유지 모델로의 진화
• Embodied AI: 물리적 경험 기반 기억 형성
• Lifelong Learning: 평생 학습 가능한 메모리 시스템