지금의 LLM을 거대기업들이 먼저 못했던 이유가.. LLM 원리로 보면 그냥 간단한 요약이나 할줄 알았지, 스케일을 키운다고 이정도까지 올라올 줄 예상 못했던 이유 같습니다. 그래서 스케일을 계속 키워보니.. 수학, 과학분야는 거의 마스터 단계에 이미 도달했다는 설(에릭슈미트)도 나오고, 하지만 누구도 아직 끝은 확인 못한 상태 아닌가 싶구요. 개인적으로는 본문 내용처럼 한계가 명확히 보인다면, 정말 다행이고 인류에겐 해피엔딩일거 같습니다.
소리그림
IP 175.♡.90.141
10-25
2025-10-25 12:19:33
·
AGI 가 뚝딱 나올 것 같진 않습니다(느낌입니다). AI 암흑기가 두번(1973~, 1987~) 있었다고 하는데, 앞으로도 최소 한번의 암흑기는 있지 않을까 싶네요. 물론 느낌적 추측입니다만.
cleritie
IP 118.♡.7.119
10-25
2025-10-25 12:21:27
·
여기서 거꾸러지면 한동안 답도 못찾고 답보 상태 일거고, 딥을 찾아낸다면 뭔가 일어날거고, 아무도 예상 못한데에서 나온다면 그것또한 경천동지할 일이겠죠
Zahnarzt
IP 218.♡.239.118
10-25
2025-10-25 12:25:27
·
현재의 LLM은 인류가 생산해낸 정보와 지식 위에서 학습하고 이를 재조합하는 방식으로 작동하기 때문에, 인간이 투입한 범위를 넘어서는 진정한 의미의 새로운 정보를 스스로 만들어내기는 어렵습니다. 따라서 그 한계는 구조적으로 명확하다고 봅니다.
사람도 거짓말을 하는데 LLM도 거짓말을 못할리가요.. 다만 발전할수록 환각의 수준도 많이 줄어들꺼고 사람이 100시간 해야하는 일들을 1시간에 할수 있게 줄여서 더 생산적으로 해줄수 있게 해줄거라 봅니다. 검증도 나중에 다시 하면 되구요 장점만 있는 무언가는 없으니깐요..
아이폰 3gs나 옴니아 같은거 쓰던 시기랑 지금이랑 비교해보세요. 많이 다르죠. 뭐 종류가 다르긴 합니다만 결국 돈이 모이고 좋은 인력들이 밤낮없이 하다 보면 많이 좋아지죠
저런거 말고도 이미지 생성이나 영상생성, 로봇컨트롤 같은거에서 쓸모있는 것들은 많이 나올거라 봅니다
장구속
IP 185.♡.141.55
10-25
2025-10-25 18:29:37
·
사실 당연한거 아닌가요.. 사람도 특정분야에서 계속 일해서 기억이 굳은경우 아니면 범용 지식은 햇갈려서 검증이 필요하잖아용.. llm이 사람이라고 치면 실제 자료 찾아보고 검증히게 하는 알고리즘이 붙어야되는거죠.. 학습한 내용만 가지고 답변하게 하는게 아니고..
새로운 댓글이 없습니다.
이미지 최대 업로드 용량 15 MB / 업로드 가능 확장자 jpg,gif,png,jpeg,webp 지나치게 큰 이미지의 크기는 조정될 수 있습니다.
챗봇+에이전트 서비스가 ChatGPT
마구 섞어서 쓰여있네요
그리고 정말 파라미터 큰 모델을 제대로 학습하고 써본 곳이 몇군데나 있을런지요.
오히려 훈련 데이터 고갈이 좀 더 현실적인 이유라고 봅니다
LLM 원리로 보면 그냥 간단한 요약이나 할줄 알았지,
스케일을 키운다고 이정도까지 올라올 줄 예상 못했던 이유 같습니다.
그래서 스케일을 계속 키워보니.. 수학, 과학분야는 거의 마스터 단계에 이미 도달했다는 설(에릭슈미트)도 나오고,
하지만 누구도 아직 끝은 확인 못한 상태 아닌가 싶구요.
개인적으로는 본문 내용처럼 한계가 명확히 보인다면, 정말 다행이고 인류에겐 해피엔딩일거 같습니다.
AI 암흑기가 두번(1973~, 1987~) 있었다고 하는데,
앞으로도 최소 한번의 암흑기는 있지 않을까 싶네요.
물론 느낌적 추측입니다만.
다만 발전할수록 환각의 수준도 많이 줄어들꺼고 사람이 100시간 해야하는 일들을 1시간에 할수 있게 줄여서 더 생산적으로 해줄수 있게 해줄거라 봅니다. 검증도 나중에 다시 하면 되구요
장점만 있는 무언가는 없으니깐요..
아이폰 3gs나 옴니아 같은거 쓰던 시기랑 지금이랑 비교해보세요. 많이 다르죠. 뭐 종류가 다르긴 합니다만 결국 돈이 모이고 좋은 인력들이 밤낮없이 하다 보면 많이 좋아지죠
저런거 말고도 이미지 생성이나 영상생성, 로봇컨트롤 같은거에서 쓸모있는 것들은 많이 나올거라 봅니다