CLIEN

본문 바로가기 메뉴 바로가기 보기설정 테마설정
톺아보기 공감글
커뮤니티 커뮤니티전체 C 모두의광장 F 모두의공원 I 사진게시판 Q 아무거나질문 D 정보와자료 N 새로운소식 T 유용한사이트 P 자료실 E 강좌/사용기 L 팁과강좌 U 사용기 · 체험단사용기 W 사고팔고 J 알뜰구매 S 회원중고장터 B 직접홍보 · 보험상담실 H 클리앙홈
소모임 소모임전체 ·굴러간당 ·아이포니앙 ·주식한당 ·방탄소년당 ·MaClien ·일본산당 ·자전거당 ·개발한당 ·이륜차당 ·AI당 ·바다건너당 ·물고기당 ·콘솔한당 ·소시당 ·소셜게임한당 ·안드로메당 ·노젓는당 ·갖고다닌당 ·클다방 ·찰칵찍당 ·ADHD당 ·VR당 ·창업한당 ·나혼자산당 ·걸그룹당 ·골프당 ·방송한당 ·여행을떠난당 ·냐옹이당 ·레고당 ·라즈베리파이당 ·달린당 ·나스당 ·3D메이킹 ·X세대당 ·AI그림당 ·날아간당 ·사과시계당 ·육아당 ·배드민턴당 ·야구당 ·농구당 ·블랙베리당 ·곰돌이당 ·비어있당 ·FM당구당 ·블록체인당 ·보드게임당 ·활자중독당 ·볼링친당 ·캠핑간당 ·문명하셨당 ·클래시앙 ·요리한당 ·쿠키런당 ·대구당 ·DANGER당 ·뚝딱뚝당 ·디아블로당 ·개판이당 ·동숲한당 ·날아올랑 ·전기자전거당 ·e북본당 ·이브한당 ·패셔니앙 ·도시어부당 ·FM한당 ·맛있겠당 ·포뮬러당 ·젬워한당 ·안경쓴당 ·차턴당 ·총쏜당 ·땀흘린당 ·하스스톤한당 ·히어로즈한당 ·인스타한당 ·IoT당 ·KARA당 ·키보드당 ·꼬들한당 ·덕질한당 ·어학당 ·가죽당 ·리눅서당 ·LOLien ·Mabinogien ·임시소모임 ·미드당 ·밀리터리당 ·땅판당 ·헌팅한당 ·오른당 ·영화본당 ·MTG한당 ·소리당 ·노키앙 ·적는당 ·PC튜닝한당 ·그림그린당 ·소풍간당 ·심는당 ·패스오브엑자일당 ·품앱이당 ·리듬탄당 ·Sea마당 ·SimSim하당 ·심야식당 ·윈태블릿당 ·미끄러진당 ·축구당 ·스타한당 ·스팀한당 ·파도탄당 ·퐁당퐁당 ·테니스친당 ·테스트당 ·빨콩이당 ·공대시계당 ·터치패드당 ·트윗당 ·가상화폐당 ·시계찬당 ·WebOs당 ·위스키당 ·와인마신당 ·WOW당 ·윈폰이당
임시소모임
고객지원
  • 게시물 삭제 요청
  • 불법촬영물등 신고
  • 쪽지 신고
  • 닉네임 신고
  • 제보 및 기타 제안
© CLIEN.NET
공지[점검] 잠시후 서비스 점검을 위해 약 30분간 접속이 차단됩니다. (금일 18:15 ~ 18:45)

모두의공원

GPT 5.3 Instant는 콕 찝어서 한국어, 일본어 품질이 안좋다고 합니다. 10

2026-03-04 08:57:07 수정일 : 2026-03-04 09:01:32 118.♡.65.97
memories_

지나칠 정도로 직역적인 문장 형태가 출력될 거라고 하네요.

memories_ 님의 게시글 댓글
  • 주소복사
  • Facebook
  • X(Twitter)
댓글 • [10]
Cosmonaut
IP 121.♡.21.118
03-04 2026-03-04 09:02:39 / 수정일: 2026-03-04 09:03:49
·
2022년 말에 챗지피티 써보니까... 영어로 프롬프트 할 때와 한국어로 할 때의 속도 자체가 다른 것을 아직도 기억하고 있습니다.
그래서 제가 요즘 영어 공부를 하고 있습니다. 영어권 화자는 어떤 식으로 생각하나? 인도유럽어계의 저맥락 언어와 성수격 변화는 대체 어떤 추상적, 철학적 사고를 가능케 하는가? 이런 데에 관심이 있습니다. 아직은 어쩔 수 없습니다. ASI가 나오기 전까지는 군비확충을 할 수밖에요.

근데 중국은 DeepSeek도 그렇고 좀 이 바닥에서 흥미로운 구석이 있군요.
memories_
IP 118.♡.65.97
03-04 2026-03-04 09:05:39
·
@Cosmonaut님 AI가 이제 번역도 대부분 잘 한다고 하는데 아직은 최상의 답을 얻기 위해서는 영어로 묻고 영어로 답을 받는게 좋다고 하더군요.
OLIVER
IP 140.♡.29.3
03-04 2026-03-04 09:03:33
·
제가 잘 몰라서 그러는데... 이미 잘 하는 수준에 도달한걸 그대로 쓰지 않고 일부러 못하게 너프 시켜야 하는 특별한 기술적 이유가 있나요?
Cosmonaut
IP 121.♡.21.118
03-04 2026-03-04 09:04:25
·
@OLIVER님 투자적 이유가 클 거로 생각됩니다. 그 사람들 머릿속은 저도 모르구요.
memories_
IP 118.♡.65.97
03-04 2026-03-04 09:05:04
·
@OLIVER님 OpenAI는 GPT-4o 때문에 아첨이나 이런 부분 때문에 곤욕을 치러서 이런 부분에서 조심하는게 아닐까 하네요.
SHERLOCK
IP 211.♡.180.101
03-04 2026-03-04 09:20:03
·
OLIVER님// 속도하고 리소스이지 않나 합니다.
Mr.UN
IP 14.♡.43.15
03-04 2026-03-04 11:53:54 / 수정일: 2026-03-04 11:54:26
·
@OLIVER님 학습용 데이터셋을 추가, 재구성하는 과정에서 필요한 신규 한국어와 일본어 데이터셋을 구하지 못 해서 비율이 낮아졌고 그게 밸런스를 깨뜨렸을 겁니다.
기존의 5.3 pro 조차도 이,저,그를 혼동하고 존대 기준을 못 잡는 등 다국어 완성도는 제미나이와 클로드 대비 떨어지기도 했고요.
OLIVER
IP 172.♡.252.25
03-04 2026-03-04 12:40:11
·
@푸하핫님 (제가 문외한이라..) 기존 학습 데이터를 그대로 쓰거나 그냥 안건드리면 퀄리티도 계속 그 수준에서 유지되는게 아닌가 하는 생각이었는데, 오히려 잘 되던 시점보다 성능이 더 떨어진다는게 이해가 잘 안됐거든요. 비율을 말씀하신걸 보면 그런식으로 돌아가는게 아닌가보네요...
Mr.UN
IP 14.♡.43.15
03-04 2026-03-04 15:04:27 / 수정일: 2026-03-04 15:14:05
·
@OLIVER님 네 초거대LLM의 경우 한 번의 학습에 만단위 GPU로 수개월간 학습을 진행하게되고 특히나 최상위 모델들은 Dense 타입이라 시작시에 확정된 데이터셋은 수정,변경이 안 됩니다.
이러한 학습 라인을 여러 개 배치한 후 수주~월단위로 병렬로 학습하여 버전업을 해 나가는 것이라서 데이터셋 구성이 크게 달라지는 것 만으로도 다른 성향이나 결과를 보일 수 있습니다.
Instant 는 다른 특성을 갖도록 구조를 구성했을 가능성이 있으며 그에 맞춰 데이터셋 구성 상당부분이 달라지면서 기대 범위를 벗어났을 것이라 생각됩니다.
OLIVER
IP 172.♡.252.27
03-04 2026-03-04 16:15:39
·
@푸하핫님 버전마다 학습용 데이터셋을 어떻게 구성하는지에 따라 성능이나 품질에 영향이 있을 수 있다는 말씀이군요. 이제서야 이해가 됩니다. 자세히 알려주셔서 감사합니다.
새로운 댓글이 없습니다.
이미지 최대 업로드 용량 15 MB / 업로드 가능 확장자 jpg,gif,png,jpeg,webp
지나치게 큰 이미지의 크기는 조정될 수 있습니다.
목록으로
글쓰기
글쓰기
목록으로 댓글보기 이전글 다음글
아이디  ·  비밀번호 찾기 회원가입
이용규칙 운영알림판 운영소통 재검토요청 도움말 버그신고
개인정보처리방침 이용약관 책임의 한계와 법적고지 청소년 보호정책
©   •  CLIEN.NET
보안 강화를 위한 이메일 인증
안전한 서비스 이용을 위해 이메일 인증을 완료해 주세요. 현재 회원님은 이메일 인증이 완료되지 않은 상태입니다.
최근 급증하는 해킹 및 도용 시도로부터 계정을 보호하기 위해 인증 절차가 강화되었습니다.

  • 이메일 미인증 시 글쓰기, 댓글 작성 등 게시판 활동이 제한됩니다.
  • 이후 새로운 기기에서 로그인할 때마다 반드시 이메일 인증을 거쳐야 합니다.
  • 2단계 인증 사용 회원도 최초 1회는 반드시 인증하여야 합니다.
  • 개인정보에서도 이메일 인증을 할 수 있습니다.
지금 이메일 인증하기
등록된 이메일 주소를 확인하고 인증번호를 입력하여
인증을 완료해 주세요.