“CES 2026 혁신상, 한국 기업이 절반 이상 휩쓸었다”
이런 이야기가 여기저기서 보이더라구요.
근데 막상 찾아보니까…
어떤 기업이, 어떤 제품으로, 어떤 분야에서 받았는지 한눈에 볼 수 있는 사이트나 리스트가 없었습니다.
그래서 그냥…
제가 직접 만들기로 했습니다.
결론부터 말하면, 바이브코딩으로 (커서) 이틀만에 만들었습니다.

클릭하면, 세부내용은 딥리서치로 돌린 내용이 나옵니다

사이트 초안은 이틀 만에 끝냈고,
그 이후로 4일간 안정화/검증을 했습니다.
아래는 그 과정 기록입니다...
1. 이번엔 “자료 인용”이 아니라 “제대로 분석”이 하고 싶었습니다
CES 페이지에 접속하면,
https://www.ces.tech/ces-innovation-awards/
이렇게 한장 설명이 전부입니다.

우선, 한국업체인지 알고 싶었고,
그 회사 홈페이지와 좀더 설명을 넣고 싶었습니다.
그래서 전체를 스크랩한뒤, 딥리서치를 돌리자고 마음먹었습니다.
2. 설계는 GPT+Gemini로 끝내고, 구현은 Cursor로 했습니다 (바이브코딩)
이번 작업은 개발 방식이 거의 이랬습니다.
-
GPT / Gemini로 전체 컨셉에 대해 상당히 긴 대화를 나눕니다.
구조(화면/필드/흐름)를 충분히 설계합니다. -
설계가 확정되면, 그걸 MD 파일로 정리합니다.
-
그 MD를 Cursor에 던져서 구현합니다.
-
Cursor에서 오류가 안 잡히면
-
“오류보고서.md”를 만들어 달라고 합니다.
-
다시 GPT+Gemini랑 머리 맞대고 원인을 쪼갭니다
-
-
수정 방향이 나오면 다시 Cursor로 돌아가서 반영합니다.
말 그대로
문서로 설계 → 문서를 던져서 구현 → 문서로 디버깅
이 패턴이었습니다.
Supabase + vercel 기반으로 만들었습니다.
3. 일단 452개를 “전부” 모았습니다
웹크롤링을 해야되는데요, 사이트 알려주고 커서에게 크롤링해줘..
라고 하니까 알아서 수집을 해줬습니다.
수집된걸 하나씩 md 파일로 모았습니다.
타입스크립트를 짜서 자기가 알아서 불러오고 검증하고... 알아서 다 해주더라구요
4. 딥리서치: 452개를 한 번에 못 돌려서… 10개씩 쪼갰습니다
여기서 고민은 ChatGPT Ultra 요금제를 쓰는데, 한달 딥리서치가 250입니다.
(이게 횟수인줄 알았는데, 내부에 많이 조회를 하면 좀 더 먹는 구조더라구요)
그렇다 해도 452개를 하나씩 돌리는건 비효율이라 처음에는 카테고리로 나눠서 돌렸는데
어느건 한 카테고리에 50개씩 있는데, 제대로 조사를 못하더라구요
10개가 안정적이었습니다. 그래서 452개를 10개씩 쪼개서 46번을 돌렸습니다.
프롬프트를 최적화했고,

여기에
1. 기본정보 (기업명/회사홈페이지/한국업체여부/제품한줄정의)
2. 문제정의
3. 핵심차별점
4. 주요 도입 주체
5. 확장가능성
6. 평단의 평가
7. 분석가 한 줄 판단
세부내용까지 프롬프트를 md 파일로 만들어 딥리서치를 돌렸습니다.
(물론 gemini와 ChatGPT가 프롬프트를 다 만들어 줬습니다)
대화창에 계속 돌리면 이것만으로 채팅목록이 가득차고 비효율이라,
CES 2026 프로젝트 창을 만들고 거기서 돌렸습니다.
ChatGPT는 10개씩 묶어서 원하는 방향으로 딥리서치를 해주는데,
gemini는 종합보고서를 만들어서 ChatGPT로만 딥리서치를 돌렸습니다.

계속 돌리다가 할당이 막혔습니다..;
한달 250 할당을 다 써보기는 첨이었습니다.
다음날 되니까 조금씩 풀어주더라구요
겨우 딥리서치를 다 돌렸습니다.
5. 프로토 타입은 이틀 만에 나왔습니다.
1.14일에 시작해서 15일날 저녁에 프로토 타입 완성이 됐습니다.
이틀 만에 구현은 끝냈지만, 사실 진짜 일은 그 다음이었습니다. ㅎㅎ
제대로 안들어간거, 사소한 버그들.. 잡는데 주말내내 수정했습니다.
-
데이터 누락/중복 체크
-
카테고리 정리/동기화
-
상세 페이지 깨지는 케이스 잡기
-
검색/필터 UX 튜닝
-
이미지/링크/메타데이터 정리
-
(무엇보다) “내가 봐도 계속 쓰고 싶은가?” 테스트
저는 이 구분이 제일 중요한 것 같아요.
이틀은 ‘만든 시간’ 그 이후 5일은 ‘망가지지 않게 만드는 시간’
혁신상 357개 업체가 받았다고 하는데, 실제 사이트 데이터를 긁어와보니 452개였습니다..;
이게 작년에 혁신상 기업 수상을 하고, CES 2026 행사를 하면서 추가가 되는 구조인거 같더라구요
그래서 제가 생각했던거 보다 더 많이 정리가 되서 놀랐습니다.
결론
이번 작업하면서 다시 느낀 건...
이런 작업을 비개발자인 제가 바이브코딩으로 2+4일만에 만든다는데 놀랍네요...
단순히 사이트 제작을 넘어, 그래도 심도있는 분석을 할 수 있는 콘텐츠를 만들수 있다는게 놀라웠습니다.
딥리서치를 과도하게 많이 굴려서 썻는데, 그래도 꽤 많은 요구를 한번에 묶어서 잘 정리해주는것도 놀라웠습니다.
그리고, 이렇게 쌓인 데이터를 MD파일로 저장해서 노트북 LM에 넣었습니다.
여기서 나만의 보고서를 만들어 쓸수 있죠. (무료, 구글계정필요)

CES 2026 정리 : https://uslab.ai/ko/ces
노트북 LM : https://notebooklm.google.com/notebook/b7e0cea7-a0e2-4aa7-a4f1-58b43de862ca
노트북 LM 활용가이드 : https://uslab.ai/ko/blog/ces-2026-notebooklm-complete-guide
노트북 LM을 활용하면, 챗봇처럼 활용 가능하며, 오디오북, 비디오, 발표슬라이드를 만들 수 있습니다.
예전 같으면
“이건 팀이 있어야 가능한 작업”이라고 생각했을 텐데,
이제는 아이디어와 의도만 있으면 개인도 충분히 해볼 수 있는 영역이 된 것 같다는 생각이 듭니다.
AI가 모든 걸 대신해주지는 않지만,
생각을 실제 결과물로 옮기는 속도는 확실히 바꿔놓고 있는 것 같습니다.
긴글 읽어주셔서 감사합니다.
저는 WPF를 주로 사용하는데요. cursor나 vscode + codex를 하면 결국 실행은 visual studio를 써야 되더라구요.
실행 결과 확인인 이렇게 할 수밖에 없는게 맞는지 모르겠어서요. 개발 결과는 어떻게 확인하시나요?
웹개발은 node.js 기반인데 npm 웹 테스트 서버 만들어서 웹페이지에서 테스트 하는데요
커서나 안티그라비티가 자체 브라우저가 내장되있어서 자기가 브라우저 열어보고 로그인하고 테스트하고 다 해줍니다
이번에 크롤링도 @broswer를 열어서 자기가 웹페이지 구조를 확인한후, 스크립트 짜서 알아서 크롤링해오더라구요
제가 wpf 를 개발한다면, vs 에서 프로젝트를 구성한 후에, wsl 에서 claude cli 를 쓸 것 같습니다. 실행 디버깅은 vs 에서 구동하구요. 말씀하신 상황과 크게 다르지 않겠네요.
Windows 환경에 visual studio (code 아님) 이라도 전혀 바이브코딩에 문제가 없습니다.
우선 vs 에서 프로젝트를 생성한뒤에 vs 창 하단에 보면 출력창에 개발자 PowerShell 이라고 보이실 겁니다. 거기에서 claude 던 codex 던 gemini 던 cli 를 설치해서 바이브코딩을 요청하고 진행하면 됩니다.
만약 cursor 나 vscode 로 wpf 앱을 개발하신다 해도 전혀 문제가 없는게 어차피 dotnet run 으로 해서 실행도 되고 다 되니 문제가 없습니다. 즉 콘솔명령어로 컴파일부터 되니까요.
@철쇄아님
@유스튜님
WPF환경은 지금처럼 사용하는게 좋겠네요.
이리저리 맞춰보다가 설정을 정착한거라서 혹시나 하는 마음에 질문드렸습니다.
모두 감사합니다.
ai는 개개인이 가진 능력의 증폭기라더니 그말이 맞는거같습니다.
저는 과정을 자세히 알려줘도 못하겠네요.
AI가 자꾸 샛길로 빠지는데 답이 없던....
한번 따라해보고 싶습니다.
첫 이미지에서 맞춤법 표기가 틀린 부분이 눈에 띄네요. 텍스트를 이미지화 할땐 오류가 종종 나오는 것 같습니다.
축정 <<< 측정, 게단<<< 계단, 인프라헝<<< 인프라형,
뭐하시는 분인지..?^^
따라해보고 싶네요^^
유용하게 보겠습니다. 고맙습니다🙆
나노바나나로 인포그래픽도 쓸만하게 뽑아주고 구글생태계를 다 쓸수 있어서 제미나이를 추천해요
SCAR: AI 기반 정밀 흉터 치료 및 커버 시스템 장치
Kolmar Korea
이건 중복인 것 같아요.