
번역(챗지피티):
모든 기계에 AI 탑재: 아마 당신이 원하지 않았던 LLM
작성자: Jenny List
2026년 5월 6일
최근 일주일 정도 동안, 해커데이(Hackaday) 필자들이 주로 보는 뉴스 채널을 따라가다 보면 계속 화제가 된 이야기가 하나 있다. 바로 구글이 조용히 Google Chrome 브라우저의 일부로 LLM을 설치했다는 것이다. 정확히 언제 설치되었는지는 의견이 엇갈리는데, 브라우저 안에 이미 존재하던 온라인 Gemini 기능들과 혼동이 많기 때문이다. 하지만 Chrome 사용자들은 느려진 성능과 과도한 디스크 접근을 통해 그 영향을 체감하기 시작한 것으로 보인다. Chrome은 세계에서 가장 많이 사용되는 웹 브라우저이기 때문에, 이는 수십억 명의 사용자가 4GB짜리 Gemini Nano 모델을 다운로드했고, 자신도 모르는 사이 LLM을 갖게 되었다는 의미다. 이 모델은 고급 자동 수정(auto-correct)과 텍스트 추천 기능 등을 제공하는 데 사용되며, 온라인 Gemini 서비스에 과부하가 걸리는 것을 줄이기 위한 용도로 보인다. 또한 브라우저 내 API 세트를 통해 접근 가능하기 때문에 앞으로 많은 웹사이트, 온라인 애플리케이션, 플러그인에 활용될 것으로 예상된다.
이 일은 일부 커뮤니티에서 꽤 큰 논란을 일으켰고, 어느 정도는 타당한 이유가 있다고 본다. 수십억 대의 컴퓨터가 자신도 모르게 극도로 에너지 집약적인 소프트웨어 구성 요소를 설치하게 되면, 전 세계 전력 소비에 상당한 영향을 미칠 것이며 결과적으로 컴퓨팅의 탄소 배출량도 증가하게 된다. 이런 현상은 Chrome만의 문제가 아니다. 예를 들어 Siri 역시 한동안 Apple 기기에서 로컬 LLM을 사용해 왔다. 유럽의 기후 규제 기관을 개입시켜야 한다는 불만과 움직임도 보이지만, 어쩌면 이제는 로컬 AI 모델에 대한 진지한 논의를 시작해야 할 때인지도 모른다. 핵심은 그것이 좋은 기술인지 아닌지가 아니라, 언제 어떻게 동작하느냐에 있다.
우리 중 많은 사람들은 이미 AI가 만들어내는 저질 콘텐츠(AI slop)에 질려 있고, 과도하게 사용자를 강화하는 챗봇에 빠져 AI 망상(AI psychosis)에 빠지지도 않았다. 하지만 현실적으로 LLM이 유용한 일을 할 수 있다는 점 역시 사실이다. 좋든 싫든 이 기술은 사라지지 않을 것이며, 자신의 컴퓨터에서 자신이 통제하는 LLM을 사용하는 것이 반드시 나쁜 것만은 아니다. 예를 들어 llama.cpp 를 자신의 PC에 설치하면, 사용 데이터가 판매되지도 않고, 자신의 콘텐츠가 세계 최강의 표절 기계를 강화하는 데 이용되지도 않는 개인용 LLM을 갖게 되는 셈이다.
Opt-In과 Opt-Out
Chrome LLM의 우려스러운 점은 단지 사용자 동의 없이 설치되었다는 것만이 아니다. 사용자 동의 없이 실행되기도 하며, 사용자는 그것을 구글 Chrome이 원하는 방식 외에는 활용할 수도 없다. 앞서 언급한 llama.cpp와 달리, 사용자의 통제 아래 있지 않으며 결국 구글이 지배하는 연산 자원 먹는 괴물(compute-hungry monster)인 셈이다. 앞으로 여러 종류의 일상 소프트웨어들이 저마다 비슷한 방식의 수 GB짜리 CPU 잡아먹는 프로그램을 설치하게 될 미래를 상상하면 꽤 우려스럽다. 1990년대 데스크톱에서 버벅이는 애니메이션과 함께 모든 시스템 자원을 빨아먹던 Clippy 를 기억하는 사람이라면, 이 상황이 어디로 가고 있는지 알 것이다.
로컬 LLM이 피할 수 없는 미래라면, 필요한 것은 그것을 다른 일반 애플리케이션처럼 만드는 방법이다. 즉, 사용자가 직접 선택하고 설치할 수 있는 형태여야 한다. 그런 LLM이라면 사용자가 허용할 경우 웹 브라우저 같은 애플리케이션에 서비스를 제공할 수 있지만, 요청받지 않는 한 실행되지는 않을 것이다. 물론 llama.cpp 같은 것을 직접 설치하는 것은 많은 사용자들에게 너무 어렵다. 하지만 그것을 일반 애플리케이션처럼 패키징해서 설치할 수 있게 만드는 정도는 충분히 가능해 보인다.
우리는 위의 이야기가 다소 비현실적인 희망 사항이라는 것을 안다. 그리고 가족 중 컴퓨터를 가장 잘 아는 사람인 당신은 앞으로 몇 번의 크리스마스를 연로한 가족 구성원의 PC에서 동시에 돌아가는 여섯 개의 서로 다른 LLM과 씨름하며 보내게 될지도 모른다. 하지만 어쩌면 해답은 Clippy에 있을지도 모른다. 만약 소비자들이 내장 AI 기능을 “컴퓨터를 느려지게 만드는 존재”로 인식하게 된다면, 마치 30년 전 오피스 도우미를 그렇게 여겼던 것처럼 결국 변화를 요구하게 될지도 모른다. 희망은 해볼 수 있다.
======================================================================
개인적으로 AI에 대해 51:49정도로 부정적(?)으로 보는 입장이라 흥미롭드라구요 ㅎㅎ
제가 볼때 AI가 잘하는건 번역뿐인데 (본문 번역 상당히 훌륭하지않습니까) 그거 하나 돌리자고(?) 소비해야 하는 하드웨어와 전력 기타 리소스 생각하면 이게 맞는건가 싶거든요 (반박시 저는 무조건 항복)
마침 제가 실제로 얼마전에 llama를 집에 노는 고물컴에 설치해서 장난감 home auto기기를 만들 생각을 하던중, AI몇놈 데리고 진지한 논의끝에 클라우드대비 로칼LLM이 실용적이기 쉽지않다는 결론에 도달했던 경험도 있고해서 더 재밌드라구요.
구글이 현시점의 무료 AI서비스로는 채산성이 도저히 안 나오니 이런저런 편법(비즈니스 아이디어죠)을 다양하게 구사하는 중인것 같습니다
데이터센터를 아무리 지어도 부족하니
저연산 정도의 일감은 로컬로 분산하는게 합리적이긴 합니다. 로컬모델 맥미니로 돌리면 전력도 그렇게 많이 안들어요
근데 본문의 포인트는 구글이 사용자몰래 LLM을 뿌리는 실험을 하고있고 결과는 유저입장에서는 안좋다 뭐 그런 얘기죠. 서양사람들은 이런거에 민감하잖아요
저는 현시점의 AI가 LLM기반으로 그 한계가 명확함에도 불구하고 전지구적 규모의 hype인 이유는 단 하나, "마치 사람인것처럼 능숙하게 대화하는 능력"으로 첨부터 확 떴기 때문이라고 보는 편이라서요 ㅎㅎ
뭐 제가 무식한 노가다지만 취미로 아두이노를 만지는 덕분에 프로그래밍을 쬐끔은 할 줄 아는데... AI덕분에 스스로 프로그램 짜는 능력은 이제 완전히 상실했고, 일견 개발시간을 단축시킨 듯 하지만 오류잡고 수정하고 AI헛소리에 열받고 하다보면 실상 전체적으로 옛날이랑 큰 차이가 없다보니 이게 진보인지 퇴보인지 아리까리할 지경이랍니다 ㅎㅎ
다른 대체자를 찾을 시간입니다.
https://futurism.com/artificial-intelligence/ai-perception-underclass
AI를 일상생활의 편의 정도로만 사용하는 대다수의 일반인들은 빅테크들이 약속하는 장미빛 미래에 막연한 불안함을 갖는 반면, 잘나가는 미국의 빅테크 형씨들은 소수의 승자가 부를 독식하고 영구적인 다수의 하층민들을 만들기 위해 박터지게 경쟁을 한다는 다소 시니컬한 기사.