블룸버그 보고서
초창기 패더러기는 ai 투자를 꺼림 이유는 초기 투입비용
내부적으로 확신이 없어 gpu 확보에 실패
2022년 gpt 출시전까지는 내부적으로 논의 조차 없었던 단계
(현 오픈 AI의 시초가 되는 LLM 의 근간이 되는 트랜스포머모델은 구글의 딥마인드에서 2017년 첫 선을 보였습니다)
애플 ai 책임자는 소비자들이 ai 챗붓을 원하지 않을것이라고 생각
오히려 소비자들이 그러한 기능을 비활성할것으로 요구할것이라고 내부 직원들에게 언급
이전 시리와 LLM 시리와의 호환성 문제
기존 시리에 추가하는 방식으로 개발하려고 했지만 지속적으로 문제 발생
ai 책임자였던 지난안드레이아 문제
내부적으로 다른 임원들과 어울리지 않았으며 ai 개발 자금 확보에 적극적이지도 않았다고 언급
또한 타사의 ai에 대해서 큰 신경을 쓰지 않는 상태로 개발
현재 애플은 취리히에 있는 팀이 개발중이며
완전히 새롭게 바닥부터 LLM 기반의 시리로 개발중
내부적으로 데이터 확보를 위해 개방된 버전의 시리 LLM의 웹서비스를 고려중
복잡한것은 서버로 안전하게 보내서 처리한다고 했을때
아마도 복잡한 부분이 open ai로 보내서 처리하는 방식이었을텐데
그 부분이 애플에서 원하는 수준으로 나오지 못했지 않았을까 싶습니다.
구글은 제미나이를 갖고 있기 때문에 안드로이드는 클라우드 api로 llm을 쓰고
애플은 로컬 llm이 구동될 정도의 하드웨어를 보유한 유일한 회사 이므로 로컬 llm으로 파는게 맞는것 같은데
어떻게 흘러갈지 모르겠네요.
지금의 ai 수준에서 스마트폰에서 llm을 구동 시켜봐야 실효성이 그닥 높아 보이지는 않고
메모리 처리 부분이 개선된 알고리즘이 상용화 되어
왠만한 개인정보들을 기기 자체에서 학습할수 있는 시대가 와야 의미가 있지 않을까 싶네요.
기기 컨트롤 기능에만 특화된 소형화된 LLM을 탑재하는게 현 개발추세입니다.
간단한 것은 로컬에서 처리하고, 복잡한 것은 서버에서 처리하고...
이걸(간단한거, 복잡한거) 판단하는 것 부터가 쉽지가 않습니다. ㅋ
다시 말해 기기내에서 처리할 문제, 외부의 모델이 필요한 질문의 구분이 생각보다 쉽지 않거던요..(사용자의 AI놀려먹기(?) 질문이 상상 초월인 점도 있습니다..)(한정된 사용자를 대상으로 하는 사내 AI서비스에서도 들어오는 질문이 기상천외하더라고요..)
온디바이스AI가 중요해지고 있는 시점에 수정된 방향 자체는 나쁘지 않은데.. AI를 학습시킬 도구(프레임워크, 하드웨어)가 마련 안되어 있다는게 약점 같네요(돈 많은 회사니.. 장기적으론 해결될거 같긴 합니다만..)
갤럭시나 애플에서 이미지 에서 뭐 지워주고 하는 그런 기능들이나 음성 인식. 번역 이런. 알고리즘화 된 ai 기능들은 로컬 처리.그외에 llm 처리들은 open ai가 애플에 제공하는 클라우드에서 처리하는것을 구상한게 아닌가 싶습니다.
그리고 아마도 애플 자체의 생각이 아니라 open ai의 생각이었을 가능성이 높다고 보고요.
그런데 알고리즘화된 간단한 기능들은 성능도 성능이지만 그 기능이 명확하므로 구현하기가 어렵지 않지만..
이게 현재의 llm하고 붙어서 사용자들이 실효성을 느낄만한 시리로 나와주느냐가 중요한 부분이라고 생각되는데요.
아이폰의 "chatgpt 앱" 보다 사람 말을 못알아 듣는다면 어떤 경쟁력이 있을까요.
로컬 llm이 딥시크 이후 괄목할만한 성장을 이루었고 무엇보다 스마트폰에서 구동될 만한 사이즈에 똑똑해지고는 있는데.
결국. Open ai에서 최적화 시킨 chatgpt앱만큼은 말을 못 알아 듣는다는게 문제가 됩니다.
아웃풋의 경쟁력보다 인풋의 경쟁력이 문제가 더 클수 있다느것이죠.
저는 이걸 극복할수 있는게
스마트폰에 저장된 개인 정보를 학습한 상태에서 답변을 해주는 llm 이 유일한 방안이라고 보는데.
Rag나 mcp 같은것을 아무리 최적화 한들..
결국은 llm의 메모리 알고리즘 문제로 돌아 올수 밖에 없다고 봅니다.
이 알고리즘이 상용화 되면.
사용자가 원하는 정보를 프롬프트에만 의존하는 범용 llm들은 사용자의 수많은 정보를 학습한 로컬 llm을 이길수가 없죠.
일단 학습은 구동보다 몇배의 연산이 더 필요한게 있고요..(그래서 적어도 아직은 온디바이스 학습은 고려치 않는 것으로..)
온디바이스AI가 내 정보를 마음껏 볼수 있어도 되는가? 하는 물음은 다른 영역의 문제니.. 차치하고....
본다고 한들.. 말씀드린.. 이게 내가(온디바이스AI)가 답변할 문제인가 아닌가 판단 능력은 또 다르거던요..
(님이 말씀하신대로.. chatgpt만큼의 이해도를 가지길 원하는 것도 있고...)
그래서.. 방향 자체는 (AI발전 방향의 한 갈래로) 나쁘지 않은 것 같은데 아직은 해결에 어려움이 많다라는 얘기를 드린거에요.
님의 이견에 반대의견을 제시하는게 아니고요..
제가 말씀 드린 개인 정보의 학습은 llm을 만들때의 학습의 개념이 아니라 컨텍스트의 개념이 사라지는 "기억"을 말씀 드리는겁니다.
완성된 llm에서 실시간으로 들어오는 데이터를 기억하는 형태인거죠.
저런 상태로 용케 정했네요...
스마트폰으로 일정조정이나 실제 사용하는 앱들의 자동 실행 및 컨트롤, 개인동작 패턴화 메모리저장으로 인한 소스최적화 등에 집중해줬으면 합니다.