https://www.aitimes.com/news/articleView.html?idxno=205575
귀 속에 넣어 고정하는 방식이 아니라고 합니다.
이유는 AP칩이 들어가 로컬AI기능이 돌아가야 해서 라네요.
아무래도 이 정도 스펙에 그저 로컬만 돌아갈 리는 없고,
스마트폰이 인터넷 연결이 될 때는 클라우드도 병용 가능할 것 같습니다.
기사에 따르면 목표 대수가 초기 모델임에도 상당히 높게 잡는 것을 보아
스펙 대비 가격은 높게 설정하지 않을 것 같다는 느낌을 받습니다.
애플이야 워낙 생태계 중심의 프리미엄이 있다 보니
원가 대비 많이 이윤을 많이 남기지만,
오픈AI입장에선 사용자 풀을 확보해야 하는 것이 우선일 터.
그렇다고 아주 저렴하게 내 놓을 만큼의 스펙은 아닐 것으로 보이는 바.
제 추측입니다만...애플과 비슷한.. 소폭 더 높은 가격대이지 않을까 짐작해봅니다.
대신 더 고성능에 AI기능까지 되는 식으로...
사용자의 명령을 기다리는 것이 아닌 능동적 제안을 한다는 설명이 있는데,
구체적으로 그게 무엇인지가 구매 포인트가 되지 않을까 싶습니다.
어떤 흥미로운 역할을 할 수 있는지...
물론 기본적으로 번역 서비스라던지... 기존 이어폰을 통해 제공 되던 것들은
기본으로 깔고 가겠고 말이죠.
전용기기(작은 크기, 세상을 인식할 수 있는 카메라,인터넷연결) + 블투 이어폰
이 조합이 가장 이상적이라고 생각하는데 , 이 조합으로 나온다면 바로 지르겠네요.
여기에 안경까지 추가되면 최고
자체 칩 내장으로 여려 기능이 가능하다는 의미는,
스마트폰 외의 전용기기를 둘 것 같진 않습니다.
또한 스마트 안경과의 연결성은 충분히 가질 만 하겠지만
근래 스마트 안경의 추세를 보면, 기능이 겹칩니다.
스마트 안경 내에 스피커가 내장 되어 있다는 것인데요.
다만, 상당한 고성능 모델로 나올 것으로 보이는 만큼
스마트 안경에 내장 된 것 보다 나은 성능으로
상호 연결이 될 가능성이 없지 않아 있어 보입니다.