.
.
요즘 갤럭시 달고리즘이 이슈입니다.
.
.
이게 순수 보정으로 이루어진 결과물인지
AI딥러닝 인지, 무언가 텍스쳐가 더해졌는지 알 수 있는
매우 간단한 실험을 해봤습니다.
.
.
갤럭시 장면별 최적화 모드는 달이랑 비슷한 모양 및 밝기를 하면
달로 인식하고 달 모드로 촬영이 됩니다.
.
그래서 스마트폰 화면에 달 사진을 띄워 놓을건데
일반적인 달 사진이 아니라 일부러 포토샵으로
흐리게 보정한 사진을 띄워둡니다.
.
.
.
.
이 달은 아무리 달 모드로 보정해서 촬영한다 한들
원본자체가 흐린 달 이기때문에 흐린채로 잘 나와야 합니다
.
.
.
.
어라..? 예상대로 합성이 아닌
흐린상태에서 더 보정돼서 나왔습니다.
논란 종료!?
.
.
이번엔 원본이 흐린 반달을 폰 화면에 띄워놓고
촬영하겠습니다.
.
.
.
.
이 또한 원본이 흐린 반달이기 때문에
합성 없이는 절대 크레이터가 나올 수 없겠죠?
.
.
근데 잘 나옵니다;;;
.
.
이번엔 노트20울트라로 찍어보겠습니다.
.
노트20U는 원유아이 3.0 업데이트 이후에
달 사진 화질이 너무 뜬금없이 좋아져서
의아하게 생각하고 있었는데... (12월 업데이트)
.
.
처음엔 달 모드를 끄고 흐린 반달을 촬영했습니다
.
.
정상입니다.
.
.
이번엔 달모드를 켜고 흐린달을 찍었습니다
.
.
또 흐린달 원본에서 나올 수 없는 크레이터가 생기네요
.
.
근데 또 하나 재밌는건
S21U에서는 달 모드를 끄고 원본이 흐린 반달을 찍어도
.
.
이건 좀 아니죠?
.
.
.
.
.
.
사진 수백장을 섞어서 화질을 향상시키고
저도 종종 활용하는 방식입니다.
.
.
하지만 실존하는 부분을 겹치고 겹쳐서 선명하게 만들고
노이즈를 줄여주는 것이지
.
애초에 이미 흐린사진 수백만장을 섞어도
보이지 않는 대상이 튀어나올 순 없습니다.
.
.
그리고 원래 달 사진을 있는그대로 100% 덮어쓰는 것은 아닐지 몰라도
실제 달 텍스쳐를 따오는건 확실합니다.
.
.
제가 알고리즘, 파일처리, 뭐 이런건 하나도 모릅니다만
(왼쪽 P900S진짜달 / 오른쪽 S21U 흐린달 )
요 사진을 보면 크레이터 모양이 다른 부분도 많지만
달의 바다와 알폰수스 삼형제 크레이터는
있는 그대로 따와서 썼다는 걸 알 수 있습니다
.
심지어 오른쪽 달은 원본이 블러처리된
흐린달을 촬영한것인데 말이죠..
.
.
암튼.. 그렇습니다.
.
.
대충 요약 및 저의 의견은
.
1. 달모드는 무조건 달합성이 적용되는 것이 아니라 상황에 따라 처리방식이 다르다
2. 하지만 특정상황에선 실제 달 크레이터 텍스쳐를 따오는 것으로 추정된다(알폰수스 삼형제, 달의 바다)
3. S21Ultra에선 달 모드를 꺼도 달고리즘이 적용된다
4. Note20Ultra ONE UI 3.0 업데이트 이전엔 달 텍스쳐를 사용하지 않았다.
(만약 사용했다 하더라도 이렇게 티나지는 않았다)
.
5. 달 촬영시 광학적 한계를 극복할 수 있는 좋은 기능이지만
갤럭시 망원의 순수 광학성능이라 오해될 여지가 있으므로 '이런 기능'이라고 설명이 들어갔으면 좋겠다
.
6. 화웨이가 예전에 해서 욕먹었던 행동이기도 하고, 굳이 이렇게 하지 않아도
충분히 좋은 망원 성능을 가지고 있는 갤럭시인데
뒤늦게 소프트웨어 업그레이드로 이렇게 했어야 했을까..? 싶네요
.
.
지구에서는 달의 한 면만 볼 수 있기 때문에
이런 기능이 들어갔으리라 싶네요.
짚어주신 것처럼 광학기능이 아닌
AI합성기술로 달 표면 처리를 하는 건데
충분히 소비자들은 오해하기 쉽겠군요.
달 뒷면 촬영 모드가 생길 것 같네요.
ㅋㅋㅋㅋ
목성과 토성모드 있었으면 좋겠네요 ㅋㅋㅋㅋ
사용자에게 합성한다고 미리 고지만 했어도 이런 논란은 없었을텐데...
대체 무슨 생각으로 저렇게 만든건지 모르겠습니다.
날씨만 반영해서 합성해도 무리는 아닐 것 같네요 ㅎㅎ
찍는 위치만 맞으면 거의 같게 나올테고
이정도면 크게 나쁘진않네요
다른 사진 덮어씌우는건데 이런식이라면 달 사진을 찍을 필요가 없는것 아닌가요?
남의 잘 찍은 사진 다운로드 하는거나 마찬가지인데...
그러나 최소한 저런 장면별 촬영모드나 달 촬영시 실제 촬영된 화면과 다른 합성기술을 사용합니다. 같은 코멘트를 띄우거나 설정메뉴에라도 적어놨어야한다고 보는데... 아마 없죠?
그런 문구가 하나도 없다면 구라치는거니 욕을 쳐먹어야...ㅋㅋㅋ
그냥 같은 위치에서 보이는 달에 그저 달의 텍스처를 입혀서 포토샵마냥 "합성" 해주는 것일 뿐.
흐릿한 달 사진에 달의 텍스쳐를 덧입혀 마치 생생하게 망원경으로 촬영한 것 같은 효과를 부여합니다.
정도가 맞는 설명인 것 같은데요.
부가 설명이라도 써놓아야 될꺼 같네요.
그런 생각조차 안한 것 같네요.
어제 제가 물의를 일으킨게 맞습니다.
죄송합니다.
https://www.clien.net/service/board/park/15830366CLIEN
아무리 누구나 보는 같은 달이라고 해도 내가 찍은 달사진이 아닌게 되는거 같아요 저건...
AI 꺼도 작동한다니…
라는 기사를 보니 삼성이 나에게
"이 개돼지들아 알아먹었지?"
라고 말하는 것 같습니다.
SNOW 사진 어플 수준 아닌가요? ㅋㅋㅋ
점수 뻥튀기하는거랑 다를게 없네요
아니 그것보다 더 치팅이네요
초고가 장비로 찍은 초고해상도 달 사진을 붙여 넣어줘라...
확대하면 암스트롱이 버리고 온 월면차도 보이게...
이게 사실 구라였던거죠...
이미 몇년 된 많이 알려진 기술이고, 오픈된 코드도 많고,
사람 얼굴도 이런식으로 업샘플이 되는 마당에 항상 고정된 면만 보이는 달 이미지 정도야..
학습도 매우 쉬울거에요
굳이 복붙으로 구현하지는 않았을것 같습니다만 (자연스럽게 하려면 이게더 구현이 까다로울것 같아요)
그러나 저러나 결과물이 '생성' 된것은 맞는거라,
논란은 유저가 생각한 '보정'과 AI가 '그려낸' 달의 간극이지 않을까 싶네요.
특정 도메인에 한정하는 경우 (예를 들어 사람 얼굴) 많은 정보가 날아가더라도 원본에 비슷하게 업샘플하는 네트워크를 훈련하는게 꽤 훌륭하게 가능합니다. 첨부해드린 영상처럼 전통적인 큐빅 인터폴레이션에 비교하면 결과는 놀라울 정도 입니다.
정확한 설명은 아니지만, 이게 가능한 이유는 사람의 얼굴의 경우 눈이 3개인 경우는 없기때문에 이런 확율이 낮은 아웃풋을 생성하지 않게 네트웍이 훈련되었기 때문입니다.
좀더 정확히는 네트웍은 에러와의 편차가 최소가 되도록 훈련되는데 ‘얼굴’이라는 도메인에서는 눈이 3개인 경우는 없기 때문에 이런것들이 배제되게되고 전체 공간에서 확율이 높은 공간으로 매핑되게 (= 그럴듯한 이미지가 생성되게) 학습됩니다.
그럴듯한 이미지를 만드는 과정은, 이제는 좀 구식이된 오토인코더라던지, GAN의 파생 네트웍이라던지, 영상에 등장하는 PULSE라던지 제가모르는 다양한 네트웍이 존재합니다.
논란의 ‘달’의 경우엔 사람의 얼굴보다 훨씬 쉬운 도메인이라 학습이 상대적으로 쉬울거고 훈련된 NN을 통하면 아주 쉽게 인풋에 대응하는 달과 비슷한 ‘크리에이터가 포함된 이미지가 생성’ 되기 때문에 굳이 자연스럽기 힘든 복사 붙여 넣기로 구현하지는 않았을것 같습니다. AI 연구하는 인력도 많을테구요
‘자연’스럽다는게 생각보다 몹시 달성하기 어려운 일이라 NN 이외에 별로 대안이 없습니다. 물론 저는 거기 개발진이 아니니 다른식으로 구현되었을수도 있고 상황에 따라 다른 알고리즘으로 생성수도 있고 원본과 생성한것을 블랜딩한다던가 혹은 생성한 이미지를 다른 방식으로 다시한번 포스트 프로세싱 한다던가 여러 방법을 썼을수도 있겠습니다만, 적어도 쉬운길인 NN이 이미지를 생성하는 과정의 메인 옵션 중 하나로 사용되지 않았을까 싶습니다
그리고 위에서 이야기했다시피 전 그냥 취미로 ai를 공부하는 입장이라 설명이 잘못되었을 가능성이 농후하니 혹시 이상한 말들을 적어뒀다면 전공자가 등판해서 교정해주시길 부탁드릴께요
AI로 달을 채워넣는게 복붙보다 쉬운길이라 아마 썼을 것이다. 그렇다면 결과적으로 ai가 유저가 원하는 그림을 그려준거니 이걸 카메라의 보정으로 봐야할지, 앞으로의 카메라의 발전이고 미래라고 봐야할지 고민해볼 필요가 있다
정도겠네요
상용제품에서....흠;;
카메라의 기능이 사진을 있는 그대로 잘 찍히게 하는것이 주 목적인지,
사용자의 최종 결과물을 뚝딱 만들어내는 것 까지가 주 목적인지,
보이는 대로가 맞는지, 원하는 대로가 맞는지? 이런 물음이요...
이게 달 이외의 관광지의 주요 피사체에더 확대 적용된다면...
에펠탑 앞에서 찍은 사진은 에펠탑 합성, 남대문 배경 사진은 남대문 합성이 나올 수 있고...
원하는 대로 나오는게 맞는다면
스노우, 인스타그램에서 셀카 자동보정으로 뽀샤뽀샤 하게 나오는 사진도 카메라가 좋아서 잘 나온거라 할 수 있을지도요
에도 특정 모드로 안해도 카메라의 AI가 인식해서 자동 적용 되나요?
전 나중에는(먼 미래) 실제로 찍은 사진보다 ai가 만들어낸 이미지를 기준으로 맞는지 틀리는지를 판단하는 날도 올꺼라 봅니다. (에초 실제로 찍은 사진 이라는게 없어져있겠지만요)
실제로 행해진 카메라 개선 : 뽀샵.......
차라리 삼성 AI 뽀샵어플을 따로 내놔서 후처리를 했다면 칭송받앗을텐데
그걸 촬영어플기능으로 넣는것은 기만이죠
이게 쌀알 크기만한 촬상소자로 실제 보정이 가능했다면 dslr은 지나가는 우주 먼지도 촬영이 가능했겠죠. ㅎㅎ
기체로만 이루어진 거대행성인 목성을 찍어도 크레이터를 지맘대로 그려버리는데요...
https://ko.m.wikipedia.org/wiki/칭동
그렇네요. 달의 형체 변화에 맞춰서 AI가 메꿔 그려넣는거라면 머신러닝 기반 복원기술일 것이고, 시기나 촬영위치 무관하게 항상 똑같이 채워넣는다면 하드코딩된 텍스쳐 덮어쓰기나 다를 바 없겠네요.
그냥 틱톡 합성 수준인데..
유튜브 홍보인가요?
@괴짜님 고생 많으셨습니다.
들키기 전까지 잘 속고 있는걸 봤을때 얼마나 편-안 했을지 ㅋㅋㅋ
집안에서 폰으로 ‘오늘자 달사진생성 하기’ 기능을 이용해 보라고 광고 하는게 낫지 않나..