※디코드(decode): 부호화된 데이터를 알기 쉽게 풀어내는 것. 흩어져 있는 뉴스를 모아 세상 흐름의 안쪽을 연결해 봅니다. ‘디코드+’는 조선일보 뉴스레터 ‘최원석의 디코드’의 ‘네이버 프리미엄’용 별도 기사입니다. 매주 수요일 나옵니다.
‘애플은 어떻게 아이폰 13 카메라를 틱톡 중독자와 오스카 수상자 모두를 위한 제품으로 만들었나(How Apple made the iPhone 13 camera for TikTok obsessives and Oscar winners)’.
지난 9월28일자 ‘GQ 영국’ 온라인 기사 제목입니다. GQ 영국이 아이폰 13 카메라 설계자들을 인터뷰한 기사에 단 이 제목은, 아이폰 13의 지향점이 무엇이었는지를 명확히 보여줬다고 생각합니다.
첫번째는 틱톡으로 대표되는 짧은 동영상 서비스에 남보다 더 멋진 동영상을 올리고 싶은 MZ세대 구매 욕구를 자극했다는 점입니다.
두번째는 고품질 영상을 갈망하는 계층, 즉 나이 불문하고 영화 같은 영상을 찍고 싶어하는 계층의 욕망을 건드렸다는 겁니다. 전문 영화인들이 아이폰 13으로 상업 영화를 찍지는 않겠지만, 신형 아이폰을 사용함으로써 일반인인 내가 전문 영화인이 된 것 같은 환상을 갖도록 해준다는 것이죠.
저는 아이폰 13에서 외형의 혁신이 적은 것을 상쇄하고도 남을 만큼의 혁신이 카메라에 있었다고 이전 글에서 말씀 드렸는데요. 전문가용 디지털 카메라에서나 가능했던 동영상 촬영 때의 심도 조절과 초점 이동 등을 인공지능(AI)의 도움을 받아 실시간으로 자연스럽게 구현하는 ‘시네마틱 모드’가 인상적이라고 했었죠.
시네마틱 모드의 특징은 촬영 당시뿐 아니라 촬영이 끝난 이후 편집 과정에서도 초점을 이동시킬 수 있다는 것이었는데요. 전문가가 찍은 영상처럼 내가 강조하고 싶은 부분에만 초점을 맞추고 나머지를 쉽게 흐릴 수 있을 뿐 아니라, 촬영이 끝난 뒤에도 초점을 자유롭게 옮길 수 있다는 점이 놀라웠습니다. 이 기능은 값비싼 전문가용 디지털 카메라에서도 가능하지 않은, 아이폰 13 만의 기능입니다. 이외에도 빛이 적은 환경에서도 디테일을 더 살린 사진·동영상을 찍을 수 있게 된 것도 중요한 개선점이라고 할 수 있습니다.
☞아이폰13, 전문가용 카메라의 종말 [최원석의 디코드]
https://www.chosun.com/economy/int_economy/2021/09/16/3H4KNC62L5BGNLJH3ADDGOCIGI/
이것은 소비자의 관점이고요.
애플이 내부적으로 어떻게 이런 기능을 구현했고, 앞으로의 스마트폰 카메라 발전은 어떤 방향으로 이뤄질 것인가에 대한 개발자 관점이 있을 수 있을 겁니다.
개발자 관점에서 눈여겨 볼 내용은 스마트폰 카메라 기능의 향상이 AP(애플리케이션 프로세서) 특히 그 안에 탑재된 뉴럴 엔진의 성능 향상, 그리고 카메라 하드웨어와 소프트웨어 팀의 오랜 협업을 통한 통합 설계가 어떻게 제품의 매력을 높일 수 있는가입니다.
그 실마리가 GQ 영국 기사에 담겨 있습니다. 인터뷰 대상은 존 매코맥(Jon McCormack) 애플 카메라 소프트웨어 엔지니어링 부사장, 그레이엄 타운젠드(Graham Townsend) 카메라 하드웨어 엔지니어링 부사장, 카이언 드랜스(Kaiann Drance) 월드와이드 프로덕트 마케팅 부사장, 이렇게 3명이었습니다.
GQ에 따르면, 매코맥과 타운젠드는 800명 이상의 엔지니어나 스페셜리스트로 구성된 팀을 이끌고 아이폰 카메라를 개발해 오고 있습니다.
기사에서 특히 흥미로운 내용은 아이폰 13 카메라의 개발이 ‘언제부터 시작됐는가’ 즉 ‘얼마나 장기적이고 계획적으로 이뤄졌는가’에 관한 것이었습니다.
타운젠드 부사장은 “3년 전부터 아이폰 13용 카메라의 제품 기획을 시작했다. 왜 그 때인가 하면, 3년전 쯤이 실제로 아이폰 13에 탑재될 AP(애플리케이션 프로세서) 사양을 확정하는 시기였기 때문이다. 카메라 이미지 센서 스펙도 그 시점에 결정되며, (아이폰 13에 처음 장착된) A15 바이오닉 프로세서의 사양도 이 때 확정된다. 이 단계에서 존(카메라 소프트웨어 엔지니어링 부사장)과 대화해 우리가 원하는 체험을 ‘예측’해야 한다”고 말했습니다.
여기서 알 수 있는 것은 이미 3년 전에 아이폰 13의 카메라 센서와 AP 스펙을 확정했고, 지금 사람들이 카메라에서 어떤 체험을 원하는지를 미리 예측해야 했다는 겁니다. 그런 상황에서 카메라 하드웨어팀과 소프트웨어팀이 함께 일하면서 3년 뒤 내놓을 아이폰 카메라에서 어떤 소비자 경험을 만들어낼지 준비해 나간 것이죠.
타운젠드 부사장은 또하나 중요한 얘기를 했는데요. 그는 “아이폰 13의 카메라에는 더 많은 빛을 받아들이기 위한 큰 픽셀, 광학식 손떨림 보정 기능 등의 고도의 기술적 개선이 반영됐지만, 중요한 것은 그런 개별적인 기술 향상이 아니라 사람들이 그것을 사용해 무엇을 하느냐”라고 말했습니다.
이게 핵심입니다. 개별적인 기술 향상이 중요한 것이 아니라, 사람들이 그것을 사용해 무엇을 하느냐가 정말 중요하다는 것이죠.
카이언 드랜스 월드와이드 프로덕트 마케팅 부사장은 타운젠드 부사장의 말을 이렇게 바꿔 표현했습니다.
“대부분의 아이폰 사용자는 훈련 받은 사진가가 아니고 단지 사진 찍기를 좋아하는 사람들이다. 우리는 ‘이들이 어떻게 하면 더 좋은 사진·동영상을 찍을 수 있도록 할 것인가’에 항상 매달려 왔다.”
매코맥 부사장은 아이폰 13의 ‘시네마틱 모드’와 같은 신기능을 만들어내는데 있어서, 고성능 AP 개발, 그리고 AP 개발팀과 카메라 하드·소프트웨어 개발팀의 협업이 얼마나 중요한지도 설명했습니다. 그는 “아이폰 13 시리즈에서는 터치 패널을 몇번 탭하는 것만으로 랙 포커스(Rack Focus·심도가 얕은 화면에서 초점을 옮기는 것)가 가능하게 됐다. 포트레이트 모드에서 사진 1장에 대해서는 이런 기능이 가능했지만, 아이폰 13에 (성능이 더 향상된) A15 바이오닉 칩이 탑재됨에 따라, 랙 포커스 기술을 동영상에서 리얼타임으로 구현할 수 있게 됐다. 이 개발은 매우 어렵고 긴 프로세스를 필요로 했다”고 말했지요.
애플이 제품이 나오기 3년 전부터 카메라 하드웨어 스펙은 물론 AP 스펙까지 미리 고정하고, 800명이 넘는 하드·소프트웨어 합동 팀을 투입한 것에는 다 이유가 있다는 것이죠. 스마트폰 카메라의 소비자 체험을 극대화한다는게 그만큼 어렵고 장기적인 계획과 하드·소프트웨어 통합을 필요로 하는 작업이라는 얘기이고요. 이런 작업의 중요성을 잘 깨닫고, 제품 기획 초기 단계부터 소비자 체험의 극대화를 노린다는 것, 이것이 바로 애플의 정말 무서운 점이 아닐까 생각합니다.
*뉴스레터 ‘최원석의 디코드’를 구독하시면, 목요일 아침마다 모빌리티·테크·비즈니스 관련 새로운 콘텐츠를 보내드립니다. 구독자 전용 글을 받아보시거나 추후 마련될 이벤트에도 참여하실 수 있습니다.