구글이 2021년 연례 개발자 회의 구글I/O 2021(Google I / O 2021)에서 안드로이드 차기 메이저 버전인 안드로이드12(Android 12) 공개 베타 버전을 발표했다. 구글은 안드로이드12에 대해 가장 야심찬 버전으로 설명하고 UI 대규모 개편에 대해선 안드로이드 역사상 최대 디자인 변경이라고 밝히고 있다.
이번 안드로이드12 베타 버전 발표는 개발자 프리뷰 버전 발표 당시 예고한 일정에 따른 것. 이 계획에 따르면 6∼7월경 베타 2, 3번째가 나오고 8월 최종 베타 버전이 공개될 예정이다. 이번에 발표된 베타 바전에서 눈길을 끄는 건 머티리얼 UI(Material UI)라는 대규모 UI 개편. 가장 큰 특징은 컬러 익스트랙션(Color Extraction)이라는 맞춤 기능으로 사용자가 설정한 화면에서 자동으로 추출한 색상을 전체 시스템에 자동 반영해준다.
다음은 위젯 재설계. 전반적인 디자인 개편에 따라 위젯도 더 편리하고 쉽게 찾을 수 있게 됐다. 전체 외형은 각 위젯 모서리가 둥글게 되고 홈 화면에 맞게 자동으로 패딩되도록 변경된다. 위젯 자체도 시스템 색상을 반영하게 되어 일관된 색상으로 장치 전체를 물들이게 하는 것도 가능해지고 있다. 또 새로운 위젯에 확인 스위치, 라디오 버튼 등을 배치하는 것도 가능하게 되어 있다.
위젯 자동 스케일링을 활성화하는 리스폰시브 레이아웃(Responsive Layouts)은 일반 스마트폰 뿐 아니라 접이식 스마트폰이나 태블릿까지 위젯이 최적화되도록 했다.
또 시스템 전체에 새롭게 스트레치 오버 스크롤이라는 효과를 추가해 스크롤할 때 콘텐츠 끝에 도달한 걸 알 수 있게 됐다. 여기에 비주얼 뿐 아니라 오디오 UI도 개편해 오디오를 재생하는 응용 프로그램 사이를 전환할 때 각 응용 프로그램 오디오가 겹치지 않는다.
안드로이드12 베타에선 코어 시스템 서비스에 필요한 CPU 시간을 22.1%나 줄이는데 성공하고 처리 속도와 응답성 향상을 달성했다. 또 시스템 서버가 코어 사용을 15.4% 절감해 전력 효율과 사용 시간을 개선했다. 그 밖에 잠금이나 지연 감소를 통해 앱 로딩 시간 단축도 달성했다. 예를 들어 구글 포토 시작은 36% 빨라졌다고 한다.
다음은 안드로이드 장치 표준화. 안드로이드 생태계 파트너와 협력해 장치 기능에 대해 성능 클래스라는 기준을 설정했다. 성능 클래스는 카메라 시작과 지연, 코덱 가용성, 인코딩 품질, 최소 메모리 크기, 화면 해상도, 읽기와 쓰기 성능 등 다방면에 걸친 것으로 개발자는 안드로이드 장치에 설정된 성능 클래스를 확인하고 장치 기능을 극대화할 수 있는 설정을 확인할 수 있다.
또 2020년 발표한 권한 자동 재설정 기능 출시 이후 2주 만에 850만 대에 사용되는 등 호평을 받은 장기간 사용하지 않는 앱을 자동 판단해 최대 절전 모드 기능을 구현했다. 최대 절전 모드를 설정하면 권한이 모두 무효화될 뿐 아니라 앱이 강제 종료되어 메모리와 스토리지 같은 임시 자원이 해제된다. 새로운 자동 정지 기능은 장치 스토리지 성능을 절약하고 안전성을 향상시킬 수 있다.
또 기존에는 블루투스 장치와 페어링할 필요가 있었지만 장치 위치 정보는 사용하지 않는 앱에서도 위치 정보 허가가 필요했다. 안드로이드12 베타에선 위치 정보 권한을 부여하지 않고 응용 프로그램 측 인근 블루투스 장치를 검색할 수 있는 권한을 부여할 수 있다.
다음으로 이전 안드로이드에선 위치 정보 허가에 대해 앱 사용 중에만 허용 혹은 이번만 등 대안을 제공했다. 안드로디드12 베타는 새로운 응용 프로그램에 필요한 최소한 대략적인 위치 정보를 허용하는 대략적인 위치를 허용한다는 대안을 마련했다. 구글은 개발자에게 일반 위치 정보 이용에 있어 대략적인 위치 정보만을 요구하는 게 좋다고 밝히고 있다.
새로 발표된 안드로이드12 베타 버전은 개발자 뿐 아니라 얼리어답터용으로 구글 스마트폰인 픽셀 뿐 아니라 에이수스, 오포 등 스마트폰에도 사용해볼 수 있다. 안드로이드12 베타 버전을 사용하려는 사용자에게 구글 측은 더 많은 사용자가 안드로이드12 베타에서 앱을 시도하고 문제를 보고해줄 것으로 기대하고 있다고 밝히고 있다. 관련 내용은 이곳에서 확인할 수 있다.
◇ AR코어에 추가한 API=구글은 이번 행사에서 자사가 개발, 제공하는 AR 개발 키트인 AR코어(ARCore)에 2가지 새로운 API를 도입한다고 발표했다. 새로 도입한 API는 기존보다 자세하게 깊이 맵을 생성 가능하게 되는 것 외에 촬영한 동영상에서 AR을 이용할 수 있게 되는 것이다.
2018년 출시된 AR코어는 10억 회 이상 설치됐고 현재 8억 5,000만 대 이상 안드로이드 기기가 AR코어를 실행해 AR 체험에 접근할 수 있도록 했다. 구글은 최신 버전인 AR코어 1.24를 발표하고 로댑스 API(Raw Depth API)와 리코딩앤플레이백 API(Recording and Playback API)를 도입한다고 밝힌 것.
구글은 2020년 카메라 1대로 깊이 맵을 생성하는 댑스 API(Depth API)를 출시해 안드로이드 기기에서 심도 맵을 작성하고 AR 경험을 높일 수 있게 했다. 새로 발표한 로댑스 API는 기존 댑스 API를 기반으로 구축된 것이다. 깊이맵을 생성해 자세한 AR 표현을 가능하게 한다. 이 깊이 맵은 픽셀 깊이 추정 신뢰값을 제공하는 대응 이미지를 사용해 데이터 포인트를 더해 사실적인 깊이 맵을 얻을 수 있게 해준다. 물체 깊이와 위치 관계를 인식해 더 정확한 AR 체험이 가능해지는 것이다. 이를 통해 앱은 공간 거리를 정확하게 측정할 수 있다.
로댑스 API는 ToF 센서 등 특수 심도 센서를 필요로 하지 않기 때문에 이미 AR코어를 사용 중인 대다수 안드로이드 장치에서 쓸 수 있다. 무엇보다 ToF 센서 등이 탑재되어 있는 경우보다 경험 품질이 높아진다는 설명이다.
다음으로 AR 앱 개발자를 괴롭히는 문제 중 하나는 특정 환경에서 앱 동작을 테스트할 때 실제 그 장소에 가야 한다는 점을 들 수 있다. 물론 개발자가 항상 원하는 위치에 액세스할 수 있는 건 아니며 조명 조건이 시간에 따라 변화하거나 테스트 세션마다 센서가 정보를 검색하는 등 엇갈림이 발생하는 경우도 있다.
리코딩앤플레이백 API는 장소 동영상과 함께 IMU(Inertial Measeurement Unit)와 심도 센서 데이터를 기록할 수 있도록 해주는 것으로 AR 개발자가 안고 있는 문제를 해결해준다. 이 API를 이용하면 촬영한 동영상을 바탕으로 집안에 있어도 공원을 무대로 AR 앱을 즐길 수 있다. 이 API 혜택을 얻을 수 있는 건 사용자 뿐 아니라 AR 앱 개발자에게도 큰 매력이 있다. 중국 기업인 디디추싱(DiDi)는 디디라이더(DiDi-Rider) 앱에서 AR을 이용한 길 안내 기능 개발에 리코딩앤플레이백 API를 이용했다. 촬영한 동영상이 있으면 여러 번 현지에 갈 필요 없이 AR을 테스트해 디디추싱은 연구개발비용 25%, 교통비 60%를 절감했고 개발주기 역시 6개월이나 단축할 수 있었다고 한다. 관련 내용은 이곳에서 확인할 수 있다.
◇ 5가지 새 기능 더한 구글맵=구글은 다음으로 구글 지도에도 새로운 기능을 발표했다. 먼저 자동차 급브레이크를 감소시켜주는 로트 검색. 지동에서 경로를 검색할 때마다 도로 차선 수와 곡선이 많은 걸 고려하고 목적지까지 여러 경로를 표시한다. 도착 시간이 같거나 최소한 차이만 있을 경우 급제동 횟수를 줄여주는 루트 추천 루트로 선택된다.
다음은 세부 라이브 뷰. GPS를 선택하는 경우 맵 라이브(Live) 버튼을 탭해 증강현실 라이브뷰에 직접 액세스할 수 있으며 혼잡 상황이나 사진 등 정보 길 안내를 위한 새로운 도로 표지판 등을 확인할 수 있다. 또 여행 중인 경우 선택한 매장이 숙박한 호텔 등에서 얼마나 떨어져 있는지 여부도 알 수 있게 된다.
다음은 맵 고정밀화. 지도가 더 자세해지고 보도와 횡단보도, 안전지대 위치가 파악하기 쉽고 도로 모양과 폭이 축적대로가 된다. 이 정보는 휠체어나 유모차를 사용할 경우 보행자가 최소 경로를 통과할 때 도움이 된다. 이 기능은 2021년 말까지 베를린 등 50개 이상 도시에서 사용할 수 있게 된다.
다음은 혼잡 상황 시각화. 거리에서 혼잡한 지역은 다른 색으로 표시한다. 이 기능은 혼잡을 피하기 위해 활기찬 지역 방문을 할 때 도움이 될 수 있다.
마지막은 상황에 따른 표시 정보 변화다. 이용 시간이나 사용자가 여행 중인 여부 등 정보를 가장 관련성 높은 위치에 강조한다. 예를 들어 평일 아침 8시 맵을 열면 저녁 식사 자리가 아니라 근처 커피숍이 눈에 띄게 표시된다. 또 아무 곳이나 터치했을 때 햄버거 가게라면 인근 다른 햄버거 가게 등 관련성 높은 위치가 강조 표시된다. 그 밖에 여행지라면 관광지가 강조 표시된다. 이들 기능은 몇 개월 안에 안드로이드와 iOS에 전개할 예정이라고 한다. 관련 내용은 이곳에서 확인할 수 있다.
◇ 스마트폰 카메라로 촹영한 피부색 개선 방법=구글은 이번 행사에서 스마트폰 이미지가 모든 이들을 위한 것이며 더 정확하게 구축할 수 있도록 알고리즘을 개선해나갈 것이라고 밝혔다. 카메라로 촬영한 건 객관적이라고 생각하기 쉽지만 실제로는 카메라가 만들어지는 과정에서 다양한 사람의 의지와 결정이 도구에 반영된다. 이 결정에는 유색인종의 의지는 거의 포함되지 않는다는 것.
따라서 구글은 자사 모든 카메라와 이미지 제품이 피부색이 짙은 사람을 비롯한 유색 이종에게도 최선의 결과를 나타내는 걸 목표로 프로젝트를 진행했다. 지금까지 수천 장에 이르는 사진을 촬영한 전문가와 협력해 데이터세트를 다양화하고 이를 바탕으로 알고리즘을 학습시켰다. 또 자동 화이트밸런스와 자동 노출 조정 알고리즘 정확도를 개선했다.
이 기술은 앞으로 발표될 예정인 픽셀 스마트폰에 반영되며 학습한 내용은 안드로이드 파트너와 생태계 전체에 공유될 예정이다.
◇ 삼성전자와 스마트워치 위한 통합 플랫폼 구축=구글은 자사 스마트워치 소프트웨어 플랫폼인 웨어OS 바이구글(Wear OS by Google) 쇄신도 발표했다. 또 웨어OS 리뉴얼 일환으로 삼성전자와 공동으로 새로운 통합 플랫폼을 구축하는 것으로 밝혀졌다.
구글은 자사 웨어OS와 타이젠의 장점을 한 플랫폼에 통합한다며 양사가 협력해 각자의 장점을 살려 빠른 성능과 긴 배터리 수명, 더 많은 응용 프로그램을 이용할 수 있는 환경을 제공할 수 있다면서 삼성전자 스마트워치인 갤럭시워치 시리즈에 채용되는 타이젠과의 통합을 분명히 했다.
양측이 협력해 최신 칩셋에서 앱 구동을 최대 30% 단축하고 UI 부드러운 모션과 애니메이션을 실현했다고 한다. 또 운영체제를 최적화하고 저전력 하드웨어 코어를 활용해 스마트워치 연속 사용 시간 연장도 실현했다. 낮에는 심박센서를 지속적으로 작동시키고 밤에는 수면을 추적해도 다음날 아침에는 배터리가 아직 남는 수준까지 배터리 수명을 연장시키는 데 성공했다는 설명이다.
앱 전환은 사이드 버튼을 더블탭하는 것만으로 간단하게 처리할 수 있고 앱에서 중요성 높은 정보만 모아 보는 타일이라는 새로운 기능을 사용하면 원하는 정보에 곧바로 접근할 수 있다. 구글맵과 구글 페이, 유튜브 뮤직 등 구글이 제공하는 서비스 앱과의 연계도 상당히 진행됐고 구글이 인수한 핏비트도 기본 앱에 추가되어 있다.
통합 플랫폼에서 구글과 삼성전자 뿐 아니라 모든 장치 제조업체가 사용자 정의한 사용자 경험을 추가한다. 선택 여지가 늘어나게 될 수 있다는 것이다. 새로운 웨어OS는 개발을 쉽게 해주는 API도 공개 예정이다. 관련 내용은 이곳에서 확인할 수 있다.
◇ 실제로 얼굴 맞대고 대화하듯 ‘마법의 거울?’=구글은 원격지에 있어도 실제로 얼굴을 맞대고 얘기하는 것처럼 느껴질 수 있는 새로운 커뮤니케이션 도구를 개발하는 프로젝트 스타라인(Project Starline)을 발표했다.
구글은 프로젝트 스타라인 개발 도구를 마법의 거울이라고 표현하고 있다. 이 거울을 통해 자연스럽게 대화하고 몸짓을 통해 의사소통을 하거나 눈을 마주치는 것도 할 수 있다는 것. 아직 개발 단계 중간이어서 프로젝트 스타라인은 맞춤형 하드웨어와 고도로 전문화된 장비가 필요하다. 하지만 일부 구글 사무실에 이미 시험 도입해 내부 테스트가 진행되고 있다고 한다.
프로젝트 스타라인은 물리적으로 함께 있을 때처럼 커뮤니케이션을 취할 수 있다. 실현에는 3가지가 필요했는데 첫째는 사람을 그대로 포착하는 3D 이미징 기술. 다음은 실시간 압축 기술을 통해 기존 네트워크를 통해 효율적으로 데이터를 전송 가능하게 하는 것이다. 마지막은 전송되어 온 3D 이미지를 충실하게 재현하는 렌더링 기술이다.
그 밖에도 컴퓨터비전과 기계학습, 공간 오디오 등 기술을 적용하고 있으며 이를 통해 수화로 의사 소통도 직접 만난 것처럼 가능하게 할 예정이다.
프로젝트 스타라인은 스마트 글라스나 헤드셋 같은 추가 장치 없이도 볼륨감과 깊이 있는 3D 이미지를 렌더링할 수 있는 획기적인 라이트 필드 디스플레이 시스템을 개발하고 있다. 또 구글 사무실 뿐 아니라 의료와 미디어 등 일부 산업에서 선정된 엔터프라이즈 파트너도 시연하고 도구와 응용 프로그램에 대한 의견을 모으고 있다고 한다. 2021년 하반기 기업 파트너 대상 시험 배포도 계획 중이다. 구글의 당면 목표는 프로젝트 스타라인을 더 저렴하고 접근하기 쉬운 것으로 하는 것이라고 밝히고 있다. 관련 내용은 이곳에서 확인할 수 있다.
◇ 사진 찍으면 AI가 피부병 체크를=그 뿐 아니라 구글은 피부에 무슨 일이 일어나고 있는지 쉽게 파악할 수 있는 웹 기반 피부 화상 판단 도구를 개발했다고 발표했다. 기계학습에 의한 피부 화상 진단 연구는 이번이 처음은 아니다. 스탠퍼드대학 연구팀이 피부 이미지에서 피부암 여부를 식별하는 알고리즘을 2017년 발표한 바 있다.
이번에 발표한 피부 이미지 확인 도구에 대한 논문은 구글 개발팀에 의해 2002년 5월 학술지 네이처에 게재됐다. 논문에 따르면 피부 질환을 평가하기 위한 AI 시스템은 미국 인증 피부과와 동등한 정확도를 달성하는 것으로 나타났다. 또 전문의가 아닌 의사가 AI를 이용해 높은 정밀도로 피부를 진단할 수 있게 된다는 결과도 보고되고 있다.
이 웹앱을 사용하려면 스마트폰 카메라를 이용해 피부와 머리카락, 손톱을 다양한 각도에서 3장 촬영해야 한다. 다음으로 피부 타입과 문제가 발생한 날짜 등 다양한 질문에 대답해 AI 모델이 증상을 분석하고 신뢰할 수 있는 정보를 표시한다. 하지만 도구가 진단을 하거나 의학적 조언을 하는 건 아니다.
구글에 의하면 피부 화상 판단 도구가 나이와 성별, 인종, 피부색에서도 작동하도록 6만 5,000장 이상 사진으로 진단된 피부 증례 데이터, 수백만 개에 달하는 피부 증례 이미지와 수천 분 데이터를 이용해 AI를 학습시켰다고 한다. 그 결과 구글은 피부 화상 판단 도구 EU 의료기기 규칙에서 클래스I 기기로 인정되어 CE 마크를 붙이는 걸 인정받았다고 보고하고 있다. 구글은 이 피부 화상 판단 도구를 2021년 하반기 시범적으로 출시할 예정이다. 관련 내용은 이곳에서 확인할 수 있다.
◇ 자유 대화 가능한 대화 특화형 AI=구글은 또 자연스러운 대화를 실현해주는 대화 특화형 AI인 람다(LaMDA)도 발표했다. 람다는 트랜스포머(Transformer)라는 언어 이해를 위한 신경망 아키텍처를 채택한 대화 특화형 AI다. 같은 트랜스포머를 이용한 언어 모델은 구글 버트(BERT)나 오픈AI의 GPT-3 등이 있지만 담다는 자유 형식 대화까지 지원하는 게 특징이다.
구글에 따르면 인간 대화는 특정 주제를 중심으로 전개하는 경향이 있지만 TV 프로그램에 대한 잡담이 드라마를 촬영한 국가 얘기에서 시작해 해당 국가 향토 요리까지 대화 흐름은 계속 바뀐다. 미리 규정된 화제를 벗어나지 않는 경향이 있는 일반 챗봇에게 인간 대화 흐름을 따라가는 건 어렵다. 하지만 람다(Language Model for Dialogue Applications)는 거의 무한 수 주제에 대해 자유롭게 대응 가능하다고 한다. 관련 내용은 이곳에서 확인할 수 있다.
◇ 안드로이드폰을 자동차키나 TV 리모컨으로=구글은 그 밖에 스마트폰을 자동차키로 사용하는 기능이나 TV 리모컨으로 사용하는 기능 등도 발표했다.
안드로이드에 새로 탑재하는 디바이스끼리 연계시키기 위한 기능으로는 먼저 안드로이드 탑재 스마트폰을 자동차키로 이용할 수 있는 디지털 카 키(Digital car key). 화면 상단에 카드 같은 모양이 배치되고 아래에는 차종명이 표시된다. 디지털 카 키 통신 규격은 NFC를 이용하며 스마트폰을 자동차에 접근시키기만 하면 개폐가 가능해진다. 디지털 카 키는 2021년 가을 출시 예정이며 구글 픽셀 시리즈와 삼성전자 갤럭시 시리즈가 지원할 예정이다.
스마트폰을 TV 리모컨으로 사용할 수 있는 기능도 발표했다. 이 기능을 이용하면 스마트폰을 터치패드처럼 사용해 TV를 조작하거나 스마트폰을 이용해 원활하게 문자를 입력할 수 있다. 스마트폰을 TV 리모컨으로 사용하는 기능은 2021년 하반기 출시 예정이며 구글TV와 안드로이드TV를 탑재한 8,000만 대 이상 장치에서 작동한다고 한다. 관련 내용은 이곳에서 확인할 수 있다.
또 2020년 G스위트에서 이름을 바꾼 구글 워크스페이스 업데이트인 스마트 캔버스(Smart canvas)의 경우 여러 사람이 작업을 효율적으로 진행할 수 있도록 하겠다고 밝혔다. @맨션에서 추천인, 파일, 회의 목록이 표시되고 페이지 테두리가 없어 단말과 화면 크기에 맞게 확대되며 인쇄와 PDF 출력할 때 페이지 분할이 가능하다. 이모티콘 리액션 기능을 앞으로 몇 개월 안에 도입하고 언어 권장이나 작문 지원 기능을 추가하며 구글 문서 도구에 회의 템플릿 추가, 다른 콘텐츠와 연결할 수 있는 체크리스트 추가, 테이블 템플릿 추가 등이 이뤄진다. 구글미트에서 작업 중이 구글 문서나 스프레드시트, 슬라이드 내용을 직접 제공할 수 있고 실시간 자막 부여와 번역 기능도 추가한다. 구글 스프레드시트에 타임라인뷰를 추가하고 어시스트 분석 기능도 강화한다. 또 구글 채팅 토론에서 콘텐츠 제작으로 직접 전환할 수도 있다. 관련 내용은 여기에서 확인할 수 있다.