애플이 시각, 청각, 인지, 모빌리티 접근성을 높이기 위한 소프트웨어 기능을 아이폰이나 맥에 도입한다고 발표했다. 그 중에서도 눈에 띄는 기능이 아이폰이나 아이패드에 목소리를 불어넣는 것만으로 자신의 목소리를 재현한 음성을 합성해 커뮤니케이션에 응용할 수 있다는 라이브 스피치(Live Speech)다.
라이브 스피치는 아이폰, 아이패드, 맥에 탑재될 예정이며 입력한 문장을 소프트웨어가 읽는 소위 TTS(Text-to-Speech) 기능이다. 사용자가 랜덤화된 일련의 텍스트를 읽고 아이폰이나 아이패드로 15분간 녹음하면 이 녹음된 15분간 음성을 바탕으로 사용자 목소리를 온 기기의 기계학습으로 재현한 음성이 합성된다. 애플은 ALS 등 질병으로 대화 능력이 미래에 손실될 가능성이 있는 사용자를 상정하고 있다.
ALS 환자 지원 단체 측은 결국 가장 중요한 건 친구나 가족과 커뮤니케이션을 할 수 있다는 것이라며 아이폰에서 단 15분 만에 자신의 목소리를 합성할 수 있다는 건 놀라운 일이라고 밝히고 있다.
또 시각 장애가 있는 사용자가 문자 라벨이 있는 물리 객체를 손쉽게 조작할 수 있는 포인트앤스피크(Point and Speak)도 발표됐다. 전자레인지 버튼이나 엘리베이터 버튼 등 조작 가능한 기계 버튼에는 문자로 설명이 쓰여 있는 게 많지만 시각 장애가 있는 사람에게는 점자가 붙어 있지 않으면 어떤 버튼이 어떤 기능을 갖고 있는지 알 수 없다. 따라서 아이폰이나 아이패드 돋보기 앱으로 촬영하면 손가락이나 버튼을 인식하고 자신이 누르려는 버튼에 쓰인 문자를 읽어주는 게 포인트앤스피크다.
또 애플은 메시지, 카메라, 사진, 음악, 통화, 페이스타임 등 기본 기능에 쉽게 접근할 수 있는 기능인 어시티브 액세스도 발표했다. 애플에 따르면 앱과 경험을 본질적인 기능을 좁히는 것으로 인지적 부하를 경감해 인지 장애자라도 취급하기 쉬워진다고 한다. 메시지는 이모티콘 전용 키보드도 제공한다.
그 밖에 아이폰을 맥에 페어링해 쾌적하게 들리도록 커스터마이징할 수 있도록 하는 기능(Made for iPhone hearing devices), 음성에 의한 텍스트 입력 조작성 향상, 임의 스위치를 가상 게임 컨트롤러로 바꿔 아이폰이나 아이패드로 게임을 플레이할 수 있도록 하는 기능(Switch Control), 간단한 텍스트 사이즈 조정, 메시지나 사파리로 표시된 GIF 애니메이션 등 움직이는 이미지를 자동으로 일시 정지할 수 있는 기능, 보이스오버에 의한 읽기나 시리가 말을 건 속도를 0.8∼2배까지 조장 가능해진다. 관련 내용은 이곳에서 확인할 수 있다.