brunch

You can make anything
by writing

C.S.Lewis

by SNC Lab Jul 14. 2020

글로벌 접근성 동향 리포트

2020년 07월 14일

지금도 세계 곳곳에서 민간 기업, 정부, NGO, 개인에 의해 접근성을 위한 노력이 꾸준히 이루어지고 있습니다. 아울러 세계에 많은 당사자와 접근성 전문가들이 현재 기술을 접근성 관점에서 진단하고, 개선을 위한 의견들을 개진하고 있습니다. 하여 저희는 세계의 많은 아이디어를 통해 지금 우리 현재를 돌아보고 새로운 인사이트를 여러분과 함께 찾으려 <글로벌 접근성 동향 리포트>라는 콘텐츠를 발행합니다. 특히 비교적 주목받지 못했던 아시아, 오세아니아, 아프리카의 접근성을 향한 노력도 소개할 것입니다. 

<글로벌 접근성 동향 리포트>는 세계 민간 기업들이 기울이는 접근성에 대한 노력과 정부의 정책, NGO의 프로그램을 소개함은 물론 접근성에 대한 여러 오피니언을 요약/소개할 예정입니다. 이 콘텐츠는 격주에 1회 발행됩니다. 

<글로벌 접근성 동향 리포트>가 여러분들의 접근성 개선 노력에 조금이나마 도움이 되었으면 좋겠습니다. 



1. 2020 WWDC에서 발표한 애플의 새로운 접근성

애플은 지난 2020년 6월 22일부터 4일 동안 세계 개발자 회의(WWDC, WorldWide Developers Conference)를 온라인으로 개최했습니다. 이번 WWDC에서도 애플은 iOS, iPad OS, watchOS, macOS(Big Sur), tvOS에 걸쳐 많은 업데이트 내용을 발표했습니다. 접근성 측면에서도 새로운 기능이 많이 추가되었는데요, 이번 리포트에서 자세히 안내해 드리겠습니다.


백탭(Back Tap)

iOS 14에 새롭게 추가된 접근성 기능인 백탭은 기기의 뒷면을 두 번 혹은 세 번 두드려 미리 예약된 기능을 실행합니다. 터치 스크린을 조작하기 어려운 운동장애 사용자나, 복잡한 작업 단계가 어려울 수 있는 인지장애 사용자에게 유용한 기능이 될 수 있습니다. '설정 > 손쉬운 사용 > 터치' 메뉴에서 백탭을 설정할 수 있습니다.


TIP

안드로이드의 경우, 측면 두드리기 동작으로 안드로이드의 스크린 리더인 Talkback을 제어하는 기능이 있었습니다. 그러나 Android Accessibility Suite 8.0부터 해당 기능은 사라졌습니다.


소리 감지(Sound Detection)

iOS 14부터 애플은 주변 소리를 감지해 사용자에게 알리는 기능을 추가했습니다. 화재 경보기 소리, 아기 울음 소리와 같이 즉각적 조치를 필요로 하는 소리를 감지해 사용자에게 알립니다. 해당 내용은 저희가 2020년 3월 20일 발행한 <글로벌 접근성 동향 리포트>에서도 소개한 바 있습니다.


그룹 페이스타임 수어 감지(Sign Language Recognition in Group FaceTime)

애플의 화상 채팅 앱인 페이스타임(Facetime)은 그룹 채팅 시 말하는 사람의 얼굴을 화면에 강조하여 표시해 주는 기능이 있었습니다. 이번 WWDC에서 애플은 나아가 사용자의 수어 사용 여부를 탐지한 다음 해당 사용자를 화면에 크게 표시하는 기능을 새롭게 도입했습니다. 수어를 사용하여 페이스타임 화상 채팅을 이용하거나, 수어 통역을 동반하는 컨퍼런스에서 아주 유용하게 사용할 수 있는 기능일 것입니다.


헤드폰 최적화(Headphone Accommodations)

헤드폰 최적화는 헤드폰 착용자의 청각 특성에 따라 특정 음역 때의 주파수를 조정하여 소리를 더욱 선명하게 들을 수 있도록 돕는 기능입니다. iOS 14와 ipadOS 14에서 음악, 팟캐스트, 영상, 통화에 적용할 수 있습니다. 또한, 에어팟 프로에 있는 주변소리듣기 모드(Transparency Mode)에 적용됩니다. 따라서 사용자는 주변에 작은 소리도 선명하게 들을 수 있습니다. 해당 기능은 에어팟 II에서도 사용할 수 있습니다.


달라진 돋보기

iOS 10에서 추가된 돋보기(Magnifier)는 카메라에 비친 사물을 확대하여 화면에 표시해 주는 기능입니다. 아이폰과 아이패드가 확대경으로 동작합니다. 이번에 애플은 돋보기 기능을 업데이트 했는데요, 멀티 캡처 기능과 아이패드에서의 멀티 태스킹 기능이 그것입니다. 멀티  캡처는 여러 개의 사물을 동시에 캡처하여 확대할 수 있는 기능입니다.


향상된 보이스 컨트롤

음성 명령으로 손가락 터치를 대신하는 애플의 보이스 컨트롤이 대폭 업데이트 되었습니다. 주요 업데이트 내용은 보이스오버 제스처를 보이스 컨트롤로도 사용할 수 있다는 것과 영국식 영어와 인도 영어를 지원합니다. 또한, 여러 개의 애플 기기가 있을 경우 개별 기기를 보이스 컨트롤로 제어할 수 있습니다.


더 스마트해진 보이스오버

이번에 업데이트 된 보이스오버는 주로 접근성이 준수되지 않은 웹사이트 및 애플리케이션의 접근성을 머신 러닝을 이용해 보완하는 데에 초점이 맞추어져 있습니다. 보이스오버 인식(VoiceOver Recognition)에서 업데이트 된 부분은 크게 이미지 설명(Image descriptions), 문자 인식(Text recognition), 스크린 인식(Screen recognition) 입니다.

이미지 설명

이미지 설명은 웹 페이지 또는 애플리케이션의 이미지에 대한 설명을 컴퓨터 비전을 이용해 제공하는 기능입니다. 해당 기능은 iOS 13부터 사용할 수 있는 기능이었습니다. 이번 업데이트에서 애플은 더욱 향상된 이미지 설명 기능을 제공할 예정입니다.

문자 인식

문자 인식은 이미지에 있는 글자를 OCR(Optical Character Recognition, 광 문자 인식)을 이용해 판독하여 보이스오버 사용자에게 음성으로 내용을 알려주는 기능입니다.

스크린 인식

스크린 인식은 특정 애플리케이션 화면에 접근성이 고려되어 있지 않은 컨트롤을 인식하여 사용자가 접근할 수 있도록 레이블 등을 제공하는 기능입니다.


애플워치 watchOS 7의 접근성

애플워치의 운영체제인 watchOS 7에서는 Extra Large 워치페이스의 가독성을 높이기 위한 재설계가 이루어졌습니다. 전반적인 워치페이스의 가독성뿐만 아니라 컴플리케이션 메뉴 역시 가독성이 높아졌습니다. 또한, watchOS 보이스오버에 처음으로 로터 메뉴가 도입됩니다. 로터 메뉴는 보이스오버 사용자가 많이 이용하는 메뉴인 만큼 스크린 리더 사용자의 애플워치 사용성을 한층 더 끌어올릴 것입니다.





2. Covid-19가 디지털 접근성에 미치는 영향 조사 결과 발표

Covid-19 팬데믹 이후 접근성 전문 기업 디큐 시스템(Deque Systems)의 주도로 Covid-19가 디지털 접근성에 미치는 영향에 대한 설문 조사를 실시했습니다. 최근, 조사 결과를 발표했습니다. 이 조사는 IAAP(국제 접근성 전문가 협회, International Association of Accessibility Professionals)와 G3ICT가 함께 했습니다. 기업과 정부기관, NGO 종사자를 대상으로 Covid-19 이후 변화된 환경에서의 조직의 접근성 인식과 노력을 알아보기 위한 것이 조사의 목적입니다. 

조사에는 292명이 참여했습니다. 그 중 58%가 접근성 전문가(Accessibility Specialist)라고 답했습니다. 조사에 응답한 참여자 중 60%가 1,001명 이상의 직원이 근무하고 있는 조직에 근무하고 있으며, 56%가 시니어 혹은 임원이었습니다. 응답자의 64.7%가 미국에 있는 조직에 근무하고 있었습니다. 영국과 캐나다 그리고 기타 지역이 뒤를 이었습니다. 가장 많은 응답자는 교육 관련 산업군에 종사하는 사람으로 응답자의 33%를 차지합니다.

모두가 예상하고 있듯 Covid-19 유행으로 비즈니스에서 디지털 채널은 중요해졌습니다. 응답자의 83%가 디지털 채널이 더욱더 중요해졌다고 답했습니다. 또한, 전체 응답자 중 62%가 조직 내에서 디지털 접근성에 대한 인식과 영향이 증가했다고 답했습니다. 구체적으로 교육, 비즈니스 분석 및 지원, 정부기관, 보건, 제약업, 비영리 조직, 내구 소비재 및 기타 판매업 종사자들의 70%가 접근성의 영향력이 증가했다고 밝혔습니다. 반면 광고/마케팅, 금융 서비스, 통신, 전자기술 업체 종사자의 49%만이 종사하는 업종에서의 접근성의 영향력이 증가했다고 답했습니다.

Covid-19로 인해 조사에 참여한 조직에서의 접근성 인식이 높아졌지만, 실제 장애 사용자들의 접근성 문제가 증가했다는 사실을 인지하고 있는 사람의 비율은 높지 않습니다. 전체 응답자 중 37%만이 장애 사용자들이 디지털 환경으로의 전환에서 어려움을 겪고 있다는 사실을 인지하고 있었습니다. 장애 사용자들은 온라인 수업과 원격 근무 환경에서 접근성 문제를 경험하고 있습니다.


자세한 보고서 내용은 이곳에서 다운로드하여 읽을 수 있습니다.


설문조사 결과 중, 장애가 있는 서비스 사용자의 클레임 발생 현황과 장애가 있는 직원의 원격 근무의 불편에 대한 인지에 대한 응답 결과를 보여주는 그래프




3. 접근성을 고려한 폼 만들기: 유효성 검사부터 오류 수정

사용자로부터 데이터를 입력받는 폼 요소의 접근성을 크게 세 부분으로 나눈다면 접근성을 준수한 폼 마크업과 탐색의 논리적 순서, 오류 수정일 것입니다. 


접근성을 준수한 폼 마크업

먼저, 접근성을 고려한 폼 요소 마크업의 경우 각 폼 요소의 목적을 정확히 사용자에게 전달해야 합니다. 폼과 <label>을 사용하는 것이 가장 기본적인 기술입니다. <label>은 폼의 ID를 정확히 가리켜야 합니다. 그밖에 여러 개의 폼 요소를 하나의 제목으로 대표할 수 있고 논리적으로 그룹화가 가능하다면 <fieldset>과 <legend>로 묶을 수 있습니다. 


탐색의 논리적 순서

탐색의 논리적 순서는 정보의 순서가 논리적이어야 하며, 키보드로 폼 요소를 탐색할 때 해당 구조를 반영해야 합니다.


오류 수정

마지막으로 폼 요소의 오류 수정은 다음의 세 가지 원칙을 중심으로 접근성을 준수합니다.

1) 사용자에게 명확하게 오류 내용을 알리고, 모든 사용자가 내용에 접근 가능해야 합니다.

사용 가능한 방법으로는 Javascript의 alert() 또는 모달을 사용하여 오류를 표시하는 방법과 폼 시작점에 오류 내용과 위치를 제공하는 방법 그리고 인라인 오류 메시지를 제공하는 방법이 있습니다. 인라인 오류란 오류가 발생한 지점에 오류 메시지를 제공하는 것입니다. ARIA-describedby 혹은 ARIA-invalid를 사용할 수 있습니다.

2) 오류가 발생한 지점에 쉽게 이동할 수 있어야 합니다.

단일 오류가 발생한 경우 포커스를 오류 지점으로 반환하는 방법을 사용하는 것이 좋습니다.

3) 폼을 다시 제출할 수 있어야 합니다.


더 자세한 기술적 내용과 설명은 Webaim에서 발행한 <Usable and Accessible Form Validation and Error Recovery>를 참고하십시오.




4. 시각장애인을 위한 코딩 지원 도구 “CuriO”

시각장애 엔지니어가 코딩을 하면서 겪는 문제는 스크린 리더가 프로그램 소스코드를 읽는데 한계가 있다는 점입니다. 스크린 리더는 기본적으로 자연어에 최적화 되어 있기에 시각장애 엔지니어가 소스코드를 능숙하게 리뷰하고, 디버깅하려면 별도의 많은 노력을 해야 합니다. 특히, 비시각장애 엔지니어가 사용하는 개발자 도구의 코드 시각화 기능을 사용할 수 없는 문제는 시각장애 엔지니어를 불리한 위치에 놓이게 만듭니다. 물론, 마이크로소프트의 Visual Studio, 구글의 Android Studio, 이클립스 재단의 Eclipse, 애플의 xCode는 충실하게 접근성 기능을 제공하지만, 코드 시각화 기능에 대한 대안이 될 수는 없습니다.

이 문제를 해결하기 위해 Krishna Rajagopal은 촉각과 소리를 이용해 코드를 읽을 수 있는 CuriO를 개발했습니다. 네덜란드의 델프트 공과대학에서 석사 과정을 마치며 개발한 도구입니다. CuriO는 전용 에디터에 키보드로 코드를 작성하거나, 기존의 코드를 로드하면 코드의 행과 들여쓰기 등 코드의 구조를 촉각으로 표현합니다. CuriO는 함께 제공되는 조이스틱을 이용해 코드를 탐색할 수도 있습니다. 조이스틱의 움직임에 따라 포커스가 위치한 영역의 코드 구조가 실시간으로 표현됩니다. CuriO는 파이썬과 Java, Javascript, C++와 호환됩니다. 작동 운영체제는 리눅스입니다. 


CuriO에 대한 자세한 내용은 Nature의 <Sound bytes: sightless coding>을 참고하십시오.



5. 실시간 수어 번역 글로브

UCLA의 바이오 엔지니어링 그룹에서 미국 수어를 실시간 번역해 주는 글로브를 개발했습니다. 이 글로브는 사용자가 착용했을 때 사용자의 손 동작과 손가락 위치를 전기 신호로 변환하여 사용자의 손목 위에 있는 동전 크기의 장치로 전달합니다. 그 다음 손목의 장치는 스마트폰으로 신호를 전송하여 손 위치 및 동작에 해당하는 수어를 텍스트 등으로 변환합니다. 장갑의 재료는 전기 전도율이 높은 폴리머 섬유로 제작되었기에 사용자의 손 움직임을 전기 신호로 변환할 수 있습니다. 또한 가볍고 신축성이 높아 사용자가 쉽게 착용할 수 있습니다. 이에 더해 사용자의 표정을 읽기 위해 눈썹과 입술 옆에 부착하는 별도의 접착식 센서가 있습니다. 번역의 정확도는 99%라고 합니다.


자세한 내용은 Daily Express의 <Glove translates sign language in real-time - '99 percent recognition rate'>를 참고하십시오.



실시간 수어 번역 글로브(사진출처 UCLA)


작가의 이전글 글로벌 접근성 동향 리포트
브런치는 최신 브라우저에 최적화 되어있습니다. IE chrome safari