brunch

You can make anything
by writing

C.S.Lewis

by SISU Dec 03. 2015

A11Y

"보이지 않는  질서 (1)"

"Accessibility치밀한 질서,

눈과 손 사이에 놓인 간극에 다리를

놓아주다."




사람이 가지고 있는 감각 중, 시각은 아마 절대적인 우위를 차지하고 있을 것입니다.

사람은 눈을 통해 나열할 수 없을 만큼의 수많은 정보와 감정, 그 이상의 것을 뇌로 전달합니다. 그리고 이런 눈의 능력은 Portable device에서 그 진가를 발휘합니다. 우리가 매일 사용하는 스마트폰, 가만히 내버려두면 그저 손바닥 남짓한 직사각형을 눈은 단숨에 유기적이고 무한히 팽창 가능한 존재로 만들어 버립니다.


Device의 표면을 바라봅니다.

여러 가지 shape의 아이콘들, 다양한 컬러, 정돈된 Text, 질서 있게  배치된 컴포넌트들과 레이아웃을 감지합니다.

Device의 공간을 인식합니다.

Swipe을 통해 면적을 넓혀가고, Scroll을 통해 길이를 확장시킵니다. 화면을 전환하며 Layer를 쌓아 올리고, Visual effect를 통해 Depth를 만들어 갑니다.  


이렇듯, 사람들은 시각을 통해 한정된 사이즈의 평면을 무궁무진하게 깊어지는 가상의 공간으로 사용하고 있습니다.  




대부분의 사람들은 자연스러운 눈의 능력을 통해 힘들이지 않고 매일 스마트폰을 사용하고 있습니다. 여기서 힘듦이란, 적어도 내가 현재 어떤 화면과 마주하고 있는지, 이 아이콘을 누르면 어떤 화면이 나타나는지, 최상위에 있는 화면이 어떤 것인지 상상하지 않고 즉각적으로 알 수 있다는 것입니다. 초입에서 언급했듯, 사람들은 식별-인지-반응 등 대부분의 피드백을 눈을 통해 받아들이고 있습니다. 그렇다면 눈이 보이지 않거나(전맹), 눈이 잘 보이지 않는 사람들(저시력자)은 어떻게 해야 할까요.


#01. 보이지 않는 사람들을 위한 치밀한 질서-VoiceOver

제조사 및 OS별 정확한 명칭은 iOS-VoiceOver / Google Android-TalkBack / Samsung touchwiz-Voice Assistant입니다. 한 번도 접하시지 못한 분들은 Settings > Accessibility > Vision 항목에서 해당 기능을 경험해보시길 권유드립니다. 기능 명칭에서도 알 수 있듯이, 전맹은 청각에 절대적으로 의존하여 스마폰을 사용하게 되므로, 일반적인 스마트폰 사용법과는 다른 질서를 가지고 있습니다.



전맹은 정확한 컴포넌트의 위치를 알 수 없기 때문에, 화면 어느 곳에서든 '쓸기(Swipe)' 동작을 통해 Focus를 이동시킬 수 있습니다. 일반인들은 눈으로 아이템을 식별할 수 있지만, 전맹은 음성으로 식별해야 하기 때문에 One tap에 정보를 음성으로 제공받고, Double tap에 해당 아이템을 선택할 수 있습니다.

쓸기와 Double tap은 '음성 가이드' 모드에서 아주 기본적인 동작이며, 이 외에도 다양한 손가락 Gesture를 Shortcut으로 지정하여 효율적으로 스마트폰을 사용하고 있습니다. 이해를 돕기 위해 몇 가지 동작을 더 설명드리겠습니다. (Gesture는 제조사 및 OS에 따라 차이가 있으며, 아래 Gesture는 iphone을 기준으로 작성되었습니다.)

두 손가락 Double tap: Music 일시정지 or 재생

세 손가락 Swipe: Scroll or Swipe(현재 List의 총 개수, Home화면에서의 page 등을 음성으로 함께 제공)

세 손가락 Tap: VoiceOver 기능 일시정지 or 실행

네 손가락 Double tap: Gesture help 기능(Gesture 별 기능 설명) 일시정지 or 실행
*참고링크 1: Apple의 Accessibility Main site
*참고링크 2: iphone의 VoiceOver 동작에 대한 자세한 설명 site




CSUN 학회에서 실제 전맹들의 스마트폰 사용법을 본 것은 책상 앞에서 UX를 하는 것이 얼마나 현실과 괴리가 큰 것인지를 일깨워주는 경험이었습니다. 그들은 여느 일반인과 다를 바 없이, 빠르게 원하는 App에 진입하고 전화를 걸고, Camera로 풍경을 찍고, 갤러리 동호회를 만들어 찍은 사진들을 서로 공유했습니다. 가장 놀라운 것은 알아들을 수 없을 정도로 빠른 '음성 가이드'의 속도였습니다. 그만큼 반복적인 노력을 통해, 자주 쓰는 컴포넌트의 위치를 외우고 머릿속으로 화면의 Flow 들을 끊임없이 그리고 있는 것이라 생각됩니다.

스마트폰을 한 번도 보지 못한 그들은 어떻게 그 흐름들을 그리는 걸까요? 제가 바라본 그들은 그 어떤 UI 디자이너들보다 질서 있게 화면을 구성했습니다. 지금까지 경험하여 축적해온 일반적인 사고(형상화, 추상화, 패턴인식 및 형성, 유추, 통합 등)로 눈이 아닌, 보이지 않는 공간에서 그 Flow 들을 하나씩 그리고 연결해가고 있었습니다. 생각해보면 아주 기본적인 principle 일 수 있습니다. 글쓰기를 할 때 가장 먼저 제목을 적듯, App의 제일 상단에는 Title이 있을 것입니다. 그리고 하단의 콘텐츠들을 그루핑 하여 한 번에 정돈할 수 있는 통합 기능은 상단에 배치될 것입니다. 해당 App의 핵심기능이나 빈번하게 사용하는 기능들은 손의 파지 범위에 가까운 곳에 있을 가능성이 크겠지요. 이처럼, 그들은 어쩌면 UX 디자이너보다 더 원초적이고 근본적으로 스마트폰에 접근하고 있는지도 모릅니다.

LOW-HIGH Text 대신, Sticker의 갯수로 강-약을 알려주고 있음


전맹의 스마트폰 접근법을 고려해본다면, VoiceOver나 Talkback과 같은 '음성 가이드'는 UX 설계 단계 중 가장 기초시공 단계 즉, Basic infrastructure에  포함되어야 합니다. 하지만 안타깝게도 아직 많은 App들이 UI 및 GUI 작업을 모두 거친 후, '음성 가이드'를 고려하는 경우가 많습니다. 이렇게 순서가 역전될 경우, Flow의 흐름이 엉켜 컴포넌트를 읽어주는 순서에 일관성이 없게 되고, 개발 적용 시에도 risk가 발생하여 많은 부작용을 낳게 됩니다.


Basic principle 단계에서 Accessibility가 외면당하는 이유는 여러 가지를 들 수 있겠으나, 첫 째는 UX를 만드는 디자이너들의 경험 부족이라고 생각합니다. 저의 경우도 당연히 그러했는데, 안경조차 쓰지 않는 제가 저시력이나 맹인의 Device 경험을 함께 녹여내기엔 너무나도 '정상' 범주의 신체 조건을 가지고 있는 것, 그리고 간접적으로도 그들과 가까이   생활해본 적이 없었기 때문에 그들의 Device 사용성을 항상 막연하게 '추측'만 했던 것입니다. 두 번째로는 개발과의 긴밀성을 들 수 있겠는데 GUI의 경우, Focus line 하나만을 정의하지만 UI에서는 각 컴포넌트 별(Title, Button, Image 하나까지도 모두) 항목들을 어떻게 읽어줘야 할지 고민해야 하며, 개발단에서는 이 모든 컴포넌트들이 '음성 가이드'로 출력될 수 있도록 밑단 작업을 진행해야 합니다. 따라서, 초반에 UX-개발 간 많은 커뮤니케이션이 요구되지만 이런 부분들이 간과되는 경우가 많습니다. 마지막으로 가장 큰 이유는 전맹의 Device 사용성과 일반인의 사용성을 분리해서 생각하기 때문입니다. 맹인은 단지 눈이 아닌 음성 가이드로 Device를 시작할 뿐, 일반인과 동일한 사고방식으로 Smart phone을 사용해 나갑니다. 전맹을 위해 치밀하게 짜인 보이지 않는 Flow는 결국, 일반인에게도 매끄럽고 타당한 Device 경험을 제공할 것입니다.



덧+

'보이지 않는 질서'란 주제로 시각과  관련된 Accessibility 기능을 써 내려가고 있지만, 아주 세세한 기능의 정의나 Feature 들을 적진 않았습니다. 사실 '음성 가이드'란 기능을 굳이 GUI에 한정하자면, User가 화면을 터치했을 때 네모로 둘러주는 Focus 라인의 정의가 '제가 (가이드 화) 할 수 있는 거의 모두'라고 할 수 있습니다. 그만큼 UI와 개발 의존도가 큰 기능이라 GUI 디자이너들에겐 굉장히 낯설 수 있지만, 들려드리고 싶었던 내용은 이 기능 자체에 대한 것보다 '눈이 보이지 않는 User들이 어떻게 Device에  접근하는가'였습니다. 제가 몇 년간 직·간접적으로 보고 느낀 결론은, 그들 역시 일반인들과 마찬가지로 끊임없이 탐구하고 사고하며 Device를 익혀간다는 것입니다. '어차피 안 보일 텐데 이 기능을 쓸 수는 있을까'라고 여겼던 것은 그들이 아닌, UX를 만드는 우리가 그들의 한계를 단정 지어 버린 것은 아닐까 생각됩니다.  

헬렌 켈러는 보거나 듣지 못하는 세계를 어떻게 이해했나

헬렌 켈러는 자신의 유추 작업에 대해 다음과 같이 표현하고 있다.
"나는 관찰한다, 나는 느낀다, 나는 상상한다···. 나는 셀 수 없을 만큼 다양한 인상과 경험, 개념을 결합한다. 이 가공의 재료를 가지고 내 머릿속에서 하나의 이미지를 만들어낸다. 세계의 안과 밖 사이에는 영원히 마르지 않는, 닮은 것들로 가득 찬 바다가 있지 않은가. 내가 손에 들고 있는 꽃의 신선함은 내가 맛본 갓 딴 사과의 신선함과 닮았다. 나는 이러한 유사성을 이용해서 색에 대한 개념을 확장한다. 내가 표면과 떨림과 맛과 냄새들의 특질에서 이끌어낸 유사성은 보고 듣고 만져서 찾아낸 유사성과 같은 것이다. 이 사실이 나를 견디게 했고 눈과 손 사이에 놓인 간극에 다리를 놓아주었다."
(발췌: '생각의 탄생' 중에서)
작가의 이전글 A11Y
브런치는 최신 브라우저에 최적화 되어있습니다. IE chrome safari