접근성은 다양한 대안이 마련됐을 때 올라간다
유니버설디자인의 원칙 중에는 ‘최소한의 신체적 부담’이라는 내용이 있습니다. 사람의 힘의 세기와는 관계없이 누구나 편리하게 쓸 수 있어야 하기 때문이죠. 무거운 물건을 들거나 뚜껑을 열거나 하는 등의 물리적 환경에서는 손뿐 아니라 팔, 어깨, 코어 근육이 함께 쓰이기도 합니다. 복합 관절로 연결되는 것이죠. 반면 모바일 환경에서는 손가락 끝을 활용하는 경우가 많습니다. 화면의 버튼 클릭하기, 손가락 옆으로 쓸며 다른 화면으로 넘어가기, 화면 확대와 축소를 위해 손가락을 오므렸다 펼치는 핀치 동작 등이 있습니다. 작은 화면 안에서 손가락이 여러 방향으로 움직여야 하기 때문에 물리적 환경보다 섬세한 동작이 요구됩니다.
위의 모든 동작은 양손을 자유자재로 쓰는 사람들에 한정된 이야기입니다. 양손을 자유롭게 쓰기 어려운 사람은 몇 백만 명은 될 것으로 추산됩니다. 사고로 인해 장애를 가지게 된 지체장애인, 손의 힘조절을 세미하게 하기 어려운 뇌병변 장애인, 75세 이상 어르신 등 경우는 다양합니다. 따라서 제품 작동 방식도 다양하게 접근하는 것이 필요합니다. 양손을 모두 써야 작동하는 것이 아니라 한 손으로도, 더 나아가서는 손으로 작동하지 않더라도 사용할 수 있는 방식이 마련된다면 손 사용에 어려움이 있는 사용자들에게 유용합니다.
좋은 예로 자동차 트렁크가 있습니다. 10년 전 제가 몰고 다니던 90년대 출시된 자동차의 트렁크를 열 때는 열쇠를 트렁크에 직접 꽂은 뒤 돌려서 트렁크의 잠금 상태를 해지했습니다. 그리고 트렁크 문을 직접 위로 들어 올렸죠. 완전한 아날로그 방식 그 자체였습니다. 만약 휠체어 이용 장애인이 트렁크를 이용한다면 위로 열려 있는 트렁크 문을 다시 닫을 때 손을 높이 뻗어야 하므로 혼자만의 힘으로 트렁크를 이용하기 어려웠을 것입니다. 그 뒤로 개선된 차량은 전동식으로 트렁크 뒷부분에 있는 버튼을 누르면 가볍게 문이 열렸습니다. 그리고 스마트키가 보급되면서 현재 출시되는 대부분의 거의 모든 차는 스마트 키 하나만 가지고 트렁크를 열고 닫을 수 있습니다. 또한 사람이 스마트키를 가지고 차량 후방에 서 있으면 자동으로 트렁크 문이 열립니다. 스마트 테일게이트 smart tailgate라고 불리는 기능인데요. 양손에 물건을 가득 들어 양손을 자유롭게 쓰지 못하는 사람에게도 유용하지만, 휠체어 이용 장애인이나 한 손을 가지고 있는 사람들도 편리하게 사용할 수 있습니다.
자동차 트렁크의 진화 외에 접근 방식이 다양해진 예시는 전화 통화가 있습니다. 애플의 시리나 삼성의 빅스비 같은 음성인식 비서가 나오기 전까지 다른 사람과 통화를 하기 위해서는 무조건 손으로 버튼을 일일이 눌러야만 했죠. 하지만 이제는 “000 연결해 줘”와 같이 목소리로 명령하면 쉽게 전화를 연결할 수 있습니다. 최근 저와 통화를 한 전맹 시각장애인 선생님께 여쭤보니 전화걸 때는 무조건 음성 인식 기능을 사용한다고 합니다. 가끔 택시 운전을 하는 분들처럼 양손을 쓰기 어려운 경우에도 유용하죠. 이러한 기능은 위급 상황 시 응급 구조 요청을 하는 데도 편리합니다. 시각장애인이나 지체장애인은 핸드폰을 손으로 직접 들거나 버튼을 직접 누르지 않고서도 119에 연결할 수 있습니다.
모바일 화면에서 사용자의 시선을 따라 움직이면서 원하는 명령을 실행할 수 있는 방법이 계속해서 확장되고 있습니다. 뇌성마비, 척수손상, 파킨슨 병 등으로 인해 스크린 화면을 정교하게 터치하기 어려운 사람들에게도 편리함을 줄 수 있기 때문입니다. 사용자의 시선을 활용하는 기술이 보편화되기 전에는 별도의 스위치를 활용해 핸드폰이나 태블릿을 작동했습니다. 2018년 유럽 사회혁신 임팩트 프라이즈에서 수상한 마우스 포 올 Mouse 4 All 이 그 예입니다. 자체적으로 개발한 장치를 스마트폰이나 태블릿에 연결하고 머리 쪽 스위치, 혹은 입을 활용한 스위치 등을 연결하면 사용자가 화면을 직접 터치하지 않고서도 버튼을 누르거나 이동할 수 있습니다. 다만 특수 보조기구의 성격이 강하기 때문에 널리 확장되지는 못한 것으로 보입니다.
2020년 구글의 실험 프로젝트로 출시된 애플리케이션인 룩 투 스피크 Look to Speak에서는 본격적으로 사용자 시선을 활용한 기술이 실제 앱에 적용된 사례를 보여줍니다. 이들은 손 사용에 어려움이 있는 사람뿐 아니라 언어로 소통하는 데 어려움이 있는 전 세계 수백만 명의 사람에게 주목했습니다. 앱 사용 방식은 매우 직관적입니다만 눈을 좌우로 계속해서 움직여야 하는 약간의 어려움은 있습니다. 눈이 아프다는 솔직한 피드백을 준 사람도 있습니다. 우선 앱을 켜면 미리 작성된 단어와 문구를 선택할 수 있는데요. 복잡한 이동 없이 좌측과 우측을 바라보는 두 가지 선택지가 제공되며 시선을 위로 올릴 경우 취소하거나 반복할 수 있습니다. 최종적으로 문구가 선택되면 해당 문장을 애플리케이션이 대신하여 말해줍니다.
가장 좋은 디자인은 '접근 가능한 디자인'이라고 말했던 휠체어 이용 장애인이자 오바마 정부 접근성 자문 위원인 카렌 브렛마이어의 말이 떠오릅니다. 다른 사람과 대화하고 정보를 찾고, 콘텐츠를 읽고 보는 모든 활동들은 장애 유무와 관계없이 공평하게 제공되어야 하기 때문입니다.
누군가는 손으로 터치를 하지만, 누군가는 손가락 마디로 터치를 합니다. 또한 애플의 접근성 필름에서 나온 것처럼 누군가는 손으로 운전을 하지만 누군가는 양손이 없어서 발로 운전을 하는 사람이 있는 것처럼 말입니다. 더 세밀하게 본다면 같은 동작도 조금씩 다른 심리를 가진 사용자가 있고, 동일 동작을 수행하기까지 각기 다른 에너지가 소모된다는 것을 인지해야 합니다. 모바일 화면에서 버튼을 클릭하는 데도 '이게 잘 눌리는 건가?' 약간의 의구심을 품은 어르신들의 경우처럼 꾹꾹 누르는 사람이 있는가 하면, 손에 많은 떨림이 있는 뇌병변 장애인처럼 정확하게 위치를 잡아서 누르는 데 불편한 사람도 있습니다. 따라서 손으로 터치하는 것은 기본적으로 제공하지만, 터치하지 않고도 작동할 수 있는 대안이 항상 마련되어야 합니다. 동일한 제품과 서비스를 다른 방식으로 경험하는 사람이 있다는 것에 대한 생각이 뒷받침되어야 하는 것이죠.