'나'라는 것이 내 몸 안에 있다는 느낌을 해킹, 조작할 수 있을까?
평소 우리는,
내가 내 몸 안에 있다는 걸 의심하지 않고 살아가요.
하지만, 가끔씩 몽롱한 현실 속에서 있다든가,
잠이 들었을 때 내 몸을 바라보고 있는 듯한 기분 혹은 경험을 하기도 하죠.
이성은 크리에이터는 이러한 경험들을 신경과학과 로보틱스 기술을 이용해 접근해 보고자
이번 <환상이동 연구개발 프로젝트>를 시작하게 되었어요.
이성은 크리에이터는 수면계 신경질환인 기면병으로 인해, 영혼이 몸을 떠나서 존재하는 듯한 '유체이탈'을 자주 경험했다고 해요. 이러한 경험 덕분에 수면마비, 자각몽, 입면 환각 등의 환각적 체험의 신경생리학적
원리, 기술적 조작 가능성, 그리고 의식의 본질에 관해 자연스럽게 관심을 갖게 되었어요.
2012년부터 입체 영상, 햅틱, 로보틱스 등의 기술을 활용하여 사용자의 몸 인지 / 감각을 왜곡시키는 장치들을 제작·발전시켜 왔으며 , 그 결과물을 미디어아트 혹은 설치 미술의 형태로 관객들과 소통해 왔습니다 지난 제작 경험의 실패와 성공을 토대로 , 이번 프로젝트에서는 정량적 측정 실험이 가능한 새로운 형태의 장치를 개발하고 , 실험 방법, 연구 결과를 공유하고자 합니다
이 프로젝트의 핵심 메시지는 '나라는 게 무엇인가' 즉, 자아와 의식에 대한 오래된 질문들에서 출발합니다.
‘나’라는 것이 눈 뒤 어딘가에서 세상을 바라보고 있다고 느껴지는 느낌, 내가 내 몸 안에 있다고 느껴지는
느낌. 그 느낌을 기술적으로 조작할 수 있을지, 그리고 그 조작의 결과가 어떤 내면적 느낌을 줄 수 있을지에 대한 질문과 대화를 만들어 나가는 것입니다.
인간의 오랜 수수께끼인 환각적 체험의 기술적 모방을 통해, 꿈과 현실 / 가상 몸과 물리적 몸의 흐릿한 경계를 포함하는 미래 이동성(Mobility)의 새로운 정의를 고민하고자 합니다.
이번 프로젝트는
1) 시각적 환각을 위한 실시간 몰입형 입체 영상 시스템
2) 웨어러블 동작 복제 로봇
두 가지로 구성됩니다.
스스로의 몸이 멀어지는 시각적 환각을 구현하기 위해, 실시간 몰입형 입체 영상 시스템을 사용합니다. 작동 원리는 사용자의 몸을 바라보는 두 대의 광각 카메라의 영상을 VR용 렌즈와 초소형 디스플레이를 사용하는데요. 오른쪽 카메라의 영상은 오른쪽 눈에, 왼쪽은 왼쪽 눈에 보이며 입체감을 만듭니다.
사용자는 초소형 고화질 디스플레이를 사용하여 자신의 얼굴과 몸을 관찰할 수 있게 됩니다. 이때 소프트웨어를 활용해 왼쪽 눈과 오른쪽 눈 사이의 시간차를 만들고, 슬라이더 시스템을 사용하여 카메라를 이동시키며 가상 몸이 멀어지는 듯한 시각적 환각을 일으킵니다.
스스로의 몸을 만지는 운동·촉각적 환각을 구현하기 위해 웨어러블 동작 복제 로봇을 사용합니다. 작동원리는 사용자가 손에 로봇을 착용하여 팔과 손가락을 움직이게 되는데요. 이때 로봇은 사용자의 움직임을 감지하여 동일하게 움직입니다. 낮은 시간차의 정확힌 힘-피드백 구현을 통해 사용자가 움직이는 손동작과 로봇을 통해 만져지는 촉감 사이의 동기화가 이루어져 촉각적 환각을 일으키게 됩니다.
프로젝트를 통해 우리는 미래사회에서 인간의 몸 위치 인식과 감각이 현실과 가상 사이에서 어떻게 변화할 수 있을지를 이해하고, 새로운 모바일 기술과 로봇공학의 발전에 기여하는 동시에 인간의 의식과 몸에 대한 근본적 이해를 넓히는 것을 목표로 합니다.
또한 환각에 관한 다학제적 연구를 촉진함으로써 새로운 응용 분야를 개척할 수 있습니다. 최종적으로, 인간의 주관적 의식에 대한 이해를 통해 향후 인간의 존엄성과 윤리적 고려가 보다 중요시되는 사회적 환경의 조성을 기대합니다.