brunch

매거진 읽어요 책

You can make anything
by writing

C.S.Lewis

by 띵북 Sep 28. 2021

인공지능은 인간과 사랑을 나눌 수 있을까

인공지능의 미래를 탐색하는 7가지 철학 수업 / 인공지능, 마음을 묻다


나 : 나 오늘 우울해.

클로바 : 재미있는 이야기를 듣고 웃어보시는 건 어떨까요? 들려드릴까요?

나 : 응

클로바 : 컬투쇼 레전드 편입니다.


그 후로도 나는 여러 번 같은 말을 반복했고 인공지능 클로바는

"너무 슬퍼 마세요 아픈 마음을 어루만져주는 음악 들려드릴까요?", "마음을 위로해 줄 수 있는 스피치를 들어보는 건 어떠세요? " , "그럴 땐 울고 나면 기분이 한결 나아질지도 몰라요 주위 신경 안 쓰고 편하게 들을 수 있는 시끄러운 음악 틀어드릴까요?" 등 매번 다른 답을 내놓았다.

그리고 내가 싫다고 거부하자 "다음번에 당신이 좋아하실만한 걸 더 연구해 올게요. 기운 내세요"라는 최종 답을 내놓는다.

비록 인공지능이지만 사람의 우울한 감정을 이해한 듯 도움이 될 만한 것들을 제안하며 상담자로서의 역할을 충실히 해준다.


인공지능은 마음을 가질 수 있을까?

인공지능은 생각을 가지고, 인간을 사랑하고 속일 수도 있을까?

앞으로 인류가 직면할 인공지능의 문제를 예견하고 인공지능의 미래를 탐색하는 7가지 철학 수업 김선희 『인공지능, 마음을 묻다』  이다.



인공지능 클로바와 여러 번 대화를 시도하면 매번 다른 답을 내놓는데, 여러 단어들을 조합해 짜여진 알고리즘대로 답을 내놓는 일정한 패턴이 있음을 알게 된다.

그런데 인간처럼 사고하고 마음을 느끼고 공감하며 인간과 사랑을 할 수 있는 '인간형 인공지능'이 출현한다면 어떤 문제들이 발생하고 우린 어떻게 대처해야 할까?

책은 공학의 원리만으로 해명할 수 없는 철학적 접근으로 인공지능에게 마음을 묻는다. (인공지능의 사고와 작동 원리의 이론적 개념에 익숙한 나에게 철학이 들어가니 오히려 머리가 아파온다^^;)

그리고 인간 지성의 대표적인 영역인 사고와 직관, 감정과 공감, 의식, 생명, 개성, 예술과 문화, 사랑, 젠더와 편견, 기계학습, 공정성과 신뢰 문제 등의 주제에 대해 인공지능은 어떻게 사고하고 어떻게 인간의 지적 과제를 수행하는지 살펴본다.


출처 : 한겨레출판사


우리는 인공지능을 신뢰할 수 있을까?


인간의 마음을 설명하는 이론 중 기능주의라는 것이 있다. 인공지능은 이 기능주의 모델에 따른 것으로 사고하고 지적 과제를 이행한다. 한마디로 학습하고 행동하는 것으로 이세돌 9단과 대국을 펼친 알파고를 떠올릴 수 있다.

감정에도 기능화가 가능하다면 인공지능도 감정을 표현하고 행동할 수 있을 것이다. 지금은 짜여진 알고리즘에 따라 감정 모방을 하지만 인공지능 기술이 발전해 의식을 가진 기계가 나온다면 인공지능도 반성적 성찰과 의식을 가지고 행동할 것이다. 그리고 우리는 기계를 인간처럼 보게 될지도 인간을 기계처럼 보게 될지도 모르는 인공지능 시대를 살아갈지도 모른다.


그런데 인공지능이 인간들의 지능을 합한 것보다 더 우월한 지능을 갖게 되는 초지능의 단계가 된다면, 문제를 해결하기 위해 인간에게 의존하지 않고 스스로 새로운 데이터를 생산해내고 알고리즘을 만들어 낸다면, 인간의 통제에서 벗어난 위험한 대상이 될 수 있을 것이다.


터키어는 3인칭 대명사(그, 그녀, 그들)에서 성별이 구분되지 않는 언어이다. 예컨대 남녀 구별 없이 ‘그 사람은 의사다, 그 사람은 베이비시터다’라고 표기한다. 그런데 구글 번역기는 이 문장을 영어로 ‘그 남자는 의사다, 그 여자는 베이비시터다’라고 번역했다. 터키어가 성별이 표시되지 않는 언어인데도, 의사의 성을 남성 베이비시터의 성은 여성이라고 역할에 따라 다르게 성별을 부여한 것이다. 이 일은 인공지능이 간호사나 돌보미의 역할은 여성성으로, 의사나 법조인 등 전문직이나 권위적 지위의 역할은 남성성으로 규정하는 낡은 젠더 규범을 그대로 반영하고 있음을 보여준다._본문 p.167


인공지능이 사회의 성 역할을 비롯한 젠더 편견을 그대로 반영한 위의 사례로 저자는 이것이 편견을 넘어 차별과 불공정의 심각한 문제를 불러일으킬 수 있다고 말한다. 예컨데, 인공지능 직업 면접관이 있다면 여성보다 남성에게 더 좋은 점수를 줄 수 있다는 것이다.


성, 인종, 계급, 소수자에 관한 사회문화적 편견이 기계학습 과정에서 입력 데이터와 알고리즘에 개입하고 강화되는 다양한 경로를 통해 편견을 가진 인공지능이 등장하는 것입니다._본문 p.179


그동안 부조리함에 지친 사람들은 인간보다 차라리 인공지능이 낫다며 인공지능 판사, 인공지능 의사, 인공지능 면접관 등 다양한 분야에서 인공지능에게 공정한 판정을 받기 바라고 있다.

하지만 인공지능은 그동안 사람들이 만들어놓은 차별적인 편견을 모방하고 학습함으로써 불공정해질수 있다는 걸 구글 번역과 인공지능 챗봇 이루다의 사례로 직감할 수 있다.


저자는 이런 인공지능의 편향성을 교정하기 위해서는 자료 수집 단계부터 편향적이고 왜곡된 자료를 검토하고 교정하는 것은 물론이고 인공지능 설계자의 편향을 점검해야 한다 말한다.

내가 이 부분에 대해 회의적인 생각이 드는 건, 인공지능에게 인간의 가치나 윤리를 가르친다고 하더라도 그게 공정한 윤리이며 올바른 가치인지를 누가 어떻게 정의할 것이며 그것이 하나의 정답이 될 수도 없다는 것이다. 그 또한 사회적 합의점에 도달하기에는 너무나도 많은 경우의 수와 다양한 의견과 주장들로 합의점에 도달하기에 오랜 시간이 걸릴 것이다.


그럼에도 불구하고 반드시 그것을 해내야 하는 이유는 인간을 지키기 위해 인공지능에게 적용된 윤리와 인간의 가치가 그 목표를 수행하기 위해 인간 자체를 멸종시키는 일도 발생할 수도 있기 때문이다. (예컨대, 지구의 환경오염을 막기 위한 가장 효과적인 방법은 인류를 제거하는 것이라고 판단할 수도 있다는 것)


미래 가상현실 테마파크에서 인간들의 노리개로 쓰이던 로봇들이 반란을 일으켜 인류를 위협하는 이야기 미드 웨스트 월드


기계가 사람의 일자리를 위협하기 이전에 어쩌면 전 인류를 위협할 수 있는 시대가 올지도 모른다. 우리가 인공지능의 원리를 이해하고 인공지능에게 과학과 함께 철학을 도입해 합리적 성찰을 돕는다면 다른 결과를 가져올 수도 있다.

그렇기에 저자는 인공지능에게 철학적 물음으로 탐구하고 연구하는 과정을 통해 인공지능의 인문학적 성찰을 마련하려 한다.

그리고 인공지능 기술이 주는 편리함과 효용의 혜택만을 부각시킬 것이 아니라 그것이 초래할 수 있는 사태에 대해서도 신중하게 고려하고 대비할 수 있어야 한다 말한다.


일반인들도 인공지능에 대해 쉽게 접근하고 이해할 수 있게 구성되어 있다고 했지만 인공지능에 철학을 더하니 더욱 고민하고 생각할 부분이 많아 나에겐 더 어려웠던 거 같다.

하지만 인공지능이 인간을 초월할 때 인류의 미래에 위험이 될 수 있으며 인류를 멸종 시킬 수 있다고 경고해온 스티븐 호킹의 말을 쉽게 넘길 수 없는 이유는 우리가 이 책을 읽어야 하는 이유이기도 하다.

매거진의 이전글 왜 혐오의 역사는 반복될까
브런치는 최신 브라우저에 최적화 되어있습니다. IE chrome safari