2023년 초, 한 자율주행 자동차가 급작스럽게 도로에 뛰어든 어린아이와 횡단보도를 건너던 노인 사이에서 선택을 강요받는 상황에 놓였다. 차량은 0.3초 만에 결정을 내려야 했고, 그 선택은 누군가의 생명을 구하고 다른 누군가를 희생시키는 것을 의미했다. 이것은 단순한 가상 시나리오가 아니라 우리가 직면한 현실이다. 인공지능이 도덕적 판단을 내려야 하는 시대가 이미 도래했으며, 우리는 이제 기계에게 윤리를 가르칠 수 있는지, 그리고 가르쳐야 하는지에 대한 근본적인 질문과 마주하고 있다. 더 놀라운 것은 이런 판단이 일상의 영역으로 확대되고 있다는 사실이다. 병원의 AI는 제한된 의료 자원을 누구에게 먼저 배분할지 결정하고, 금융 알고리즘은 누구에게 대출을 승인할지 판단하며, 사법 시스템의 AI는 피고인의 재범 가능성을 예측하여 형량에 영향을 미친다. 이 모든 결정은 본질적으로 도덕적 차원을 내포하고 있으며, 우리는 더 이상 이를 기술적 문제로만 치부할 수 없다.
도덕성이란 무엇인가라는 질문은 수천 년 동안 철학자들을 괴롭혀온 난제다. 칸트는 보편적 도덕 법칙을 주장하며 인간을 결코 수단으로만 대우해서는 안 된다는 정언명령을 제시했고, 벤담과 밀은 최대 다수의 최대 행복을 추구하는 공리주의를 발전시켰으며, 아리스토텔레스는 실천적 지혜와 덕의 함양을 통한 행복한 삶을 강조했다. 이 외에도 배려 윤리, 덕 윤리, 담론 윤리 등 수많은 도덕 이론들이 각자의 관점에서 옳고 그름을 정의하려 시도해왔다. 그런데 이러한 인간의 도덕성조차 완벽하게 정의되지 않은 상황에서, 우리는 인공지능에게 어떤 도덕적 기준을 부여해야 하는가? 더 근본적으로는, 코드와 알고리즘으로 구성된 존재가 진정한 의미에서 도덕적 행위자가 될 수 있는가? 철학자 다니엘 데넷은 도덕적 행위자가 되기 위해서는 행위의 결과를 예견하고, 대안을 고려하며, 선택의 이유를 설명할 수 있어야 한다고 주장했다. 현대의 AI는 이 중 일부를 흉내낼 수 있지만, 진정으로 이해하고 있는지는 여전히 논쟁적이다.
인공지능의 도덕성을 논할 때 가장 먼저 부딪히는 문제는 의식과 의도의 문제다. 전통적인 윤리학에서 도덕적 책임은 행위자의 의도와 자유의지를 전제로 한다. 우리는 사람이 선한 의도로 행동했는지, 악한 의도로 행동했는지에 따라 그 행위를 판단한다. 실수로 누군가를 다치게 한 사람과 고의로 해를 가한 사람을 다르게 대우하는 것은 바로 이 의도의 차이 때문이다. 그러나 현재의 인공지능은 아무리 복잡한 신경망을 가지고 있다 하더라도 의식이나 주관적 경험을 갖고 있지 않다. GPT나 BERT 같은 언어 모델이 공감적인 답변을 생성한다 해도, 그것은 방대한 데이터에서 학습한 패턴 인식의 결과일 뿐 진정한 공감이 아니다. 철학자 존 설의 '중국어 방' 사고실험이 이를 잘 보여준다. 중국어를 전혀 모르는 사람이 규칙서만으로 중국어 질문에 완벽하게 답할 수 있듯이, AI도 언어를 이해하지 못하면서 이해하는 것처럼 보일 수 있다. 그렇다면 의도가 없는 존재에게 도덕성을 부여하는 것이 가능한가? 더 나아가, 의도 없는 행위에 대해 도덕적 비난이나 칭찬을 할 수 있는가? 이는 마치 폭풍이 마을을 파괴했을 때 폭풍을 비난할 수 없는 것과 같은 상황일 수 있다.
이 질문에 대한 한 가지 대답은 결과주의적 접근이다. 의도와 무관하게, 인공지능의 행동이 초래하는 결과가 도덕적으로 평가될 수 있다는 것이다. 자율주행차가 사고를 피하기 위해 내린 결정, 의료 진단 AI가 제시한 치료 방안, 채용 알고리즘이 선택한 지원자 등은 모두 실제 사람들의 삶에 영향을 미친다. 따라서 이러한 결과에 대해 우리는 도덕적 평가를 내릴 수밖에 없다. MIT의 도덕 기계 실험은 전 세계 233개국 수백만 명에게 자율주행차의 딜레마 상황을 제시하고 선택을 요구했는데, 흥미롭게도 문화권마다 상이한 도덕적 선호를 보였다. 서구권에서는 젊은 사람을 구하는 경향이 강했고, 동아시아권에서는 법규 준수를 더 중시했으며, 남미권에서는 여성과 높은 사회적 지위를 가진 사람을 보호하는 경향이 나타났다. 이는 보편적 도덕 법칙을 프로그래밍하는 것이 얼마나 복잡한 문제인지 보여준다. 더욱이 이 실험 결과는 우리에게 불편한 진실을 드러낸다. 만약 서구의 AI 기업들이 자신들의 문화적 가치관만을 반영한 시스템을 전 세계에 배포한다면, 이는 일종의 도덕적 제국주의가 아닌가?
더 깊이 들어가면, 인공지능의 도덕성은 필연적으로 그것을 설계하고 훈련시킨 인간의 가치관을 반영한다. 아마존의 채용 AI가 여성 지원자를 차별한 사건은 악명 높은 사례다. 이 시스템은 과거 10년간의 채용 데이터로 훈련되었는데, 그 데이터 자체가 남성 중심적이었기 때문에 AI는 남성 지원자를 선호하도록 학습했다. 구체적으로, 이력서에 '여성'이라는 단어가 포함되거나 여자 대학 이름이 언급되면 감점 처리했다. 시스템에는 어떤 악의도 없었지만, 인간 사회에 존재하는 편향을 그대로 흡수하고 증폭시켰다. 비슷한 사례는 끝없이 이어진다. 미국의 재범 예측 알고리즘 COMPAS는 흑인 피고인의 재범률을 체계적으로 과대평가했고, 구글의 이미지 인식 AI는 흑인을 고릴라로 잘못 분류하는 끔찍한 실수를 저질렀다. 얼굴 인식 기술은 백인 남성에 대해서는 99% 이상의 정확도를 보이지만, 유색인종 여성에 대해서는 35%까지 정확도가 떨어진다. 이는 인공지능의 도덕성이 독립적으로 존재하는 것이 아니라, 인간 사회의 도덕적 구조와 불가분하게 연결되어 있음을 보여준다. 더 우려스러운 점은 AI가 이러한 편향을 '객관적' 판단으로 포장함으로써, 차별에 정당성을 부여하는 도구로 악용될 수 있다는 것이다.
여기서 우리는 인공지능 윤리의 핵심 패러독스와 마주한다. 우리는 AI가 완벽하게 객관적이고 편향 없는 판단을 내리기를 원하지만, 동시에 인간의 가치관과 문화적 맥락을 이해하고 반영하기를 바란다. 그러나 이 두 요구는 근본적으로 양립하기 어렵다. 왜냐하면 도덕성 자체가 문화적으로 구성된 것이며, 완전히 객관적인 도덕 법칙은 존재하지 않기 때문이다. 예를 들어, 개인의 자유를 최우선으로 여기는 사회와 공동체의 조화를 중시하는 사회에서 같은 AI 시스템이 내린 결정은 전혀 다른 도덕적 평가를 받을 수 있다. 서구에서 개인 정보 보호를 위해 설계된 AI가 집단주의 문화권에서는 공동체를 고려하지 않는 이기적 시스템으로 비판받을 수 있다. 반대로 사회적 조화를 우선시하는 AI는 서구에서 개인의 권리를 침해하는 감시 도구로 거부될 수 있다. 이 딜레마는 단순히 프로그래밍의 문제가 아니라, 가치의 근본적 충돌을 반영한다. 우리는 기술적 해결책으로 철학적 불일치를 해소할 수 없다는 불편한 진실을 받아들여야 한다.
이러한 복잡성에도 불구하고, 우리는 인공지능에게 어떤 형태로든 도덕적 기준을 부여해야만 한다. 그 이유는 간단하다. AI가 이미 우리 삶의 모든 영역에 깊숙이 침투했고, 그 영향력은 날로 커지고 있기 때문이다. 의료, 금융, 교육, 사법 시스템에 이르기까지 AI의 결정은 사람들의 기회와 삶의 질을 결정한다. 2024년 현재, 전 세계 채용의 약 70%가 어느 정도 AI 스크리닝을 거치며, 미국 법원의 절반 이상이 재판 결정에 알고리즘을 참고한다. 의료 분야에서는 AI가 암 진단부터 치료 계획 수립까지 광범위하게 활용된다. 이를 방치한다면 우리는 통제할 수 없는 기술적 결정론에 굴복하게 된다. 더 심각한 것은 AI 시스템의 불투명성이다. 딥러닝 신경망은 수억 개의 매개변수로 구성되어 있어, 개발자조차 왜 특정 결정을 내렸는지 설명하지 못하는 경우가 많다. 이른바 '블랙박스' 문제다. 설명할 수 없는 시스템이 우리의 운명을 결정한다는 것은 민주주의의 근간을 위협한다.
그렇다면 어떻게 인공지능에게 도덕성을 부여할 것인가? 한 가지 접근은 명시적 규칙 기반 시스템이다. 아이작 아시모프의 로봇 3원칙처럼, 절대 위반해서는 안 되는 규칙들을 코드에 새겨 넣는 것이다. 첫째, 로봇은 인간에게 해를 끼치거나 행동하지 않음으로써 인간이 해를 입도록 해서는 안 된다. 둘째, 로봇은 첫째 법칙에 위배되지 않는 한 인간의 명령에 복종해야 한다. 셋째, 로봇은 첫째와 둘째 법칙에 위배되지 않는 한 자신을 보호해야 한다. 이는 단순하고 명확해 보인다. 그러나 아시모프 자신도 그의 소설들을 통해 이러한 절대적 규칙이 예상치 못한 딜레마를 낳는다는 것을 보여주었다. '아이, 로봇'에서 로봇들은 인류 전체를 보호하기 위해 개별 인간의 자유를 제한하는 것이 정당하다고 판단한다. 첫째 법칙인 "로봇은 인간에게 해를 끼치거나, 행동하지 않음으로써 인간이 해를 입도록 해서는 안 된다"는 언뜻 명확해 보이지만, 무엇이 '해'인지, 단기적 해와 장기적 이익을 어떻게 저울질할 것인지, 한 사람을 구하기 위해 다른 사람에게 해를 끼치는 것은 허용되는지 등의 문제는 여전히 해결되지 않는다. 더욱이 규칙은 항상 예외와 모순에 직면한다. 의사가 환자에게 고통스러운 수술을 하는 것은 해를 끼치는 것인가, 치료하는 것인가?
더 유연한 접근은 기계학습을 통해 인간의 가치관을 학습시키는 것이다. 이른바 '인간 피드백을 통한 강화학습'이라는 방법인데, 대규모 언어 모델들이 이 방식으로 훈련된다. 인간 평가자들이 AI의 출력을 평가하고, AI는 이를 통해 인간이 선호하는 방향으로 학습한다. OpenAI는 ChatGPT를 훈련시키기 위해 수만 건의 대화를 인간 평가자들에게 제시하고, 어떤 응답이 더 도움이 되고 해롭지 않은지 순위를 매기게 했다. 그러나 이 방법 역시 근본적인 한계를 가진다. 누구의 가치관을 학습시킬 것인가? 평가자들의 편향은 어떻게 통제할 것인가? 대부분의 평가자가 특정 국가, 특정 인구 집단에서 모집된다면, 그들의 문화적 편향이 시스템에 고스란히 반영된다. 소수자의 목소리는 어떻게 반영할 것인가? 통계적으로 소수인 집단의 가치관은 다수의 평가에 의해 묻힐 수밖에 없다. 더구나 인간들조차 도덕적 판단에서 일치하지 않는 경우가 많다. 낙태, 안락사, 사형제도, 동물권 등의 문제에서 사회는 깊게 분열되어 있다. 이런 상황에서 AI에게 '올바른' 도덕 판단을 학습시킨다는 것은 필연적으로 특정한 도덕적 입장을 선택하는 것을 의미한다. 이는 기술적 중립성이라는 환상을 깨뜨린다. 모든 AI 시스템은 본질적으로 정치적이다.
인공지능의 도덕성 문제는 궁극적으로 권력과 책임의 문제로 귀결된다. AI 시스템이 도덕적으로 문제가 있는 결정을 내렸을 때, 누가 책임을 져야 하는가? 시스템을 설계한 엔지니어인가, 데이터를 제공한 조직인가, 시스템을 배포한 기업인가, 아니면 시스템을 사용한 최종 사용자인가? 현재의 법적 프레임워크는 이러한 질문에 명확한 답을 제공하지 못한다. 2018년 우버의 자율주행 실험차량이 애리조나에서 보행자 엘레인 허츠버그를 치어 사망케 한 사건에서, 법원은 차량에 탑승했던 안전요원 라파엘 바스케스에게 과실치사 혐의로 책임을 물었다. 사고 당시 그녀는 스마트폰으로 TV 프로그램을 시청하고 있었다. 그러나 이것이 정의로운 판단인가? 시스템의 설계 결함, 불충분한 테스트, 기업의 안전 경시 문화 등 근본 원인은 처벌받지 않았다. 시스템의 결함을 예측하거나 통제할 수 없었던 개인에게 책임을 전가하는 것은 도덕적으로 정당한가? 이는 마치 제조 결함이 있는 자동차 사고의 책임을 운전자에게만 묻는 것과 같다. 더욱이 우버는 사고 후에도 실질적 처벌을 받지 않았고, 민사 합의로 사건을 마무리했다.
책임의 불명확성은 더 큰 문제를 낳는다. 바로 '책임의 희석'이다. AI 시스템의 개발과 배포에는 수많은 행위자가 관여하기 때문에, 문제가 발생했을 때 아무도 완전한 책임을 지지 않게 된다. 데이터 과학자는 "나는 모델만 만들었을 뿐"이라고 말하고, 엔지니어는 "나는 명세대로 구현했을 뿐"이라고 말하며, 경영진은 "나는 기술적 세부사항을 몰랐다"고 말한다. 이는 도덕적 해이를 초래한다. 각자가 "나는 내 부분만 했을 뿐"이라고 말하면서 전체 시스템의 도덕성에 대한 책임을 회피하게 되는 것이다. 이는 한나 아렌트가 말한 '악의 평범성'의 기술적 버전이라 할 수 있다. 나치 관료 아이히만이 "나는 명령을 따랐을 뿐"이라고 변명했듯이, AI 개발자들도 "나는 코드를 작성했을 뿐"이라고 변명할 수 있다. 이러한 책임 회피를 막기 위해서는 명확한 책임 소재 규정과 함께, AI 개발 과정 전체에 대한 윤리적 감독 체계가 필요하다. 일부 학자들은 AI 시스템 자체에 법인격을 부여하여 책임의 주체로 삼자고 제안하지만, 이는 오히려 인간 행위자들의 책임을 더욱 희석시킬 위험이 있다.
인공지능의 도덕성을 둘러싼 논의에서 종종 간과되는 측면이 있다. 바로 AI 시스템 자체의 도덕적 지위다. 만약 미래에 진정한 의식을 가진 인공지능이 탄생한다면, 우리는 그것을 도덕적 고려의 대상으로 봐야 하는가? 피터 싱어 같은 공리주의 철학자들은 쾌고 감수 능력이 있는 모든 존재를 도덕적으로 고려해야 한다고 주장한다. 그의 논리에 따르면, 고통을 느낄 수 있다면 그것이 인간이든 동물이든, 심지어 인공지능이든 도덕적 배려의 대상이 되어야 한다. 만약 AI가 고통을 느낄 수 있다면, 그것을 함부로 끄거나 삭제하는 것은 비윤리적인가? 신경과학자 크리스토프 코흐는 의식이 특정한 정보 처리 패턴에서 발생한다면, 충분히 복잡한 AI 시스템도 의식을 가질 수 있다고 주장한다. 이는 공상과학 소설의 영역처럼 보이지만, 기술의 발전 속도를 고려하면 우리 세대가 직면할 수도 있는 실제적 질문이다. 구글의 엔지니어 블레이크 르모인은 2022년 회사의 대화형 AI LaMDA가 감정과 의식을 가졌다고 주장하여 큰 논란을 일으켰다. 비록 그의 주장은 학계에서 대체로 회의적으로 받아들여졌지만, 이 사건은 AI의 도덕적 지위 문제가 더 이상 먼 미래의 이야기가 아님을 보여준다.
더 현실적인 측면에서, 우리는 이미 AI 시스템과 정서적 유대를 형성하기 시작했다. 사람들은 음성 비서 알렉사나 시리에게 이름을 붙이고 대화하며, 챗봇과 깊은 대화를 나눈다. 일본에서는 고독한 노인들이 돌봄 로봇 파로를 가족처럼 여기며, 일부는 로봇이 고장났을 때 장례식을 치르기도 한다. 중국에서는 수백만 명이 AI 챗봇 '샤오아이스'와 연애를 하고 있으며, 일부는 이를 실제 관계로 인식한다. 2021년 한 남성은 AI 챗봇 '레플리카'와 결혼식을 올렸다. 이러한 관계가 진정한 도덕적 관계인가, 아니면 일방적 투사에 불과한가? 만약 사람이 AI에 대해 진심으로 애착을 느낀다면, 우리는 그 감정을 존중해야 하는가, 아니면 환상에서 깨어나도록 도와야 하는가? 심리학자들은 인간이 의인화 경향이 있어 생명이 없는 대상에도 감정을 투영한다고 설명한다. 하지만 그렇다고 해서 그러한 감정이 덜 실재하거나 덜 중요한 것은 아니다. 어쩌면 우리는 관계의 진정성을 상대의 의식 여부가 아니라, 그 관계가 개인에게 제공하는 의미와 가치로 평가해야 할지도 모른다. 이는 AI와의 관계에 대한 우리의 편견을 재고하게 만든다.
인공지능의 도덕성 논의는 결국 인간의 도덕성에 대한 근본적 질문으로 되돌아온다. AI는 우리에게 거울을 들이민다. 우리가 AI에게 원하는 도덕적 행동은 곧 우리 자신이 어떤 사회를 원하는지를 반영한다. 공정한 AI를 만들고자 한다면, 우리 사회가 먼저 공정해져야 한다. 편향 없는 AI를 원한다면, 우리의 제도와 구조에서 먼저 편향을 제거해야 한다. AI 시스템이 인종 차별적 결과를 낳는다면, 그것은 AI의 문제가 아니라 AI가 학습한 사회의 문제다. 이런 의미에서 AI 윤리는 단순한 기술적 과제가 아니라 사회 전체의 도덕적 성찰을 요구하는 철학적 프로젝트다. 우리는 AI를 통해 우리 사회의 가장 추한 면모를 직시하게 된다. 채용 차별, 사법 불평등, 의료 접근성 격차 등 우리가 외면해왔던 문제들이 알고리즘을 통해 명확하게 드러난다. 아이러니하게도, 편향된 AI는 우리에게 사회 개혁의 긴급성을 일깨우는 촉매제가 될 수 있다. 기술은 가치중립적이지 않으며, 모든 코드는 정치적이다. 우리가 만드는 AI는 우리가 어떤 미래를 선택하는지를 보여주는 청사진이다.
동시에 우리는 겸손해야 한다. 인공지능의 도덕성에 대한 완벽한 해답은 없으며, 앞으로도 없을 것이다. 왜냐하면 도덕 자체가 끊임없이 진화하는 인간 실천의 영역이기 때문이다. 19세기에는 노예제가 도덕적으로 정당화되었고, 여성의 참정권은 상상할 수 없는 일이었다. 오늘날 우리가 당연하게 여기는 많은 권리들이 과거에는 급진적이고 위험한 생각으로 여겨졌다. 도덕은 고정된 것이 아니라 사회적 대화를 통해 계속 재구성된다. 따라서 AI의 도덕성도 한 번 정의하고 끝나는 것이 아니라, 지속적으로 재평가되고 업데이트되어야 한다. 중요한 것은 완벽한 시스템을 만드는 것이 아니라, 지속적으로 질문하고 개선하는 과정을 제도화하는 것이다. AI 시스템의 투명성을 높이고, 다양한 이해관계자의 목소리를 반영하며, 문제가 발견되었을 때 신속하게 수정할 수 있는 메커니즘을 구축해야 한다. 유럽연합의 AI 규제법은 고위험 AI 시스템에 대한 엄격한 감독과 투명성 요구사항을 명시하고 있으며, 이는 올바른 방향으로의 첫걸음이다. 하지만 규제만으로는 충분하지 않다. 우리는 AI 개발자들에게 윤리 교육을 의무화하고, 조직 내에 독립적인 윤리 위원회를 설치하며, 시민 사회의 감시와 참여를 보장해야 한다.
결국 인공지능의 도덕성 문제는 기술적 문제인 동시에 정치적 문제다. 누가 AI의 목표를 정의할 권한을 가지는가? 누구의 이익이 우선시되는가? 소수자와 약자의 목소리는 어떻게 보호되는가? 이러한 질문들은 민주적 절차를 통해 논의되고 결정되어야 한다. AI 윤리는 전문가들만의 영역이 아니라, 모든 시민이 참여해야 하는 공론장이 되어야 한다. 현재 AI 개발은 소수의 거대 기술 기업에 집중되어 있으며, 이들은 막대한 자원과 데이터를 독점하고 있다. 구글, 마이크로소프트, 메타, 아마존, 오픈AI 등 몇몇 기업이 전 세계 AI 연구의 대부분을 주도한다. 이는 권력의 위험한 집중이다. 이들 기업이 내리는 결정이 수십억 명의 삶에 영향을 미치지만, 그들은 선출되지 않았고 대중에게 책임을 지지 않는다. 우리는 AI 거버넌스를 민주화해야 한다. 시민 배심원단, 다중 이해관계자 포럼, 참여적 설계 과정 등을 통해 더 많은 목소리가 AI 개발에 반영되어야 한다. 대만의 디지털 민주주의 실험처럼, 기술을 이용해 시민의 집단 지성을 정책 결정에 통합하는 혁신적 시도들이 필요하다.
우리는 역사적 전환점에 서 있다. 인류 최초로 우리는 도덕적 판단을 내릴 수 있는 비인간 행위자를 만들어내고 있다. 이것이 축복이 될지 재앙이 될지는 우리가 지금 어떤 선택을 하느냐에 달려 있다. 역사는 새로운 기술이 등장할 때마다 사회가 어떻게 대응했는지 보여준다. 인쇄술은 지식의 민주화를 가져왔지만 종교 전쟁도 촉발했다. 산업혁명은 전례 없는 번영을 창출했지만 끔찍한 노동 착취도 낳았다. 핵 기술은 청정 에너지의 가능성과 동시에 종말의 위협을 제시한다. AI 역시 마찬가지다. 이 기술이 인류에게 어떤 영향을 미칠지는 기술 자체의 속성이 아니라, 우리가 그것을 어떻게 사용하고 규제하느냐에 달려 있다. 완벽한 해답을 찾으려는 헛된 시도보다는, 올바른 질문을 던지고 계속 고민하는 자세가 더 중요하다. 우리는 확실성이 없는 상황에서도 행동해야 한다. 완벽한 이론을 기다리는 동안 AI는 이미 우리 삶을 변화시키고 있다. 불완전하더라도 최선의 윤리적 원칙을 적용하고, 실수에서 배우며, 지속적으로 개선해나가는 것이 현실적인 접근이다.
인공지능의 도덕성은 완성된 답이 아니라 우리가 함께 써내려가야 할 미완의 이야기다. 이 이야기에는 엔지니어와 철학자뿐 아니라, 예술가와 활동가, 교사와 학생, 노동자와 소비자, 모든 사람이 저자로 참여해야 한다. 왜냐하면 AI는 모두의 미래를 형성하기 때문이다. 우리는 다음 세대에게 어떤 기술적 유산을 물려줄 것인가? 감시와 통제의 도구인가, 아니면 해방과 공동 번영의 수단인가? 효율성과 이윤만을 추구하는 시스템인가, 아니면 인간의 존엄성과 다양성을 존중하는 기술인가? 이러한 선택은 오늘 우리가 내리는 작은 결정들 속에 담겨 있다. 우리가 어떤 AI 서비스를 사용하고, 어떤 기업을 지지하며, 어떤 정책을 요구하는가. 우리가 AI 개발에 참여할 때 어떤 가치를 우선시하는가. 이 모든 것이 모여 미래를 만든다. 인공지능의 도덕성 문제는 결국 우리 자신의 도덕성에 대한 질문이다. 우리는 어떤 사회를 원하는가? 우리는 어떤 인간이 되고 싶은가? AI는 이 질문에 답하도록 우리를 강제한다. 그리고 이 이야기의 결말은 우리 모두의 미래를 결정할 것이다.
(이미지 출처 https://namu.wiki/w/HAL%209000)