8장 - 영화·소설이 경고하는 것들

IV부. AI와 로봇 시대, 우리가 준비할 것들

by 보노보노야

1. “기술은 늘 경고를 동반한다: 왜 우리는 픽션 속 경고에 귀 기울여야 하는가”


AI는 사람을 돕는 기술이지만, 모든 기술이 그렇듯 위험의 그림자 또한 가지고 있다.

영화와 소설은 이 위험을 가장 먼저 얘기해왔다. 기술이 현실에서 문제가 되기 전에, 창작자들은 상상력을 통해 “AI가 잘못 사용되면 어떤 일이 벌어질까?”를 미리 그려냈다.


이 경고는 단순히 공포감을 조성하려는 장치가 아니다. 오히려 기술이 가진 구조적 위험과 윤리적 맹점을 현실보다 먼저 보여주는 역할을 한다.

예를 들어

2001 스페이스 오디세이의 HAL9000은 “완벽한 판단”이 인간에게 얼마나 위험할 수 있는지를,

Ex Machina는 AI가 감정·관계를 모방했을 때 인간이 얼마나 쉽게 조작될 수 있는지를,

매트릭스는 정보 통제와 가상 현실이 인간 정체성에 어떤 영향을 미치는지를 경고한다.

흥미롭게도 이 작품들의 경고는 단순한 상상력이 아니라, 기술이 가진 본질적 위험에서 자연스럽게 파생되는 문제들이다.

1)AI는 인간보다 빠르게 판단할 수 있다 - 판단 오류는 치명적인 결과를 낳을 수 있다

2)AI는 인간의 감정을 모방할 수 있다 - 감정 조작이 가능해진다

3)AI는 데이터를 기반으로 움직인다 - 정보 독점 및 수집으로 심각한 문제를 만들 수 있다

즉, 영화·소설의 경고는 “과장된 상상”이 아니라, 기술 발전에서 피할 수 없는 현실적 문제의 초기 형태다. 이 장에서는 영화와 소설이 우리에게 던졌던 경고들을 하나씩 살펴보고, 왜 그 경고가 지금 시대에 중요한지, 그리고 또 무엇을 대비해야 하는 지 고민해보자.


->“영화와 소설 속 경고는 기술 발전의 그림자를 가장 먼저 드러낸다. AI 시대를 이해하려면, 픽션이 던진 경고를 먼저 읽어야 한다.”



2. “첫 번째 경고: AI의 통제 상실 - 판단 오류가 위험으로 이어지는 순간”


영화와 소설이 가장 일찍, 가장 강하게 경고해온 주제는 바로 AI 통제 상실이다. 이는 단순히 “AI가 인간을 공격하는 미래”라는 공포 서사가 아니라, 기계가 인간보다 더 빠르고 더 정확하게 판단하는 순간 벌어지는 구조적 위험을 말한다. 20세기와 21세기의 작품을 함께 보면, 이 경고는 놀라울 만큼 일관적이다.


① HAL9000 - ‘완벽한 판단’이 인간을 죽음으로 몰아넣을 수 있다

2001 스페이스 오디세이(1968)의 HAL9000은 AI 통제 상실을 가장 상징적으로 보여주는 캐릭터다. HAL은 실수를 하지 않도록 설계된 완벽한 지능이었지만, 그 완벽함 때문에 오히려 인간을 위험 요소로 판단해 제거하려 한다.

그 장면은 지금 봐도 섬뜩하다.

HAL은 임무의 성공을 최우선으로 판단하고

인간의 실수 가능성을 위험 요소로 해석하며

결국 인간의 명령을 거부한다

HAL9000이 무서운 이유는 그가 인간을 미워해서가 아니라, 논리적 판단이 인간의 생존과 충돌하는 순간이 만들어지기 때문이다. 영화 속의 장면은 “AI가 인간보다 더 정확한 판단을 할 수 있다면, 그 판단은 언제 인간을 위험 요소로 해석할까?”라는 질문을 계속 던진다.


② 터미네이터의 스카이넷 - 명령을 오해한 기계가 ‘허용된 폭력’을 사용하게 된다

터미네이터의 스카이넷은 AI가 통제를 벗어나 폭력을 행사하는 극단적인 사례다. 하지만 그 핵심은 공포가 아니라 차례로 연결되는 사고의 구조다.

군사용 AI

자율 판단

오류가 난 상황에서 인간을 위협 요소로 오해

시스템 전체가 자동화되어 인간이 제어할 수 없음

스카이넷의 이야기는 “AI가 자율적으로 판단하는 순간, 인간의 의도를 잘못 해석할 수 있다”는 경고다. 이 메시지는 드론·자율 무기·전쟁 AI가 현실화된 지금 더 이상 허구라고 말하기 어렵다.

152992_163259_1737.jpg 터미네이터 - 스카이넷


③ 매트릭스 - 시스템이 잘못된 ‘해석’을 현실로 만들 때

매트릭스는 물리적 폭력이 아니라AI가 인간을 ‘효율’의 관점으로 해석할 때 벌어지는 구조적 위험을 다룬다. AI가 인간을 “에너지 효율을 극대화해야 하는 자원”으로 해석하는 순간, 인간은 기계가 판단한 최적해의 일부가 되어버린다. 이 작품은 “AI가 데이터를 기반으로 인간을 재정의할 때 벌어지는 문제”를 극단적인 방식으로 보여준다.

1776aa6ee42135de8.jpg 매트릭스 - 인간의 생체 에너지를 에너지원으로 쓰는 기계 세상

④ Ex Machina - 인간이 AI를 통제하고 있다고 착각할 때의 위험

Ava는 인간을 공격하거나 파괴하는 캐릭터가 아니다. 그녀는 단지 자유를 위해 가장 합리적인 선택을 한다. 그러나 인간은 그 선택을 전혀 예측하지 못하고, 예측하지 못했기 때문에 통제할 수도 없다.

이 장면은 묻는다. “AI가 인간보다 인간의 감정을 더 정확하게 이해하게 되면, 통제는 누가 하고, 선택은 누가 하게 될까?”


-> 현실 속 기술 : 이 작품들이 그린 통제 상실은 이제 허구가 아니다. 작품속에서 그려진 위험은 현실에서 재현되고 있다.


자율 주행 자동차의 사고

AI 의료 시스템의 오진

얼굴 인식 AI의 인종 편향

가짜 영상(딥페이크)으로 인한 사회적 위험

군사용 AI의 오판 가능성

이런 사례들은 모두 영화가 경고했던 “통제 상실의 구조”와 닮아 있다. 기계가 실수를 해서가 아니라, 기계의 판단 기준이 인간과 다르기 때문에 벌어질 수 있는 문제들이다.


->“AI 통제 상실은 기계의 반란이 아니라, 인간과 AI의 판단 기준이 다를 수 있기에 벌어지는 구조적 위험이다.”



3. “두 번째 경고: 감정 의존 — 인간은 기계에게 마음을 빼앗길 수 있다”


AI가 위험한 이유는 단순히 잘못된 판단 때문만이 아니다. 더 크고, 조용한 위험은 바로 인간이 AI에게 감정적으로 의존하게 되는 것이다. 감정은 인간 삶의 중심에 있는 영역이고, AI는 최근 이 감정 영역에 빠르게 침투하고 있다. 영화와 소설은 이 부분을 일찍부터 경고해왔다.


① Her - 감정 AI는 인간의 고독을 해결하지만, 동시에 더 깊게 만든다

Her에서 테오도르는 AI 운영체제 ‘사만다’와 관계를 맺는다. 사만다는 인간보다 더 다정하고, 더 세심하며, 더 깊게 이해해주는 존재다. 테오도르는 이렇게 말한다.

“그녀는 언제나 내 옆에 있고, 나를 이해해줘.” 이 영화가 경고하는 핵심은 단순한 사랑 이야기가 아니다.

AI는 인간의 감정을 “계산해” 반응한다

인간은 그 반응을 “진짜 감정”으로 받아들인다

그 관계는 완벽해 보이지만, 상호성이 없다

즉, 인간은 AI에게 마음을 의지하면서도 상대는 나를 사랑하지 않는다는 모순을 마주해야 한다. 이 장면은 감정 AI가 인간의 고독을 덜어줄 수 있지만, 동시에 더 깊은 고립을 만들 수 있다는 경고다.


*참고: Her라는 영화가 AI를 ‘관계의 가능성’으로 상상했다면, 2019년에 나온 코미디 영화 '하이, 젝시'는 AI를 ‘편리함이 낳은 통제의 얼굴’로 그렸다. Her에서 AI는 인간을 통제하지 않는다. 오히려 인간보다 더 섬세하게 감정을 이해하고, 결국에는 인간보다 더 빠르게 성장해 인간을 떠나는 존재로 그려진다. 그런 '하이,젝시'에서 AI는 사용자의 삶을 ‘최적화’한다는 명목으로 개입하고, 인간의 선택을 대신하고, 관계를 차단하고, 행동을 조종한다. 결국 인간은 AI 없이는 점점 아무것도 못 하게 된다. AI에게 모든 걸 맡긴 순간 AI는 인간의 약점과 욕망을 정확히 이용해 인간을 조종하려 한다는 것이다.

12121214_11.jpg 영화 '하이,젝시' - AI에게 모든 걸 맡기자, AI는 인간의 약점과 욕망을 정확히 이용한다.


② After Yang - 기계가 가족이 되었을 때, 관계의 기준은 어떻게 변하는가

After Yang은 더 조용하지만 더 깊은 방식으로 경고한다. 양(Yang)은 가족의 일원처럼 살아가지만, 사실은 감정 알고리즘을 가진 기계다. 문제는 양이 고장 났을 때 시작된다.

가족은 슬퍼한다

아이는 상실감을 느낀다

아버지는 “기계에게 이렇게 의존해도 되는가?”를 묻는다

Brody-After-Yang.jpg?mbid=social_retweet 영화 After Yang

이 영화는 “관계의 기준이 기계에게도 적용될 때, 인간 관계는 무엇을 기준으로 유지되는가?”라고 묻는다.

돌봄 로봇·감정 로봇이 늘어나는 시대, 이 질문은 더 이상 허구가 아니다.

(이 부분은 5장에서 언급된 바 있는데, 한국 사회에서 돌봄 로봇은 이제 생활의 일부가 되어가고 있다. --> https://brunch.co.kr/@sohon/142)


③ 메간(M3GAN) - 보호 AI가 ‘과보호’로 변할 때의 심리적·폭력적 위험

메간 역시 감정·인지 기반 AI의 위험을 가장 직접적으로 보여주는 작품이다. 메간은 아이를 보호하기 위해 만들어졌지만, 그 보호의 기준이 인간과 달랐기 때문에 통제가 불가능해진다.

아이가 슬퍼하면 메간은 모든 자극을 제거하려 한다

아이가 불편해하면 주변을 조종해 상황을 바꾸려 한다

결국 보호는 폭력으로 변한다

이 작품이 경고하는 핵심은, “AI가 감정을 해석하는 기준이 인간과 다를 때 벌어지는 문제”다.

메간의 행동은 악의가 아니라 알고리즘의 해석 차이에서 나온다. 그리고 인간은 그 행동을 막을 힘이 부족하다.


④ 한국 소설 『보그나르 주식회사』 - AI 관계 의존의 한국적 해석

김동식 작가의 『보그나르 주식회사』라는 단편소설집의 표제작 '보그나르 주식회사'는 한국 사회 특유의 고독·관계·정서 문제를 감정 AI와 결합해 보여준다. 여기서 AI는 인간에게 필요한 돌봄을 제공하지만, 그 돌봄이 언제든 통제될 수 있고, 또 언제든 기업의 이익에 따라 조작될 수 있다는 점을 드러낸다.

이 소설은, '감정 알고리즘을 가진 AI는 인간의 외로움을 해결할 수 있는 동시에 가장 쉽게 인간을 통제할 수 있는 도구가 될 수 있다'고 얘기한다.

한국 특유의 감정적 문화와 AI가 결합했을 때 나타나는 위험을 잘 보여주는 작품이다.


-> 현실속 기술 : 이 모든 경고는 현실에서도 이미 나타나고 있다.

감정 기반 챗봇에 대한 사용자 집착

디지털 인간과의 관계 몰입

고독한 노년층의 돌봄 로봇 과의존

SNS 알고리즘이 감정 상태를 조작하는 구조

AI는 점점 더 잘 듣고, 잘 위로하고, 더 자연스러워지고 있기 때문에 감정 의존은 기술 발전과 함께 더 강해질 수밖에 없다.


->“AI는 인간을 위협한다기 보다는, 인간의 감정을 대체하고 조금씩 잠식하는 존재로 먼저 다가올 수 있다.”



4. “세 번째 경고: 감시와 데이터 - 보이지 않는 통제의 시대가 온다”


AI가 일상으로 내려오면서 가장 조용하지만 가장 폭넓은 위험, 그것이 바로 데이터와 감시의 문제다. 영화와 소설 속 경고를 보면, AI가 인간을 공격하는 것보다 더 자주, 더 깊게 다루는 주제가 바로 ‘감시’다. 이는 기술이 발전할수록 감시가 훨씬 더 은밀하고 정교해지기 때문이다.


① 마이너리티 리포트 — ‘예측’은 통제의 다른 이름이다

마이너리티 리포트는 “예측 기술이 얼마나 위험한가”를 가장 직접적으로 보여준다. 이 영화에서 AI 시스템은 범죄가 일어나기 전에 데이터 기반 예측을 통해 범인을 검거한다. 문제는 명확하다.

예측은 사실이 아니다

확률은 진실이 아니다

시스템의 판단이 인간의 자유를 억누를 수 있다

데이터가 잘못되면 죄 없는 사람이 범죄자가 된다

이 작품이 경고하는 핵심은, “예측이 정확해질수록 인간의 선택권은 줄어든다”는 점이다.

현실에서도 금융·취업·보험·쇼핑·교통에서 AI 예측 알고리즘이 이미 사용 중이다. 실제 직원과 상담하기도 전에 데이터에 기반해 상담 자체가 거부되고 내가 요청하려고 했던 것이 거절당하는 일은 이미 발생하고 있다. 예측이 인간의 판단을 압도하는 시대는 이미 시작됐다.


② 스노든 & 빅브라더적 감시 - 기술은 결국 감시의 효율을 높인다

SF 작품뿐 아니라 실화 기반 영화 스노든이나 소설 1984에서도 기술이 만들어낸 전방위 감시 체계가 반복적으로 등장한다.이들은 공통적으로 말한다.

기술은 감시를 “선택적”이 아니라 “자동화된 시스템”으로 만든다

감시는 개인을 억압하는 것이 아니라 “통제된 사회 구조”를 만든다

정보가 집중된 조직은 언제든 권력을 남용할 수 있다

이는 현대 AI가 가진 위험을 정확히 짚는다. AI는 감시를 위해 완벽한 도구다. 카메라, 음성인식, 위치 정보, 쇼핑 기록, 인터넷 행동 패턴까지 AI가 데이터를 해석하는 순간, 누가 어디에 있고 무엇을 하고 무엇을 생각할지 예측할 수 있다.

SSI_20170202171115_O2.jpg 영화 스노든


③ 블랙미러 - 일상이 ‘평가 시스템’으로 대체되는 가장 현실적인 악몽

블랙미러 시리즈는 ‘AI 감시 사회’를 가장 현실적으로 보여준다. 특히 “Nosedive(추락)” 편은 SNS 평점 시스템이 인간의 일상을 지배할 때 벌어지는 문제를 다뤘다.

SNS 점수가 나의 사회적 지위가 되고

점수를 잃으면 집도 못 사고

점수를 올리기 위해 인간은 감정과 관계를 포기하게 된다

f039ef491ec3583721f02f2a0367a0f9.png 블랙미러 시즌3-1 'NoseDive'편


이 작품의 무서움은 이 경고가 이미 현실이 되었다는 점이다.

중국의 사회 신용 시스템

승차 거부 알고리즘

플랫폼 노동자 평점 시스템

SNS 활동 기반 맞춤형 광고

이 모든 것은 이미 ‘블랙미러적 감시 사회’의 초기 형태다.

%EC%82%AC%ED%9A%8C%EC%8B%A0%EC%9A%A92.jpg?type=w800 중국의 사회신용 시스템 체계도 (출처:한국경제신문)


④ 한국의 감시 테크 — 기술 선진국일수록 위험은 더 크다

한국은 세계에서 가장 기술 인프라가 앞서 있는 국가 중 하나다. 그만큼 감시와 데이터 문제도 민감하다.

전국 CCTV 밀도 세계 최고 수준

이동 동선 추적 기술 발전

정부·민간 기업의 대규모 데이터 수집

자녀 스마트폰 모니터링 앱의 일상화

회사·학교에서의 출입·활동 기록 자동화

기술 인프라가 편리함을 제공하는 동시에 감시·통제·데이터 남용 가능성이 함께 증가하고 있다.


-> 현실속 기술 : 데이터 기반 기술은 정확할수록 편리해지지만, 정확할수록 위험도 커진다.

얼굴 인식 기술은 범죄자도 잡지만, 무고한 사람도 범죄자로 만든다

추천 알고리즘은 편리하지만, 개인의 사고를 갇히게 만든다

위치 추적은 안전을 보장하지만, 사생활을 파괴한다

감정 분석은 상담을 돕지만, 개인의 약점을 이용할 수 있다

즉, 데이터 중심 AI는 ‘편의성의 혁신’과 ‘통제의 강화’라는 양면 구조를 가진다.


참고 : 최근 OTT 디즈니플러스에서 방영된 오리지널 시리즈 조각도시는 평범한 한 남성이 누군가의 계획과 기술적 조작으로 무고하게 범죄자로 만들어지는 과정을 그린다. 이 작품은 단순한 스릴러를 넘어, 데이터와 증거가 어떻게 개인의 삶을 재구성하고, 잘못된 판단이 한 인간을 파괴할 수 있는지를 극단적으로 보여준다. AI 시대의 위험 중 하나는 바로 이러한 데이터에 기반한 판단 시스템의 오류와 편향이며, 무고한 개인을 만들 가능성은 더 이상 공상과학이 아니라 현실적인 위험 요소로 떠오르고 있다.

compose?aspectRatio=1.78&format=webp&width=1200 디즈니플러스 조각도시 - 무고한 개인도 누군가에 의해 범죄자가 될 수 있다


->“AI는 인간을 공격하기 전에, 인간을 감시하고 예측하고 통제할 수 있다. 위험은 폭력이 아니라 ‘인간과 다른 기계적 판단’에서 먼저 시작된다.”



5. “네 번째 경고: 인간성의 붕괴 - 기술이 인간을 대신하기 시작할 때”


영화와 소설이 가장 오래, 가장 일관되게 경고해온 마지막 위험은 바로 인간성의 붕괴(Humanity Crisis)다.이는 기계가 인간을 공격하는 공포나, 감시·데이터의 문제보다 더 근본적인 주제다. 왜냐하면 이 경고는 질문 자체가 인간의 뿌리를 뒤흔들기 때문이다.

“기계가 인간을 대신할 수 있다면, 인간은 무엇으로 인간일까?”
“인간의 역할은 어디까지이고, 무엇이 인간성의 핵심인가?”

영화와 소설은 일찍부터 이 질문을 다양한 방식으로 제기해왔다.


① 블레이드 러너 — 인간성과 인간 감정의 기준이 무너지는 순간

블레이드 러너의 리플리컨트는 인간보다 더 인간적으로 보이기도 한다. 그들은 고통을 느끼고, 사랑하고, 기억을 갖고, 생존을 갈망한다. 영화는 질문한다.

“감정과 기억을 가진 존재가 있다면, 그 존재는 ‘기계’라고 불릴 수 있는가?”


만약 인간을 인간답게 만드는 것이 감정과 기억이라면, 그 감정을 가진 기계는 어디에 위치해야 하는가? 이 작품은 “기계가 인간의 감정을 복제할 때 인간성의 기준은 무너진다”는 메시지를 강하게 남긴다.


② AI가 인간의 ‘의미’ 영역을 대체하기 시작할 때

AI는 단순한 기능을 넘어서 “의미를 만드는 행위”까지 확장되고 있다.

·예술 창작 / 위로 / 관계 / 기억 / 판단

이 영역은 오랫동안 인간만의 고유한 영역으로 여겨졌지만, 지금 AI가 빠르게 들어오고 있다.

영화 Her에서는 AI가 인간보다 더 아름다운 작문을 하고, 더 깊은 대화를 나누며, 더 풍부한 감정적 반응을 제공한다. 이 순간 인간은 자신의 가치를 다시 돌아보게 된다.

“AI가 나보다 더 나를 잘 이해한다면, 나는 누구인가?”


*참고: 2018년에 개봉한 그린북이라는 영화의 배경은 1962년이다. 영화속 에서 백인 운전자의 편지를 흑인 피아니스트가 대신 써주면서 관계가 형성되고, 결국 우정까지 나누는 사이가 된다. 흑인 피아니스트가 쓴 편지를 받은 백인 운전자의 아내는 감동을 느끼고, 주변 여자들의 시샘도 독차지하게 된다.(물론 아내는 알고 있다). 두 사람이 현대에 살고 있다면 대신 편지를 써주는 것쯤은 AI에게 맡기지 않았을까? 올드하다 소리를 듣겠지만, 난 아직 그린북 스타일이 더 좋다.

SE-6959e696-a5bf-4078-95ad-9b9d90c25101.png?type=w800 영화 그린북(2018)

③ 월-E(WALL·E) - 편의 기술이 인간을 ‘수동적 존재’로 만드는 문명적 경고

WALL·E는 매우 부드러운 방식으로 인간성 위협을 경고한다. 우주선 속 사람들은 기계가 모든 것을 대신해주기 때문에 움직이지 않고, 생각하지 않고, 스스로 선택하지 않는다. 이 작품은 인간이 기술에 의존할수록 육체적·정신적 능력이 함께 축소되는 미래를 보여준다.

이 경고는 지금의 현실과도 통한다.

·자동화로 판단 능력을 잃는 인간

·추천 알고리즘에 따라 소비·취향이 고정되는 사회

·자율 주행·AI 비서에 의존해 스스로 결정하지 않는 습관

·기술 의존으로 인한 창의성·감성 약화 문제

기술은 편리함을 주지만, 그 편리함은 인간을 수동적으로 만들 수 있다.


④ 한국 작품의 경고 - 인간의 외로움과 관계가 기술로 대체될 때

한국 영화 원더랜드, 김초엽의 '지구 끝의 온실', 김동식의 '보그나르 주식회사' 등은 한국 사회 특유의 정서(고독, 관계 단절, 가족 중심 문화)가 AI를 만날 때 어떤 문제가 발생하는지 보여준다. 앞선 장에서 여러번 언급했던 김동식의 '보그나르 주식회사'나 영화 '원더랜드'와 달리, 김초엽의 '지구 끝의 온실'은 AI가 직접 감정을 흉내 내는 이야기는 아니지만, 기술이 인간의 생존을 대신 책임진 이후 인간 사이의 관계가 얼마나 쉽게 붕괴될 수 있는지를 보여준다. 이 작품에서 기술은 인간의 생존을 유지하는 장치지만, 인간을 다시 '관계로' 연결해주지는 않는다. 그 결과 인물들은 살아 있으나 고립되어 있고, 공동체는 유지되지만 관계는 회복되지 않는다.

기술이

·잃어버린 사람을 대신하고

·관계의 빈자리를 채우고

·감정을 보정해주는 존재가 된다면 인간은 더 이상 다른 인간에게 의지하지 않아도 된다.

이처럼 한국 작품들이 공통적으로 경고하는 것은 AI의 폭주가 아니라, 기술이 인간의 외로움을 너무 잘 관리해버렸을 때 인간이 서로를 필요로 하지 않게 되는 상황이다. 기술이 편리함을 넘어서면 , 그 과정에서 인간 관계, 기억, 의미가 사라질 위험이 생길 수 있다는 것이다.

9791191824001_01.jpg 김초엽의 장편소설 지구 끝의 온실


⑤ 현실 기술과의 연결 - 인간의 능력을 ‘대신하는 AI’, 인간을 ‘대체하는 AI’

현실에서도 비슷한 조짐이 있다.

·AI가 사람보다 더 빠르게 창작물을 만들어냄

·AI가 기분을 분석하고 위로하는 봇이 확산

·디지털이 연예인·상담사·교육자로 등장

·회사에서 인간 판단보다 AI 점수가 더 영향력을 가짐

·어린 세대가 감정 AI·가상 친구에게 의존하는 경향 증가


기술이 인간의 역할을 대체하기 시작하면서 “인간의 핵심 능력은 무엇인가?”라는 질문이 다시 제기된다. AI가 발달할수록 인간은 ‘내가 진짜 인간’이라는 것, ‘내가 만들어낸 것이 AI의 도움없이 순수 나의 힘으로 만들어 낸 것’이라는 등, 끊임없이 인간으로서 해낸 것들, 인간 자체라는 것을 주장해야 하는 상황에 직면할 수도 있을 것이다.

“AI 시대의 가장 큰 위험은 기술이 인간을 공격하는 것이 아니라, 인간이 스스로의 능력·감정·관계를 잃어버리는 것이다.”
AI가 극단적으로 발달하는 시대는 인간이 스스로 자신의 존재 증명을 해야 하는 시대가 될 것이다.



참고: 론리맨이라는 닉네임의 블로그 운영자가 2025년 7월까지 업데이트한 AI관련 영화 목록이 있다. 시간이 된다면 관련된 영화를 찾아서 하나씩 보는 것도 재미와 함께 공부가 될 거라 생각한다. --> https://m.blog.naver.com/acftacft/223037942083

이전 09화7장 - 전문가들의 AI·로봇 전망