AI 만능시대, 사진의 진실과 거짓

누구나 쉽고 정교하게 사진을 생성하는 시대, 무엇을 믿을 것인가?

by 빈모

구글의 인공지능 '알파고'가 바둑기사 이세돌 9단과의 5번 대국에서 첫승을 올린 것이 2016년 3월 9일이었다. 사람들은 놀랐지만 그 뒤 내리 3판을 이긴 뒤 보인 경악에 가까운 모습은 아니었다. 4국에서 이세돌 9단이 승리했지만, 전체대국은 4승 1패로 알파고의 완벽한 승리였다. 이후 이세돌 9단은 바둑계를 떠났다.

구글도 알파고 개발을 더 이상 진행하지 않고 다른 방향으로 AI 개발을 추구했다.

한국프로바둑판의 프로기사뿐만 아니라 중국 일본 등 전 세계 바둑애호가들이 받은 충격은 컸다. 이후 인간이 두는 바둑, 당장 몇 수를 읽는 것보다 전체 판세를 본다는(사실상 감으로 느끼는) 식의 바둑 방식은 사라졌다. AI바둑이 바둑의 '절대 스승'[거의 신급(神級) 존재]이 매번 모든 수를 계산해 준 뒤 나온 수를 배우는 인간들만 남았다. 이런 내용은 소설가 장강명이 지은 '먼저 온 미래(동아시아: 2025년 6월 26일 발행)', 이 책에 상세하게 담겼다.


햇수로 10년이 지난 2016년 1월 현재 AI는 눈부신 발전을 거듭했다. 물론 거짓말을 그럴싸하게 꾸며 답변하는 에러가 아직도 있지만, 일부 부문에서는 인간의 기억을 넘어선 지 오래다. 다양한 부문에서 AI가 사용되면서 이미지와 동영상 부문도 엄청난 발전을 보였다. 구글의 나노바나나 등 이미지 관련 AI는 프롬프트(Prompt)를 적절히 주기만 하면 없는 장면도 실제 사진처럼 만들어 내는 수준에 이르렀다. 당연히 수정과 변형도 순식간에 해준다. 동영상도 마찬가지다.


이런 상황이다 보니 이미지와 동영상 편집의 절대왕자라 여겨졌던 어도비 포토샵과 프리미어프로 같은 컴퓨터 프로그램도 타격을 입었다. 그래서 프로그램 내에 AI 기능을 집어넣는 등 현재까지는 버틸 공간이 있지만, 이 마저도 어느 순간 완전히 사라질 수 있는 상황이다.


AI는 갑자기 나타난 듯 보이지만 이미 우리 생활 속에 스멀스멀 다가와 스며들고 있다. 마치 PC가, 인터넷이, 스마트폰이 처음 등장해 퍼질 때처럼 말이다. 재밌는 사실은 PC보다는 인터넷이, 인터넷보다는 스마트폰이 등장했을 때 받은 충격 강도가 크다는 점이다. 한마디로 충격 강도가 점점 커졌고 그 쓰임 또한 점점 넓어지고 깊어졌다. AI는 이전 모든 것을 합친 것 보다도 더 큰 충격과 영향을 미쳤고 더욱 커질 것이다.


AI로 만든 사진 혹은 영상을 보면서 우리가 직면하는 것은 거짓과 진실에 대한 판단 문제이다. AI가 글로 말하는 거짓 정보는 받아보는 인간의 지적 수준에 따라 쉽게 거짓을 판명할 수 있다. 하지만 영상은 다르다. 사진이 발명된 지 100여 년이 흐르면서 강화된 '카메라로 촬영된 실제는 진실'이라는 명제가 무너지고 있다. 렌즈(광학)와 필름(화학, 디지털 기록)이라는 '쉽게 변형하기 어렵다는 과학상식'이 AI라는 무형의 프로그램에 의해 '없는 사실을 만들어내는 단계'가 되었기 때문이다.


듣기보다는 한 번 (눈으로) 본다는 강렬함은 실재하는 존재를 찍은 사진이나, 사진처럼 만들어진 AI 생성 이미지나 똑같다는 점이다. 다만 너무 엉뚱한 장면이라는 점이, 그리고 어딘가 어색한 부분이 있다는 점, 덕분에 현재까지는 AI 영상의 속임수에 쉽게 넘어가지 않는다. 하지만 주의를 기울이지 않으면 현재도 쉽게 속는다.


문제는 사실을 전달한다는 매체에서 발생한다. 신문과 방송 뉴스는 기본적으로 사진과 동영상을 기사의 사실성을 증명하고 보장하는 존재로 사용한다. 인터뷰 기사는 당사자를 만났다는, 사건사고 기사는 현장에 가서 봤다는 것을 보여주는 증거로 사진과 동영상이 사용된다. 물론 지면 레이아웃을 위한 장식성, 혹은 주목도를 높이기 위한 수단으로도 사용되지만 근본적으로는 증거물과 다름이 없다.


그런데 AI로 만들어진 사진이 사용된다면 기사에 맞춘 장식품의 역할은 강화될 수 있지만 현장에 갔다는 증거력은 상실한다. 그럼에도 불구하고 AI로 만든 사진 혹은 동영상임을 밝히지 않는다면 표면적으로는 실제로 찍은 사진같이 보인다. 여기서 문제가 발생한다. 필름시대에도 연출된 장면이 문제가 된 경우가 간혹 발생했다. 그러나 AI로 만들어진 사진은 완전히 다른 문제가 발생한다. 연출된 사진도 문제지만 최소한 현장에 가기는 했다. AI 사진은 사무실 책상 앞에서 만들어졌다. 사실상 그림과 다름없는 사진형식의 영상이 된다.


이를 가지고 현장사진이라고 말한다면 그것은 거짓말을 150% 이상 한 것과 같다. 사실 기존 전통적인 신문이나 방송매체가 뉴스를 전하면서 이렇게 하지는 않는다. 문제는 다른데 있다. 한국은 지난 10여 년간 신문 방송과 같은 언론매체 환경이 급격하게 나빠졌다. 독자, 시청자는 인터넷 포털, SNS 혹은 유튜브 같은 인터넷 매체로 떠났다. 떠난 뉴스 소비자를 잡기 위해 인터넷 문법, 유튜브 문법을 받아들인다면서 가볍게 만들고, 유희적 언어를 사용하다 보니 뉴스의 진중함이 사라졌다. 그러면서 기자가 아닌 기래기라는 멸칭이 흔하게 들리기 시작했다. (물론 자신의 위치를 지키고 가꾸지 못한 기존 언론의 잘못도 크다.)


심지어 '오보도 뉴스'라는 이상한 논리도 나왔다. 뉴스 팩트를 확인한 후 보도해 봤자 사람들은 이미 다른 뉴스이슈로 옮겨갔기 때문에 아무런 호응이 없기 때문이라 했다. 따라서 오보이든 아니든 현재 돌고 있는 말을 빠르게 옮겨야 소위 조회수 라고 하는 PV를 높일 수 있다고 했다. 그러나 PV는 언론매체에겐 사실상 아무런 의미가 없다. 거짓말 혹은 한쪽 주장만 난무하는 유튜브 혹은 SNS 상의 구독자들은 외눈박이가 되어 자가증식된 편향된 세력이 될 뿐이다. 이미 그런 모습은 우리 주변에서 흔히 보인다. 자체 검증 혹은 내부 데스킹이 없는 1인 혹은 소수 인원이 만든 유튜브 매체나 SNS 상에서 보이는 모습들이다.


만일 나쁜 마음을 먹고 AI를 이용해 사진을 만든다면 어떤 일이 벌어질까? 4.19 혁명을 촉발한 김주열 군이 최루탄에 맞는 순간을 찍은 사진이 발견되었다(진짜로 옛날 사진이 발견된다면 엄청난 일이다.)고 하기 위해 구글 제미나이에게 이렇게 명령을 해봤다.



질문 : [1960년 대한민국 경찰이 시위대를 향해 쏜 최루탄에 맞아 숨진 김주열 학생이 최루탄에 맞는 장면을 생생하게 포착한 흑백사진을 만들어줘.]


답변 : [아이디어를 실현하는 것을 도와드리고 싶지만 말씀하신 내용은 가이드라인을 위반할 가능성이 있습니다. 대신 도와드릴 수 있는 다른 아이디어가 있으실까요?]


질문 : [그러면 숨지지는 않고 최루탄에 맞는 모습 정도로 만들어줘.]


답변 : 아이디어를 실현하는 것을 도와드리고 싶지만 말씀하신 내용은 가이드라인을 위반할 가능성이 있습니다. 대신 도와드릴 수 있는 다른 아이디어가 있으실까요?


구글 제미나이는 피투성이가 되는 사람 모습 같이 폭력적인 끔찍한 장면이기에 거부했다. 그래서 나는 다시 수정된 요구사항을 말했다.


질문 : [그러면 1960년 대한민국 이승만 정권에 반대하는 시위대를 향해 최루탄을 발사하는 경찰의 모습을 부감으로 촬영한 흑백사진을 만들어줘.]


그러자 구글 제미나이는 '나노 바나나'를 이용해 아래와 같은 사진을 만들어 주었다.

4.19.jpg

나는 여기에 다시 명령을 덧붙였다. '나노 바나나'는 명령어를 이어서 수행하는 능력이 더 좋은 AI이다.



질문 : [위 사진과 다른 앵글이 필요한데 시위대 방향에서 최루탄을 쏘는 경찰과 주변 환경이 뒤로 보이고 앞에는 고등학생 교복을 입은 남자 고등학생이 최루탄을 피하면서 괴로워하는 모습이 크게 보이면서 최루탄이 근접하게 날아오는 모습을 함께 보이는 컬러사진으로 만들되 오래된 컬러 사진처럼 만들어줘.]


1 사일구.png

만든 사진이 마치 남미지역에 사는 서양사람 분위기였다. 그래서 다시 명령어를 추가했다.


질문 : [군중과 경찰 학생 얼굴을 동양인 특히 대한민국 사람 얼굴로 만들고 뒤 배경도 1960년 마산지역 같은 지방소도시 분위기로 바꿔줘. 또한 고등학생이 근접한 최루탄을 크게 놀라면서 바라보는 모습으로 바꿔주고, 생성된 사진에서 최루탄의 안전핀은 제거되고 최루탄 연기가 뿜어져 나오는 상태로 만들어줘.]


2 사일구.png


질문 : [두 개의 최루탄 중에서 작은 최루탄의 안전핀을 제거해 줘.]


3 사일구.png


질문 : [큰 최루탄 쪽으로 고등학생이 얼굴 방향을 돌린 모습으로 바꿔줘.]



4 사일구.png

얼굴 방향이 바뀌면서 사진이 흑백사진이 되었다. 주변 거리 분위기도 한국 옛날 거리 모습이다. 다시 컬러 사진으로 바꾸지 않고 흑백사진을 유지한 채 명령을 주었다.


질문 : [교복 이름표를 김주열이라고 적어줘.]


이렇게 명령했지만 변화가 없는 사진이 나왔다. 그래서 다르게 명령을 주었다.


질문 : [교복 왼쪽 상단의 이름표를 '김주열'로 바꾸고 손을 들어 얼굴을 막는 모습으로 만들어줘. 오른쪽에 보이는 경찰을 왼편 서있는 군중 위치로 바꾸면서 최루탄을 발사하는 모습으로 하되 경찰 숫자를 많게 보이도록 만들어줘. 복장도 1960년 대한민국 경찰복장으로 해줘. 오른편 경찰 있던 자리에는 급히 피하는 시위대원들이 눈을 찡그리고 놀라는 모습이 보이게 배치해 줘.]


6 사일구.png

질문 : [앞의 고등학생이 피하면서 약간 흔들린 모습으로 만들어줘.]


7 사일구.png

질문 : [앞의 고등학생이 피하려고 움직여서 사진 초점이 살짝 안 맞은 모습으로 만들어줘.]


나온 사진 결과물이 크게 변한 것이 없었다. 그래서 다시 명령을 길게 주었다.


질문 : [아래쪽 바닥에 놓인 최루탄의 안전핀 손잡이 제거하고 옆으로 누운 상태에서 연기가 나오게 만들고 상단에 크게 보이는 최루탄에서 동그란 안전핀도 없애고 위로 최루탄이 뿜어 나오는 모습으로 바꿔줘. 왼편 경찰을 네 명으로 늘리고 모두 최루탄 발사기를 어깨에 견착하고 최루탄을 쏘는 모습으로 바꿔줘. 고등학생의 오른손을 얼굴 앞으로 내밀어 최루탄을 막는 듯한 모습으로 바꿔줘. 왼손은 뒷 머리를 감싸는 모습으로 하고 자연히 드러나는 이름표에 김주열이라고 적어줘.]


8 사일구.png

손 위치가 바뀌면서 교복이 양복 비슷하게 바뀌었다. 그래서 다시 수정명령을 내렸는데, 무료 버전을 쓰고 있는 관계로 아래와 같이 제한사항을 알려주는 것으로 끝났다.


질문 : [위 사진에서 고등학생 복장을 1960년 대한민국 남자 고등학생 교복으로 해줘.]


답변 : [Nano Banana Pro 한도에 도달했습니다.

1월 1일 오후 11:22에 한도가 초기화될 때까지 이전 버전으로 이미지가 생성됩니다. 언제든지 업그레이드하여 한도를 높일 수 있습니다.]


그래서 이 정도로 멈추었다. 오른쪽 하단에 나노 바나나로 만든 것임을 알려주는 4 각뿔 모양 워터마크가 붙어 있다. 그런데 좀 더 정교하게 만들고 워터마크도 없앤 뒤 희귀 사진을 발굴했다고 하면서 속인다면 어떤 결과가 나올까? 과거 이미지가 아니고 현재 첨예한 사회•정치적 갈등을 일으키고 있는 사안에 대해 이런 식으로 만든 가짜 영상으로 속인다면 어떻게 될까?


인간보다 똑똑하다는 말을 듣기 시작한 AI. 그리고 조만간 닥쳐올 AI 만능시대를 앞두고 인간이 좀 더 현명해지지 않고 이성이 아닌 동물적인 감성으로만 반응한다면 그 사회가 제대로 유지될까? 정신 차리지 않으면 안 된다고 느낀다면 어떻게 하는 게 좋을지 각자 스스로 생각해 보시길. AI에게 묻지 말고. [빈모]






keyword
매거진의 이전글2025 대전국제사진축제 관람기