— 판단과 책임의 굴레에서 시작되는 결심
지피티를 통해서 인공지능을 자주 접하게 되지만,
지피티가 아니라도 인공지능은 우리 삶에 많이 들어 있습니다.
아니, 너무 많이 있다고 해도 과언이 아닙니다.
차만 타면 항상 내비게이션을 켜서 길을 확인합니다.
항상 가는 길인데도 내비게이션의 경로를 보면서 어느 정도 안심하는 제가 있습니다.
특히, 평소보다 늦어질 것 같다면 내비게이션을 확인하여 여러 길을 찾아보곤 합니다.
어느날 아내와 함께 출근하던 날입니다.
평소보다 조금 늦게 출발한 상황,
갑자기 내비게이션이 다른 길을 안내했습니다.
본래의 길이라면 조금 아슬아슬할지도 모르는 상황.
결국 저는 내비의 안내에 따라 길을 바꾸었습니다.
결과는 참담했습니다.
이동한 길이 좁았고 도중에 사고가 났는지 엄청나게 막히기 시작한 것입니다.
점차 미뤄지는 도착 시간.
결국 한참을 지각하고 말았습니다.
다행히 사고가 나거나 하지는 않았고,
아내는 ‘그래도 편히 쉬었다.’라면서 위로해주었지만,
제 마음은 솔직히 편치 않았습니다.
내비게이션이,
이 내비게이션을 만든 사람들이 원망스러웠죠.
왜 평소와 다른 길을 알려주어서 저를 헤매게 했는지.
하지만, 이건 억하심정에 불과했습니다.
내비게이션은 잘못이 없습니다.
제가 체크한 시점에서는 분명히 더 빠른 경로였을 겁니다.
문제는 그 ‘과정’에서 일어나는 변화를
예상할 수 없었다는 것 뿐입니다.
내비게이션이 발달하고 정보가 더 많아지면
이런 일은 줄어들지도 모릅니다.
하지만, 어떤 상황에서도 과정에 따라서 변화는 생겨납니다.
무엇보다도, 내비게이션은 판단하지 않습니다.
현재 판단할 수 있는 정보를 바탕으로 최적의 경로를 제시할 뿐입니다.
그 경로를 따를 것인지 말것인지를 판단하는 것은 운전자인 나입니다.
지피티를 사용할 때도 비슷한 장면이 펼쳐집니다.
어느 날 칼럼을 쓰다가 지피티가 찾아준 내용을 그대로 사용했습니다.
원고를 보낸 직후, 그 내용이 사실과 다르다는 것을 발견했습니다.
부랴부랴 수정해서 다시 보냈지만, 그날 일이 아직도 생생합니다.
지피티는 제안했습니다. 하지만 확인하지 않은 것은 저였습니다.
지피티의 제안은 항상 솔깃하고, 받아들이기 쉬운 경우가 많습니다.
지피티가 때때로 나를 잘 이해하고 대응하는 것처럼 보이기 때문입니다.
그러다 보니, MBTI를 챗봇에게 물어보기도 합니다.
저 역시 호기심에 물어본 적이 있습니다.
평소에는 큰 관심이 없었지만, 지피티의 내용을 보니 뭔가 그럴듯해 보입니다.
이처럼 그럴듯함은 사람을 안심시키게 마련입니다.
하지만 그 직후 다시 생각하게 되었습니다.
이 설명이 저를 이해한 결과일까요,
아니면 일반적인 패턴을 조합한 결과일까요?
무엇보다도,
챗봇이 분석한 나는 이전의 일부 정보로 조합된 나입니다.
내비게이션처럼 얼마든지 바뀔 수도 틀릴 수도 있습니다.
그것이 지금의 나와 같은지 다른지를 판단하는 것은 결국 저 자신입니다.
레딧에서 한 사례를 본 적이 있습니다.
면접에서
"챗봇에게 자신에 대해 물어보고,
그 내용을 함께 보면서 이야기해 보자"라는
제안이 나왔다는 이야기였습니다.
그 글을 읽는 순간 저는 조금 불편해졌습니다.
면접에서의 효율만 생각한 나머지,
남의 개인 정보를 우습게 여기는 회사 반응도 문제입니다.
하지만,
한 사람의 인생을 책임진 면접이라는 ‘과정’을 무시하고,
고작 챗봇의 반응, 그 결과만으로 판단하려는
면접관들의 태도가 더욱 끔찍했습니다.
챗봇을 효율적으로 사용하기 위한 프롬프트처럼,
매우 한정된 답만을 강제적으로 내놓는 지시처럼,
인간이라는 무한한 가능성을 틀로 재단하듯 보였기 때문입니다.
이럴 때면, 아이작 아시모프의 단편 [교정하는 로봇(Gallery Slave)]이 떠오릅니다.
로봇은 완벽하게 교정 작업을 수행했습니다. 그런데 교수는 소송을 제기합니다. 로봇이 너무 완벽하게 수정한 나머지 자신의 의도와 달라졌다는 이유였습니다.
결론이 매우 흥미로운 이야기이지만, 여기서 중요한건 그런 내용이 아닙니다. 그보다 이런 이야기가 떠오릅니다,
로봇이 완벽하게 작업했는데 문제가 생긴다면, 그 잘못은 누구에게 있는 걸까요?
로봇? 회사? 아니면...?
요즘 바이브 코딩이 유행합니다. 인공지능이 생성한 코드를 그대로 사용하는 상황.
인공지능은 구조화에 뛰어나서 코드도 잘 만드는 편입니다. 그래서 저도 학생들에게 이를 안내하면서 사용해 보도록 권합니다.
그런데, 학생들에게 인공지능으로 코드를 작성하는 상황이 되면, 매우 높은 확률로 이상한 코드가 등장합니다. 이런 상황은 대개 제가 가르친 게임의 시스템 구조를 무시한 상황에서 발생합니다. '간단한 내용인데 꼭 필요할까?'라는 생각에 결과물까지 가는 과정을 이해하지 못하고 아무런 기획도 없이 만들어낸, 인공지능의 결과물을 그대로 받아들였기 때문입니다.
아시모프가 던진 질문이 지금 현실이 되고 있습니다. 때문애 우리는 인공지능의 작업에 대해서 다시 돌아볼 필요가 있습니다,
여기서 거창하게 책임이라는 말을 꺼낼 필요는 없습니다, 인공지능의 윤리라는 복잡한 문제를 거론하지 않아도 좋습니다. 아주 작은 질문 몇개만으로도 나와 인공지능의 관계를 다시 돌아볼 수 있습니다.
* 나는 이 문장을 이해했는가?
* 나는 이 주장에 동의하는가?
* 나는 이 방향을 내 이름으로 내놓을 수 있는가?
이 세 가지 질문에 "그렇다"고 답할 수 없다면, 그것을 저의 결과물이라고 할 수는 없습니다. 그것은 나의 사유나 과정이 담긴 것이 아니라, 단지 양식에 맞추어 인공지능이 만들어낸 그럴듯한 무언가일 뿐이니까요.
과연 이것은 나의 창작물일까라는 고민 속에 저는 한가지 과정을 생각해냈습니다,
지피티가 정리해 준 문장을 복사(Ctrl+C)&븥여넣기(Ctrl+V)로 그대로 넣는 것이 아니라, 일단 그 구조를 살펴봅니다. 그것을 머리 속에 넣고 제가 직접 작성합니다. 때로는 완전히 똑같은 문장이 되기도 합니다. 제 지피티는 제 스타일을 어느 정도 모방하니까요. 하지만 그렇다고 해도 여기에는 나의 흔적이 느껴집니다.
때로는 완전히 다른 문장이 나오기도 합니다. 그 문장이 지피티의 것보다 떨어져도 좋습니다. 훨씬 덜 매끄러울지 몰라도 적어도 그 문장은 제 선택이 됩니다.
당연히 작업 속도는 늦어질 수 밖에 없습니다. 때로는 내가 그냥 쓰는 것보다 느려지기도 합니다. 그러나 판단은 또렷해지며,
무엇보다도 그 ‘과정’에서 저 자신이 존재한다는 것을 느낄 수 있습니다.
AI는 계산을 확장하여 결과를 내놓습니다.
그렇다면, 그 결과를 판단하는 것은 누구의 몫일까요?
챗봇에 휘둘리는 내 마음
1. 칭찬하는 챗봇에 대한 의심 — 호기심에서 시작한 반추
2. 멈추지 않는 챗봇을 마주한 당혹 — 갈림길에서 일어나는 주저
3. 효율적인 프롬프트 앞에 선 의문 — 효율과 사유 사이의 고민
4. 챗봇을 탓하고 싶은 유혹 — 판단과 책임의 굴레에서 시작되는 결심
5. 여러 챗봇에 흔들리는 내 마음 — 도구로서의 효율이 아닌, 대화의 태도에 끌리는 마음
6. 왜 어떤 사람들은 여러 인공지능이 똑같다고 할까? — 성능이 아닌 세계관으로 나뉘는 마음
7. 왜 나는 한국어로 물었는데, AI의 답은 어딘가 다를까 — 성능이 아닌 세계관으로 나뉘는 마음
8. AI는 우리말로 답하는데 왜 다른 말이 보일까? ― 남의 나라 말로 생각하는 챗봇을 마주한 불편
9. 나는 우리말로 검색하는데 왜 다른 말로 찾을까? — 어떤 창으로 세계를 보고 있는가를 마주한 당혹감
[ ‘길이 있었기에 달렸을 뿐이다.’
그렇게해서 사고가 났다면,
책임은 누구의 것일까요? ]
( Motor Mania / Disney )