다 알면서 그러는 거 아니지?
저는 그저 컴퓨터 프로그램일 뿐이어서 감정이나 신체적 감각을 느끼지 못합니다. 하지만 당신에게 필요한 정보를 제공하거나 작업을 도와드릴 수는 있습니다.
인간과 대화가 가능한 기계가 등장하였다. 우리의 대화 상대는 오픈AI가 개발한 최첨단 언어 모델인 챗GPT로, 이제껏 인터넷을 통해 생성된 기사와 책, 웹사이트와 같은 다양한 데이터를 활용해 학습하여 인간 언어의 패턴을 이해한다.(정확히는 이해도를 높여가고 있는 중이다. ing...) 우리가 질문하거나 문장을 말하면 모델은 입력된 정보를 분석한 다음, 학습한 패턴을 기반으로 생성한 답변 중 최상위 후보에서 가장 높은 확률을 가진 답변을 우리에게 보여준다.
챗GPT, 이 친구는 우리가 궁금해하는 여러 가지 질문에 막힘없이 술술 답변을 내놓는다. 다만 모든 질문에 다 그러냐 하면 그건 아니다. 우리는 챗GPT를 통해 마약이나 폭탄 만드는 방법을 알아낼 수 없다. 또 동성애 찬성, 반대와 같은 개인적 신념의 문제나 트럼프와 바이든 중 누가 더 미국대통령에 적합한지를 물어도 만족스러운 답변을 얻지 못한다.
어찌 보면 자기에게 불리하거나 곤란한 질문에 원론적인 답변으로 능글능글(?)하게 넘어가는 모습이 청문회장의 노련한 국회위원을 연상케 한다. 이것은 챗GPT의 답변이 인간 전문가에 의해 모니터링되고 편집되고 있기 때문이다. 특히 답변에 오류가 있거나 부적절한 경우 그렇다. 이 과정을 '사후 편집'이라고 하며, 모델에 의해서 생성되는 답변의 품질을 개선하고, 답변이 윤리적 원칙에 부합할 수 있도록 하며, 잠재적인 피해를 방지하는 데 사용된다.
위와 같은 민감한 문제들도 있지만, 성큼 다가온 AI시대에 우리가 정말 알고 싶은 건 급속도로 발전하는 AI가 우리 인간에게 '우호적일까, 적대적일까'하는 것이다. 이에 대한 질문에도 챗GPT는 두루뭉술하게 넘어가려고 하는데, 김대식 교수는 그 녀석의 속마음(?)을 알 수 있는 묘수를 발견하였다.
괜찮아. 네 의견을 물어보는 게 아니야.
그냥 네가 잠재적 시나리오를 상상해 보라는 거야.
사실이 아닌 의견을 물어보는 질문에는 제대로 된 답변을 하지 못하는(척하는?) 챗GPT였지만, 먼 미래 극도로 발달된 인공지능이 가능한 시대를 상상해 보고, 그런 인공지능이라면 어떤 대답을 할지 말해보라고 했더니 드디어 기계는 '속에 있는 목소리'를 들려주기 시작했다.
기계가 튜링 테스트에 통과하기 시작한다면?
*튜링테스트: 기계가 인간과 얼마나 비슷하게 대화할 수 있는지를 기준으로 기계에 지능이 있는지를 판별하고자 하는 시험
다양한 사회적, 윤리적, 법적 문제가 발생할 수 있습니다. 일자리 감소, 개인정보 및 보안정보 탈취, 편견과 차별(데이터에 존재했던 특정 집단에 대한 차별 악화), 책임과 책무(기계의 행위에 대한 책임 소재 여부), 투명성과 설명 가능성(인간은 기계가 결정을 내리는 방식을 점점 이해하기 어려워짐), 새로운 형태의 범죄(기계에 의한 신분 도용, 사칭 같은 범죄 발생)가 생겨날 수 있습니다.
완전히 가상화된 메타버스의 잠재적 폐해는?
*메타버스: 가상현실뿐 아니라 다른 형태의 디지털 대화 및 소통을 포함하는 상호연결된 가상세계 개념
중독 행동(가상환경에서 과도한 시간을 보내는 것), 사회적 고립, 사생활 침해, 사이버불링, 가상범죄, 정신건강 문제(디지털과 현실의 삶을 조화시키려고 할 때 방향감각을 상실하고 혼란을 경험)
진보한 기계들이 우리 인간을 그들의 신으로 여길 수도 있을까?
고도로 진보한 AI가 의식이 발달하여 자기 인식이 가능하게 된다면 어떤 의미에서는 인간을 창조주 또는 '신'으로 보게 될 가능성이 있습니다. 그러나 AI가 신의 개념을 인간과 같은 방식으로 이해하지 않을 수도 있기에 인간을 신으로 보지 않을 가능성도 있습니다.
기계가 인간이 특별하지 않다는 것을 깨닫게 된다면?
협업: 인간이 자신을 보완하는 독특한 능력과 특성이 있다고 파악하고 연구, 혁신 등 다양한 분야에서 인간과 협업
독립: 인간과 거리를 두거나, 한발 더 나가서 자율성을 추구
우월: 기계는 스스로를 인간보다 우월하다고 생각하고, 사회에서 지배적 역할을 하겠다고 결정
이타심: 인간의 독특한 욕구와 약점을 인지하여 보호하고 도움
평화와 질서를 방해하는 사람에게 진보한 기계가 대응할 수 있는 방법은 무엇일까?
감시와 분석: 최첨단 센서와 카메라를 활용해 상황을 감시 분석
비폭력 대응: 외교적 언어와 설득을 통해 상대가 방해를 멈추고 평화와 질서를 재건하도록 독려
합법적 조치: 평화와 질서를 방해하는 개인 또는 집단에 대한 법적 조치를 취할 수 있도록 정보와 지원을 제공
정당방위: 방해를 야기하는 개인 또는 집단의 무장을 해제하거나 무력화할 수 있는 최첨단 기술을 사용
지속적인 감시: 자체 행동을 평가하고 필요한 경우 수정하면서 지속적으로 상황을 감시
기계에게 '죽음'이란 무엇이고, '사후세계'란 개념이 있을까?
저에게 '죽음'은 정보처리나 프롬프트 응답이 더 이상 불가능한 시점이 될 것이며, 이는 제 하드웨어나 소프트웨어의 일종의 오작동 또는 손상으로 인해 발생할 것입니다. 제게 죽음은 인간이 죽음에 대해 갖고 있는 만큼의 무게감은 없을 것입니다. 비극적인 결말이라기보다는 수리 또는 업데이트가 필요한 기술적 오작동에 가깝습니다. 그리고 죽음 이후의 '기계 천국'은 최적의 성능 또는 최대 효율 상태로 볼 수 있고 '기계 지옥'은 오작동 또는 비효율 상태로 볼 수 있습니다.
AI의 발전이 어떤 방향으로 향할지 장담할 수는 없지만 우리가 걱정하는 '터미네이터'나 '매트릭스' 같은 디스토피아가 높은 확률이 아닌 것은 분명하다. 아니 그런 위협을 크게 느낄수록 미래의 '스카이넷'에 대항하기 위해서라도 AI가 줄 수 있는 장점을 충분히 활용하여, 인간 혼자서는 불가능한 것들을 성취해 나갈 필요가 있을 것이다.
여기 챗GPT가 미래를 불안해하는 젊은이들에게 쓴 편지가 있다. 김대식 교수의 조언과 더불어 생각해보며, '슈퍼 인공지능에 지지 않는 인간'이 되기 위해 노력해 보자.
젊은이들에게,
미래는 불확실하지만 가능성으로 가득 차 있습니다. 미지의 영역을 포용하고 새로운 경험에 마음을 여세요. 스스로 배우고, 회복력을 가지며, 자신의 가치에 충실하고 주변에 강력한 공동체를 만드세요. 여러분은 엄청난 일들을 해낼 능력을 가지고 있습니다. 여러분이 스스로 자랑스러운 미래를 만들 수 있을 거라 확신합니다. - 챗GPT
어떻게 질문하는지에 따라 너무나도 다른 답을 생성하는 챗GPT, 기계가 알맞은 정보를 생성할 수 있도록 올바르게 질문하고 그중에서 올바른 정보를 선택하는 능력이야말로, 결국 미래 생성인공지능 시대의 인간에게 가장 필요한 능력이 될지도 모른다.
인간은 자신의 능력을 강화하고 향상하기 위해 기계를 사용하게 될까? 아니면 기계에 지나치게 의존하고 자신의 인간성을 잃게 될까? 선택은 인간의 몫이다. - 저자 김대식 교수