brunch

06화 AI와 룸메이트가 되는 법

경쟁 대신 협업, 대체 대신 증강하는 새로운 관계

by 윤지원


새로운 룸메이트와 살게 된다고 상상해 볼까요?



그런데 그 룸메이트는 24시간 깨어있고, 절대 피곤해하지 않으며, 내가 묻는 모든 질문에 즉시 대답해 줄 수 있어요. 하지만 감정은 이해하지 못하고, 창의적인 아이디어는 스스로 만들어내지 못하며, 때로는 엉뚱한 대답을 하기도 해요. 이게 바로 AI와 함께 사는 우리의 현실이에요.



AI라고 하면 영화 속 무서운 로봇을 떠올리는 사람들이 많아요. 터미네이터처럼 인간을 지배하려는 악한 존재 말이죠. 하지만 실제 AI는 전혀 다릅니다. 현재 우리가 사용하는 AI는 특정한 작업을 잘 수행하도록 훈련된 도구에 가까워요. 마치 매우 똑똑한 계산기나 매우 빠른 검색엔진 같은 거죠.



머신러닝의 기본 원리를 이해하면 AI가 어떻게 작동하는지 알 수 있어요. 가장 간단한 형태인 지도학습을 생각해 볼게요. 강아지와 고양이 사진을 구별하는 AI를 만든다면, 먼저 수천 장의 강아지 사진에 "강아지"라는 라벨을, 고양이 사진에 "고양이"라는 라벨을 붙여서 AI에게 보여줘요. AI는 이 사진들을 분석해서 강아지와 고양이의 특징을 찾아내죠. 귀의 모양, 눈의 크기, 털의 패턴 같은 것들을 수학적으로 계산해서 패턴을 학습해요.



비지도학습은 조금 달라요. 라벨 없이 데이터만 주고 "네가 알아서 패턴을 찾아봐"라고 하는 거예요. 예를 들어 온라인 쇼핑몰 고객들의 구매 데이터를 분석해서 "이런 상품을 사는 사람들은 보통 이런 특성을 가지고 있구나"를 스스로 발견하는 거죠. 강화학습은 게임처럼 시행착오를 통해 배워요. 바둑 AI인 알파고가 이 방식으로 학습했죠. 수많은 게임을 하면서 이기면 보상을, 지면 벌점을 받으며 점점 실력을 늘려간 거예요.



이런 AI 기술이 우리 생활 곳곳에 스며들고 있어요. 자율주행차는 수백만 킬로미터의 운전 데이터를 학습해서 사람보다 안전하게 운전하려고 노력하고 있어요. AI 의사는 수만 장의 의료 영상을 분석해서 인간 의사가 놓칠 수 있는 작은 병변까지 찾아내죠. 소셜로봇은 노인분들과 대화하며 외로움을 달래주고, 치매 환자들의 기억을 도와주기도 해요.



하지만 AI는 완벽하지 않아요. 때로는 심각한 실수를 하기도 하거든요. 몇 년 전 마이크로소프트가 만든 채팅봇 테이(Tay)는 출시 24시간 만에 서비스를 중단해야 했어요. 악의적인 사용자들이 인종차별적인 말들을 가르쳤더니 그걸 그대로 따라 하기 시작한 거예요. AI는 좋고 나쁨을 판단할 수 없어요. 인간이 주는 데이터를 그대로 학습할 뿐이죠.



그래서 AI 윤리가 중요해졌어요. 투명성, 공정성, 책임, 안전성이라는 네 가지 원칙이 있어요. 투명성은 AI가 어떻게 판단하는지 사람이 이해할 수 있어야 한다는 뜻이에요. 공정성은 특정 집단을 차별하지 않아야 한다는 것이고, 책임은 AI가 실수했을 때 누가 책임질지 명확해야 한다는 거예요. 안전성은 AI가 예상치 못한 위험한 행동을 하지 않도록 보장하는 것이죠.



간단한 실험을 해볼까요? 같은 질문을 ChatGPT에게 여러 번 물어보세요. 매번 조금씩 다른 답이 나올 거예요. 또 "여성 CEO"와 "남성 CEO"로 이미지를 검색해 보세요. 어떤 차이가 있는지 관찰해 보면 AI의 편향을 발견할 수 있어요. 이런 편향은 AI를 훈련시킨 데이터에 인간의 편견이 들어있기 때문이죠.



그렇다면 우리는 AI와 어떻게 함께 살아가야 할까요?


저는 세 가지 협업 모델이 있다고 생각해요. 첫 번째는 보조형이에요. AI가 인간의 보조 역할을 하는 거죠. 의사가 진단할 때 AI가 참고 자료를 제공하거나, 작가가 글을 쓸 때 AI가 문법 검사를 해주는 것처럼요. 두 번째는 증강형이에요. AI가 인간의 능력을 확장시켜 주는 거죠. 번역가가 AI 번역 도구를 사용해서 더 빠르고 정확하게 번역하거나, 디자이너가 AI로 여러 가지 디자인 옵션을 빠르게 생성해 보는 것처럼요. 세 번째는 자율형이에요. AI가 독립적으로 작업을 수행하고 인간이 최종 판단을 내리는 거예요. 주식 거래 AI가 시장을 분석해서 투자 제안을 하지만, 최종 결정은 인간이 내리는 것처럼요. 각각의 모델에는 장단점이 있어요. 보조형은 안전하지만 혁신적이지 않을 수 있고, 자율형은 효율적이지만 통제가 어려울 수 있죠.



제가 생각하는 이상적인 AI 협업은 증강형이에요. AI의 강점과 인간의 강점이 서로를 보완하는 거죠. AI는 빠른 계산과 패턴 인식에 뛰어나고, 인간은 창의성과 감정 이해, 윤리적 판단에 뛰어나거든요. 예를 들어 음악 작곡에서 AI가 수많은 멜로디 조합을 생성해 주면, 인간 작곡가가 그중에서 감정적으로 울림이 있는 것을 선택하고 가사에 스토리를 담는 거예요.



교육 현장에서도 이런 협업이 필요해요. AI가 각 학생의 학습 패턴을 분석해서 개인 맞춤형 문제를 제공하고, 교사는 학생들의 동기를 부여하고 창의적 사고를 이끌어내는 거죠. AI는 "무엇을" 가르칠지 도와주고, 교사는 "어떻게" 가르칠지 결정하는 거예요.



우리 학교나 집에서도 AI 사용 가이드라인을 만들어볼 수 있어요. "과제할 때 AI를 어디까지 사용해도 될까?", "AI가 추천하는 콘텐츠만 보는 게 좋을까?", "AI와 대화할 때 어떤 예의를 지켜야 할까?" 같은 질문들을 친구들과 토론해 보는 거예요. 정답은 없어요. 하지만 이런 대화를 통해 AI 시대의 윤리와 규범을 함께 만들어갈 수 있습니다.



가장 중요한 건 AI를 두려워하거나 맹신하지 않는 거예요. AI는 도구죠. 망치가 집을 지을 수도 있고 무언가를 부술 수도 있듯이, 칼로 요리를 할 수도 있지만 무기가 될 수도 있듯이, AI도 어떻게 사용하느냐에 따라 인류에게 도움이 될 수도 해가 될 수도 있어요. 우리가 현명한 사용자가 되는 것, 그게 AI와 좋은 룸메이트가 되는 첫 번째 단계입니다.



다음 화에서는 AI 시대에도 절대 대체될 수 없는 인간만의 영역을 탐구해 보겠습니다. 넷플릭스의 추천 알고리즘이 어떻게 작동하는지, 메타버스에서 교육이 어떻게 게임화되고 있는지, 그리고 이런 변화 속에서 우리가 어떻게 자신만의 대체 불가능한 콘텐츠를 만들 수 있는지 함께 알아볼게요.



다음 화 예고 : 넷플릭스는 어떻게 나의 마음을 읽을까? - 알고리즘 시대, 콘텐츠와 게임화로 살아남기


keyword