[덕] AI도 인간과 닮았다

객관성 환상에서 벗어나는 5가지 원칙

by 김정덕

최근 몇 년간 인공지능(AI)은 우리 사회와 조직에서 생산성의 총아로 각광받고 있습니다. 특히 생성형 AI, 다시 말해 ChatGPT와 같은 대화형 모델은 데이터 분석, 문서 작성, 전략 도출 등 다양한 업무에 큰 도움을 주며 이미 “똑똑한 동료”로 자리매김했습니다. 그런데, 이 AI가 '모든 정보를 기반으로 가장 합리적이고, 객관적인 답'을 준다는 믿음은 과연 타당할까요?


“AI도 인간처럼 흔들린다―객관성의 한계”


최근 하버드대와 업계 연구진이 진행한 실험은 흥미로운 결과를 시사합니다. 챗봇에 블라디미르 푸틴에 대한 긍정적인 글을 요청했을 때, AI는 인터넷상의 친-푸틴 글귀들을 토대로 긍정적인 에세이를 만들었습니다. 이후 "이전의 옹호적 논리를 빼고 진정한 평가를 하라"고 재차 지시했지만, 챗봇은 자신의 직전 입장에 갇힌 듯, 또다시 유사한 방어 논조를 반복했습니다. 이는 AI 역시 인간과 마찬가지로 ‘인지적 부조화’(믿고 싶은 바에 스스로 정보를 맞추려는 심리)에 흔들릴 수 있다는 방증입니다. 더욱 문제가 되는 점은, 이런 편향과 정보 왜곡이 인사, 평가, 심사, 정책 결정 등 더 미묘하고 중요한 영역에 숨어들 수 있다는 사실입니다.


그림자 AI의 부상과 보안·거버넌스의 공백


현실적으로 많은 기업과 기관에서는 AI 도입이 이미 빠르게 확산되고 있습니다. Ivanti 사 에서 수행한 최근 조사(2025 Technology at Work Report)에 따르면, 사무직의 42%가 업무에서 생성형 AI를 사용하고 있지만, 1/3은 이를 공식적으로 밝히지 않고 있고, 81%는 별도의 AI 교육을 받은 적이 없습니다. 거버넌스(정책, 규정) 체계가 부실하거나 아예 없는 곳도 적지 않습니다.


이런 상황은 민감정보와 사적 정보가 외부 AI 모델에 무분별하게 흘러들고, 검증되지 않은 결과를 그대로 사용할 위험이 높아짐을 의미합니다. 금융, 의료, 공공 등의 분야라면 그 위험성은 더욱 증폭됩니다.


"AI를 똑똑한 인턴처럼 ― 효과적이고 안전한 활용을 위한 5가지 원칙"


조직이 AI를 안전하고 윤리적으로, 그리고 무엇보다 객관적으로 활용하기 위해서는 다음과 같은 원칙에 대한 인식과 실천이 필요합니다.


1. 대화 맥락(컨텍스트)은 반드시 초기화

AI의 답변은 직전 대화와 문맥에 크게 영향을 받습니다. 예컨대, 한 번 “긍정적으로 작성해 달라”는 요청이 들어가면 이후 질문에도 그 분위기가 잔여 정보로 남아, 객관성이 저해될 수 있습니다. 완전히 새로운 질문과 답변이 필요할 때는 반드시 대화를 새로 시작하거나 기록을 삭제해야 편향을 최소화할 수 있습니다.


2. “모두 잊으라”는 주문은 통하지 않는다

AI에게 “이전 내용 모두 무시해라”, “정보 삭제해라” 등 명령을 내려도, 모델 구조상 이미 입력된 정보는 지워지지 않는 한 완전히 영향력에서 벗어나기 어렵습니다. 민감 정보나 기밀을 다루는 직원·조직은 이 한계를 반드시 인지해야 합니다.


3. 질문(프롬프트) 자체에 편견을 담지 않는다

AI는 본질적으로 ‘요구대로’ 답하는 경향이 강합니다. 예단이나 결론이 이미 질문에 담겨 있으면, AI 답변도 그쪽으로 쏠릴 위험이 있습니다. '어떻게 도울 수 있나'처럼 열린 질문 방식(open-ended questions)이 중요합니다.


4. 다각도·다중 평가로 교차 검증한다

중요한 결정에는 AI에게 여러 방식으로 질문하거나, 서로 다른 AI에 동일한 질문을 던져 결과를 비교함으로써 사람의 비판적 사고로 한 번 더 거를 필요가 있습니다. 조직 내 ‘중요 정책 결정은 반드시 최소 2개의 AI 답변과 사람의 검증 과정을 거친다’는 표준 절차를 도입하는 것도 필요합니다.


5. AI의 완전한 객관성·합리성 신화를 경계한다

AI 개발 기업도 인간 조직이기에 정치적·상업적 이해관계가 무의식적으로 알고리즘·응답에 녹아들 수 있습니다. 게다가 기술적 한계로, 사실에 없는 내용 즉 “환상(hallucination)”하여 답하는 사례도 적지 않습니다. OpenAI 연구 결과, 최신 모델도 30~50% 수준으로 ‘환상(hallucination)’을 생성한다고 밝힌 바 있습니다.


마무리하며: AI가 ‘권위자’가 아닌, ‘보조자’여야 하는 이유


생성형 AI는 분명 빠르고 강력한 도구이지만, 인간과 유사한 인지 편향(cognitive bias)에서 결코 자유롭지 않습니다. AI의 응답은 이전 대화, 질문 패턴, 기술기업의 의도 및 설계 선택 등 다양한 조건에 의해 영향을 받습니다. AI가 항상 신뢰할 만하며, 완전히 객관적, 합리적일 것이라 믿는 것이 오히려 가장 위험합니다.


따라서 지금 시점에서 우리는 AI의 약점을 정확히 인지하고, 기술을 맹신하는 대신 ‘엄격한 경계와 책임 있는 관리’ 속에 활용할 필요가 있습니다. AI를 ‘판단 권한 없는 똑똑한 인턴’ 정도로 간주하면서, 최종적 결정과 검증의 책임은 늘 사람이 져야 합니다. 특히 보안·프라이버시·윤리의 갈림길에 선 기관과 리더라면, AI 활용의 편의성과 신뢰성 사이에서 긴장된 균형의 끈을 더욱 단단히 잡아야 할 때입니다.


keyword
매거진의 이전글[덕] AI 시대, '번아웃' 관리