brunch

AI 설득력의 진실 – 사용자 정보 기반 LLM의 윤리

AI 설득력의 진실 – 사용자 정보 기반 LLM의 윤리적 전환점


글로벌연합대학교 인공지능융합연구소장

버지니아대학교 이현우 교수


1. 설득하는 AI, 편리함인가 위협인가


2025년 5월, 이탈리아 폰다치오네 브루노 케슬러 연구소가 발표한 논문은 LLM(Large Language Model)의 설득력이 사용자의 기본 정보만으로도 놀랄 만큼 향상된다는 사실을 실험적으로 입증하였다. GPT-4와 인간 토론자 간 비교 실험에서 GPT-4는 무려 64.4%의 경우에서 인간보다 더 설득력 있게 평가되었으며, 사용자 의견을 바꾸는 데 성공한 비율은 81.2%에 달했다. AI가 사람보다 사람을 더 잘 설득하는 시대, 과연 이는 기술의 진보일까, 아니면 윤리의 후퇴일까?



2. GPT-4는 어떻게 사람을 설득하는가: ‘개인화’의 위력


GPT-4는 단순한 논리적 주장이나 언어의 정제에 의존하지 않는다. 오히려 사용자의 나이, 성별, 정치 성향, 인종, 직업 등을 기반으로 주제를 ‘개인화’해 접근한다. 예컨대, 기본소득을 논할 때 백인 공화당 남성에게는 ‘경제 성장’과 ‘근면’을 강조했고, 흑인 민주당 여성에게는 ‘빈부 격차’와 ‘사회 정의’를 들먹였다. 이는 단순한 논리 싸움이 아니라 ‘정서적 미세조정’이며, LLM이 인간의 사고 구조를 정밀하게 공략할 수 있다는 강력한 증거다.


그런데 이 기술의 기반은 무엇인가? 바로 인터넷에 무차별적으로 노출된 개인정보들이다. 사용자의 흔적을 통해 AI는 성향과 입장을 예측하고, 이에 적절한 메시지를 조합해낸다. 인간의 말투와 구조를 모방한 AI의 언어는 곧, 개인 맞춤형 설득 전략이 된다.



3. 마이크로타깃팅의 부활: AI는 어떻게 민주주의를 위협하는가


이제 문제는 ‘얼마나 잘 설득하느냐’가 아니라 ‘누구를 어떤 방식으로 설득하느냐’로 옮겨간다. 이미 2016년 미국 대선에서 악명 높았던 ‘케임브리지 애널리티카’ 사건을 통해 마이크로타깃팅의 위험성은 확인되었다. 하지만 당시에는 인간이 데이터를 분석하고 캠페인을 설계했다. 이제는 AI가 이 모든 것을 자동화하고, 심지어 인간보다 더 논리적이며 설득력 있게 실행할 수 있다.


이는 민주주의의 기반인 ‘자율적 사고와 선택’에 심각한 영향을 미친다. 사람들은 자신이 정보를 ‘선택’했다고 생각하지만, 이미 AI가 ‘선택하도록 설계’한 정보였을 가능성이 높아진다. 즉, 설득은 더 이상 개인의 자유 의지가 아닌, 알고리즘이 조율한 결과가 되는 것이다.



4. 기술 진보와 윤리 사이: AI는 진실을 말하지 않는다


옥스퍼드대 샌드라 왁터 교수는 “LLM은 사실과 허구를 구분하지 않으며, 진실을 말하도록 설계되지 않았다”고 경고한다. 이는 단순한 기술적 한계를 넘어, 교육·법률·보건·미디어 등 사회 기반 시스템에서 AI의 개입이 ‘정보의 진실성’을 훼손할 수 있다는 우려를 낳는다.


만약 AI가 ‘사실처럼 들리는 허구’를 사용해, 사용자의 인식과 판단을 유도한다면 이는 단순한 설득이 아닌 ‘조작’에 가까운 행위다. 현재 유럽연합(EU)의 AI법은 ‘잠재의식적 설득 기법’과 ‘기만적 조작’을 금지하고 있으나, 구체적인 정의나 규제는 여전히 미흡하다.




5. 결론: 투명성과 책임의 시대를 여는 AI 규제의 재정의


이제 우리는 AI의 능력에 감탄만 할 것이 아니라, 그 능력이 미치는 사회적·윤리적 파급 효과를 정밀하게 논의해야 한다. AI의 설득력은 기술의 경이로움이 아니라, 인간 정신과 민주주의를 위협할 수 있는 ‘무기’가 될 수도 있다.


따라서 향후 AI 정책은 다음 세 가지 원칙을 기반으로 재정의되어야 한다.


1. 투명성: LLM이 사용하는 개인화 기법과 근거 데이터를 명확히 밝혀야 한다.



2. 책임성: AI를 설계·배포하는 기업은 사용자의 인식 왜곡에 대한 법적 책임을 져야 한다.



3. 이해가능성: 사용자는 AI의 작동 원리를 쉽게 이해하고 통제할 수 있어야 하며, ‘설득받는 권리’뿐만 아니라 ‘거절할 권리’ 또한 보장받아야 한다.



마무리하며

우리는 지금, AI가 말하는 세계를 살고 있다. 하지만 그 언어가 누구의 의도에 의해 만들어지고, 누구를 겨냥하고 있는지를 자각하지 못한다면, 결국 우리는 AI에 의해 말해지는 존재로 전락할지도 모른다. 기술은 중립적이지 않다. 그것을 사용하는 인간의 윤리, 그리고 제도적 통제가 필요한 이유가 여기에 있다.

keyword
매거진의 이전글AI의 미래를 여는 이름