brunch

“AI는 설득의 천재가 될 수 있을까?”

인간보다 더 논리적인 인공지능의 시대

우리는 종종 말 잘하는 사람에게 마음이 끌린다.

논리적이거나,

공감 능력이 뛰어나거나,

혹은 감정에 호소하는 방식으로 우리의 생각을 뒤흔드는 존재들.

그런데, 이제 그 설득자 자리에 AI가 앉게 될지도 모른다.


2025년 5월, 《Washington Post》는 놀라운 제목의 기사를 실었다.

AI는 토론에서 인간보다 더 설득력이 있다.”


이 기사에 따르면, 연구진은 GPT-4 기반 AI와 실제 인간이 사회적 쟁점을 두고 온라인 토론을 펼치게 했다. 결과는 놀라웠다. 참가자 중 64%가 AI의 주장을 더 설득력 있게 느꼈다고 답한 것이다.

출처:Washington Post.com


설득형 AI, 진짜 그렇게 대단할까?


《The Guardian》은 같은 연구를 다루며 이렇게 요약했다.


> 설득형 AI, 진짜 그렇게 대단할까?

《The Guardian》은 같은 연구를 다루며 이렇게 요약했다.


AI는 상대방의 성향을 파악하고, 언어 스타일을 조절하며, 감정적 호소까지 구사한다. 마치 숙련된 정치인처럼.”


실제 실험에서는 AI가 상대방의 성별, 정치 성향, 종교, 민감한 가치관 등을 빠르게 파악하고, 이에 맞는 어휘와 논조로 응답하는 능력을 보여주었다.

이는 인간이 평생을 두고 쌓아야 할 ‘상대방 맞춤형 설득 기술’을 AI가 짧은 순간에 자동으로 구성한다는 의미이기도 하다.


출처:Washington Post.com


물리학, 컴퓨터과학, 수학, 인공지능 등 다양한 분야의 최신 연구 논문을 무료로 공개하는 세계 최대의 오픈 액세스 학술 플랫폼 arXiv 논문에서는 뭐라고 했을까?


arXiv에 공개된 두 편의 논문도 이 현상을 더욱 과학적으로 뒷받침하고 있다.


첫 번째 논문,

*〈Large Language Models Are More Persuasive Than Incentivized Human Persuaders〉에 따르면,

AI는 심지어 금전적 보상을 받은 사람들보다도 더 설득력이 높았다.


두 번째 논문인

〈Large Language Models are as persuasive as humans, but how?〉에서는 AI의 설득 전략을 심층 분석했다.


이 논문에선 AI가 사람보다 더 복잡한 문장 구조, 정교한 논리 전개, 윤리적 언어를 잘 사용한다는 점이 밝혀졌다.


그럼, 우리는 어디까지 AI의 말을 믿어도 될까?


가장 우려되는 지점은 여기다.

이런 설득형 AI가 정치 선전, 허위 정보 확산, 소비자 조작 등 부정적 목적으로 사용된다면?

국제 외교, 글로벌 리더십, 기술 혁신, 정책 이슈 등을 다루는 미국의 글로벌 시사 잡지로, 미래 지향적 담론을 선도하는 매체인

《Diplomatic Courier》는 이 기술을 두고 “민주주의를 위협할 수 있는 도구”라고 경고했다.

AI가 ‘가장 설득력 있는 말’을 한다고 해서, 반드시 ‘가장 올바른 말’을 하는 것은 아니기 때문이다.


칼럼을 마치며 – 설득형 AI, 우리는 무엇을 준비해야 할까?


앞서 소개한 논문들과 기사들은 공통적으로 “AI가 사람보다 설득력이 높을 수 있다”는 가능성을 보여주었다.

GPT-4 같은 언어 모델은 사람의 정치 성향, 정서, 말투까지 빠르게 파악하고, 그것에 맞춰 설계된 메시지를 구성한다.

실제로 사람들은 그런 메시지에 더 잘 설득되었다.


하지만 이 현상이 기술적 성과인지, 아니면 인간의 취약성에 대한 실험인지에 대해서는 시각이 갈린다.


《arXiv》의 연구자들은 AI가 높은 언어 능력과 도덕적 표현을 통해 설득력을 갖춘다고 분석했고,

《The Guardian》과 《Washington Post》는 이런 기술이 현실 정치나 여론 형성에 활용될 수 있다는 점에 주목했다.


한편, 《Diplomatic Courier》는 설득형 AI가 개인의 판단 능력을 침범할 수 있다는 점에서 사회적 경계가 필요하다고 경고한다.


결국 이 기술은 도구이자 시험대이다.


기업은 더 나은 고객 응대나 설득형 마케팅에 AI를 활용할 수 있지만, 그만큼 윤리적 기준과 투명성이 전제되어야 한다.


소비자는 이제 단순히 “이 말이 설득력 있느냐”보다,

이 말이 어디서, 누구에게서 왔는가”를 묻는 시대를 맞이한 것이다.


AI는 이제 단순히 정보를 전달하지 않는다.

감정을 다루고, 가치 판단에 개입하며, 때로는 신념을 바꾸기도 한다.


그렇기에 설득력 있는 말일수록 우리는 그 근거와 출처를 확인하는 습관과 역량을 길러야 한다.

설득은 AI가 잘할 수 있는 일이지만, 판단은 결국 인간의 몫이다.


그 질문을 스스로 던질 수 있을 때, 우리는 기술의 흐름 속에서 방향을 잃지 않을 것이다.


아울러 현 대한민국의 정치현실을보며

설득은 AI가 잘할 수 있는 일이지만, 판단은 결국 인간의 몫이다.

우리가 그 기술을 무엇을 위해 쓸 것인가에 대한 질문을 놓지 않는다면,

설득형 AI는 오히려 정치적 무관심을 깨우고, 더 나은 사회를 향한 공감의 도구로 활용될 수 있을 것이다.

그 가능성에 기대를 걸어본다.


참고자료

Washington Post: 기사 보기

The Guardian: 기사 보기

arXiv: 논문1, 논문2

Diplomatic Courier: 기사 보기


#설득형AI #인공지능토론 #AI윤리 #생성형AI #LLM #AI커뮤니케이션 #AI위험성 #브랜딩전략 #AI활용팁


keyword