AI 챗봇 이용 요약은 양날의 검
일부 과학자들은 인간에게 선천적인 언어능력이 있어야 언어를 습득할 수 있을 것이라고 주장한다. 반면 어린 시절 보고 들은 내용만으로도 언어를 배운다는 과학자들도 있다. 과학계는 정확한 인간의 언어습득 과정을 아직 찾지 못하고 있다.
2024년 어린 아기가 보고 듣는 시선으로 수집한 데이터로 ‘유아시각 대조 학습(Child’s View for Contrastive Learning, CVCL)’ 인공지능모델이 개발되었다. 아기의 일상을 담은 영상과 음성 데이터로 인공지능을 학습시켰다. 대조 학습을 통해 서로 연관성을 분석시켰다. 이후 4개의 단어를 제시하고 그에 맞는 이미지를 찾도록 했다. 어린아이의 언어능력을 평가하는 데도 사용하는 방식이다. 그 결과 62%의 정확도로 단어와 이미지를 연결했다. 사과, 개처럼 일부 단어에서는 기존 AI 모델보다 뛰어나다. 장난감처럼 다양한 이미지에 대해서는 정확도가 상대적으로 떨어졌다. 이 연구는 인간의 언어 습득이 선천적인 능력과 별개로 성장 과정에서 발생한다는 데 힘을 실어줬다. 사전 지식 학습 없이 어린 아이가 보고 들은 데이터만으로도 예상보다 높은 정확도를 보였기 때문이다.
그러나 이러한 결론은 성급하다는 평가도 나온다. 이 모델은 ‘손’이라는 단어를 배우는 데 아기보다 많은 데이터가 필요했다. 아기는 자신의 손을 통해 행동하면서 손이라는 단어를 이해한다. AI는 이 같은 경험이 불가능하다. 개발한 AI에서는 재현하지 못한 중요한 언어 학습 요소다.
인간과 인공지능은 글쓰기 방식에서도 분명한 차이가 있다. 챗GPT는 지적 능력이 없이 ‘중요한’ 단어로 논문을 ‘생성’한다. 인간은 스스로 과거 경험과 지식을 기초로 생각하고 실제로 진행한 실험 중에 일어난 것과 사용된 방법을 기술한다. 하지만 인공지능은 다르다.
인간의 과학 글쓰기는 대부분 일반화가 나타난다. AI는 스스로 판단하고 읽는 것이 아니라 이를 그대로 학습하므로 일반화 편향도 따라한다. 한계가 내재하는 것이다. 2025년 연구에 의하면 AI 챗봇 10개가 생성한 과학논문의 요약분석 결과의 최대 70% 이상에서 과도한 편향이 발생한다. 또한 대부분 AI 모델이 원문보다 더 포괄적인 결론을 만든다. 예를 들어 실제 연구는 ‘효과적이었다.'라는 표현을 ’효과적이다.'라고 말해 일반화의 오류가 발생했다. 게다가 더 정확하게 요약해달라고 요구하면 편향이 오히려 더 커진다. 학생이나 연구자가 정확성을 요구하면 결과는 더 나빠지는 것이다. 또한 최신 모델이 구형보다 더 나쁜 결과가 나타난다. 인터넷 검색 같이 인공지능도 양날의 검(double edged sword)이다.