AI 확산에 따른 Risk와 제도적 이슈들

by 안다니

최근 들어 의도적인 허위 정보(Disinformation)의 생성과 확산 문제가 점점 심각해지고 있으며, 이는 앞으로 더욱 큰 사회적 문제로 이어질 가능성이 있다고 생각한다.


나는 평소 정보를 얻거나 자료를 조사할 때 블로그, 뉴스 기사, 유튜브 등 다양한 미디어를 활용한다. 물론 과거에도 가짜 뉴스는 존재했지만, 최근 인공지능 기술의 발달로 인해 이러한 허위 정보의 양과 확산 속도가 더욱 빨라지고 있다는 느낌을 받는다.


수업 시간에 배운 바와 같이, 인공지능은 여전히 Hallucination 문제를 안고 있다. 나 역시 회사 업무 중 모르는 부분이 있을 때 GPT와 같은 AI의 도움을 자주 받는다. 정확한 답변을 줄 때도 있지만, 그렇지 않을 때도 있다. 흥미로운 점은 같은 질문을 하더라도 내가 질문을 조금만 바꾸거나, “그건 틀렸어. 이건 이거야”라는 식으로 단호하게 말하면, GPT는 앞선 대답이 틀렸다고 인정하며 또 다른 답변을 제시한다. 이처럼 AI는 마치 사용자가 원하는 방향으로 대답을 맞춰주는 느낌을 준다. 그리고 나는 이것이 허위 정보 확산의 출발점이 될 수 있다고 생각한다.


GPT와 같은 대규모 언어모델은 인터넷 상에 존재하는 방대한 데이터를 학습했다. 그 데이터 속에는 진짜 정보와 가짜 정보가 뒤섞여 있다. 결국 AI는 확률적으로 진위를 판단할 수밖에 없다. 이를 보완하기 위해 RAG(Retrieval-Augmented Generation) 기술이나 다양한 필터, 미들웨어가 도입되고 있지만, 여전히 진위 판단 능력이 부족한 일반 사용자가 이를 활용할 경우 오히려 더 많은 허위 정보가 양산될 우려가 있다. 실제로 인터넷상에는 이러한 과정을 통해 생성된 왜곡된 기사나 영상이 넘쳐나고 있는 현실이다.


특히 유튜브는 허위 정보 확산의 또 다른 주요 통로가 되고 있다. 텍스트, 이미지, 동영상을 쉽게 생성할 수 있는 AI 기술이 보편화되면서 누구나 쉽게 영상을 만들고 유튜브에 업로드할 수 있게 됐다. 최근 유행하는 ‘쇼츠(Shorts)’처럼 짧고 자극적인 영상들이 인기를 끌면서, 검증되지 않은 정보들이 더 빠르게 퍼져나가고 있다. 이러한 정보들이 어린 아이들에게 끼치는 영향이 크지 않을까 걱정이 되는 요즘이다.


AI의 이미지 및 동영상 생성 능력이 지금보다 더 고도화된다면, 그 위험성은 더욱 커질 것이다. 이미 ‘딥페이크(Deep Fake)’는 현실적인 위협이 되고 있고, 앞으로는 우리가 아직 경험하지 못한 형태의 문제들이 등장할 수 있다고 판단된다.


Gemini_Generated_Image_lycq0dlycq0dlycq.png


그렇다면 이러한 상황 속에서 우리는 어떻게 대응해야 할까?


이제는 기술의 발전만큼이나 ‘정보를 보는 눈’을 키우는 것이 중요하다. 단순히 AI를 활용하는 데 그치지 않고, 정보를 판단하고 검증하는 능력, 디지털 리터러시와 비판적 사고의 중요성이 더욱 부각되어야 할 시점이 아닌가 생각이 든다.


정보의 출처를 확인하고 맥락을 이해하며 사실과 의견을 구분할 수 있는 능력이 점점 필요해지는 상황이 될 거 같다. 정보가 실제 현실과 일치하는지 꼭 확인해보는 습관을 가지는 것도 중요하다. 비판적 사고는 알려주는 정보에 대해 의심하고 논리적으로 맞는지 생각하는 것이라 생각된다. 그냥 정보를 얻으니까 “그래 이거네” 하고 넘어가는 게 아니라 “이게 맞아?” 라는 태도가 앞으로 중요해질 것 같다. 사실 AI를 너무 믿는 것에 대해 이러한 문제가 쏟아지고 있는 게 아닐까 하는 생각도 드는 요즘이다.


결론은 AI 시대에 우리는 수동적이 아닌 능동적으로 판단을 해야 한다는 것이다. 기술의 발전만큼이나 우리의 판단력과 책임감이 성장하지 않는다면, 우리는 거짓이 진실을 가장한 세계에서 방향을 잃을 것으로 판단된다.