Gen. AI가 가져온 사회적 이슈
챗GPT 등장 이후 너무도 빠른 기술의 진보에 IT 전문가들과 미래학자들의 앞으로 AI가 가져올 통제못할 위험을 대비해야 한다는 목소리를 높이고 있다. 2023년 4월 이스라엘의 역사학자이자 과학 기술 기반의 SF 소설로 베스트셀러 작가인 유발 하라리는 인공지능이 사람들에게 종교적, 정치적 신념을 주입할 수 있고, 서로를 공격하게 만들 수 있다며 위험성을 지적했다. 딥러닝의 대부로 불리는 캐나다 토론토 대학 교수인 제프리 힌턴은 10년 동안 몸담은 구글에 5월2일 사표를 내면서 AI 발전으로 인한 위험성을 경고하고 나섰다. AI가 생성한 코드가 실행됨으로써 자율무기나 킬러로봇이 현실화될 수 있고, 핵무기와 달리 기업이나 국가가 비밀리에 기술을 개발하는 것에 대한 통제가 불가능하다며 우려를 표했다. 훨씬 전인 3월에는 일론 머스크 테슬라 CEO와 애플 공동창업자 스티브 워즈니악, 구글의 자회사인 딥마인드 연구원 일부를 포함한 AI 전문가와 교수들 1000여명이 ‘오픈 AI의 GPT-4를 능가하는 LLM 개발을 6개월 중단해야 한다.’는 서한에 서명을 하기도 했다.
이런 AI를 둘러싼 위기의식과 경고는 과연 합당한 것일까? 또 이런 경고가 공염불에 그치지 않고 실제 더 나은 인류 문명 발전에 이바지 할 수 있도록 제도적으로 어떻게 통제, 규제해야 하는 것일까? 사실 아이러니한 것은 제프리 힌턴 교수는 구글 딥러닝 AI 프로젝트 연구팀인 구블브레인의 연구원 출신이 2019년 창업한 AI 기반의 자연어처리 솔루션 스타트업인 Cohere의 투자자이다. 또한, 일론 머스크는 AI에 제동을 걸어야 한다고 밝힌지 1개월도 안된 시점에 X.AI라는 인공지능 스타트업을 설립해 Truth GPT를 개발한다고 밝혔다. 남이 하면 불륜, 내가 하면 로맨스라는 것처럼 오해하기 쉬운 행보들이다.
ChatGPT 발표 이후 우리 사회는 이 초거대 AI 기술이 우리 사회에 가져올 위기와 문제가 무엇이 있을지 제대로 예측하고 있을까? 또, 그 예측이 너무 비이성적으로 확대 재해석되는 것은 아닐지 진단할 필요가 있다. 그리고, 실제 인류 사회에 통제하기 어려운 위기를 가져다 줄 것이 확실시 된다면 제도권의 규제나 공동의 합의 그리고 이를 막을 대처 기술에 대한 준비를 해야 할 것이다.
그렇다면 생성형 AI는 어떤 문제를 실제 야기하고 있고 심각한 사회적 이슈를 대두시킬까?
우선 당장, 미드저니나 런웨이와 같은 사진과 영상을 만들어주는 생성형 AI는 있지도 않은 사실을 진짜처럼 만드는 Fake news를 양산할 수 있다. 이런 생성형 AI는 보이스 피싱을 더욱 진짜처럼 만들어 범죄를 양산할 수 있다. 또한, 챗GPT와 같은 AI가 생성한 콘텐츠를 정답인마냥 곧이곧대로 받아들임으로써 발생하는 문제도 있다. 챗GPT는 질문에 답을 명확하게 제시를 하는데 그 과정에 그 답이 실제 정답이 아닌 그럴 듯 하게 만들어진 오답이거나 그저 하나의 의견에 불과할 수 있다. 그런데, 그것을 오직 하나의 정답이라 오해함으로써 혼란을 가중할 수 있다. 거짓뉴스가 만들어내는 혼란처럼 챗GPT의 답을 유일한 길인 것 마냥 쫒는 것 또한 심각한 사회적 문제를 야기할 수 있다.
더 나아가, 우리 사회의 편견으로 가득한 정보 더 나아가 특정 국가나 집단의 시각에 편향된 데이터로 학습된 LLM이 제공하는 정보를 무의식적으로 수용함으로 발생되는 극단적 편향 위주의 사회가 될 것이라는 것도 우려다. 그 외에도 인간이 아닌 AI가 만들어내는 콘텐츠가 무분별하게 인터넷을 오염시켜 정작 인간의 콘텐츠로 학습된 AI가 점차 앞으로는 AI로 자가 학습해 인간에게 정보를 제공함으로써 발생되는 인류 자의식의 분열도 우려되는 지점일 것이다. 물론 생성형 AI의 콘텐츠가 갖는 저작권, 사용권 문제도 이슈다. 소설, 만화, 시 그리고 사진을 포함한 예술작품에 인간이 아닌 AI가 만든 콘텐츠가 저명한 공모전에 당선되고 그로 인해 인간의 자리를 위협하고 시상 협회의 명성을 위기에 빠뜨릴 수 있을 것이다.
게다가 AI의 성능은 갈수록 진화되고 있다. AutoGPT나 LangChain과 같은 ReAct(Reasoning Act) 기법을 사용한 프롬프트 엔지니어링의 개선은 AI에게 내린 명령을 수행하기 위해 사람이 구체적으로 지시를 내리지 않은 것까지도 해낸다. 일례로, '가정에서 아이를 키우면서 유념해야 할 의료 상식을 다루는 SNS를 개설해 6개월내 인기있게 해줘'라는 Prompt에 이를 수행하기 위해 필요한 일련의 과제들을 정의하고, 그 과제를 수행하기 위해 순차적으로 블로그를 개설하고, 관련 콘텐츠를 제작해, 주기적으로 글을 포스팅하고, 이 블로그를 마케팅하는 등의 작업을 수행할 수 있다. 그럴만큼 AI는 발전되고 있다. 그런데, 이렇게 큰 목적을 정해주면 그것을 달성하기 위해 시키지 않을 것까지 정의해서 수행하는 이 AI가 드론이나 로봇, 자동차, 기계에 탑재된다면 어떻게 될까? 물리적인 실체를 가진 AI가 우리가 사는 물리적인 현실계로 들어오는 것이다. 그런 초지능 AI가 기계의 몸체를 가지고 인간을 위협하거나 우리 사회에 사건, 사고를 유발할 수도 있을 것이다.
이렇게 챗GPT를 만든 AI는 갈수록 빠르게 진화하면서 우리 사회에 예상치 못한 이슈를 만들어내고 있다. 이제 기술의 발전에 발맞춰 사회 이슈에 대한 전망과 그에 따른 적절한 규제, 사회적 공감대 형성 등이 필요한 때다.
작가의 챗GPT가 가져올 새로운 비즈니스 기회와 개인 이용팁과 기업의 활용 방안에 대한 강연