brunch

You can make anything
by writing

C.S.Lewis

by 안산 Feb 18. 2024

"AI 윤리는 결국 사람의 윤리, 책임은 인간의 몫"

[데일리안 인터뷰] 생성형 AI로 인한 민주주의의 위기 경계해야

김명신 LG AI연구원 정책수석 인터뷰
AI 윤리, 결국 '어떻게 잘 쓸 것인가'의 문제
"우리 사회가 합의한 기준, AI도 따라갈 것"


김명신 LG AI연구원 정책수석이 5일 오후 서울 강서구 마곡 LG AI 연구원에서 데일리안과 인터뷰를 하고 있다. ⓒ데일리안 홍금표 기자



[데일리안 = 임채현 기자] "결국 AI(인공지능)도 사람이 관리하는 겁니다. 어떤 데이터를 어떻게 학습하냐에 따라서 결괏값이 나오죠. 자칫 편향적이거나 객관적이지 않을 수 있는 오류 등은 인간이 만들어 낸 알고리즘에 따라 산출된 결과물이에요. 인간이 AI를 대하는 자세에 있어 생산성·효율성을 높이기 위한 수단으로서가 아닌, 결과에 대한 책임도 맡긴다? 사실상 그건 인간으로서의 존엄과 가치를 포기한 행위라고 봐야겠죠."


온라인에서 종종 찬반 토론이 일어나는 AI 판사 도입과 관련 '재판 결과의 공정성'에 대한 우려 섞인 궁금증을 나타내자, 전문가는 우문현답(愚問賢答)을 내놨다. 답변의 주인공은 김명신 LG AI연구원 정책수석. 지난 5일 서울 마곡 LG AI연구원 사무실에서 만난 김 수석은 "조금 더 효율적이고 좋은 방향의 결과를 만들고자 도움을 받는 것일 뿐, AI가 인간을 대체할 수는 없다"고 명쾌히 잘라 말했다.


AI 윤리란, '어떻게 잘 쓸 것인가'


김명신 정책수석은 LG AI연구원에서 AI 윤리·공공정책에 대한 연구를 맡고 있다. 최근 사회 전반에서 AI에 대한 주목도가 높아지며, 기술 발전 측면뿐만이 아닌 활용·규제에 대한 필요성이 함께 논의되기 시작했고, 이는 유네스코 AI 윤리 권고 작업 한국대표단을 맡고 있던 그가 LG AI연구원에 합류하게 된 배경이 됐다. 국제적 추세에 맞게 윤리적 관점과 기술 경쟁력을 확보하는 정책 균형 발굴을 넘어, 해당 정책과 원칙을 기업에서 실행하고 적용하는 역할을 담당하게 된 것이다.


LG AI연구원은 그간 계열사별로 AI 분야를 연구해 오던 LG가 그룹 차원에서 지난 2020년 설립한 곳이다. 최근 초거대 AI '엑사원 2.0'을 공개하는 성과를 내는 데 앞서 국내 4대 그룹 중에 가장 먼저 AI 윤리 원칙을 세워 언론의 주목을 받기도 했다. 김명신 정책수석은 'AI 윤리의 궁극적 방향'에 대해 LG AI연구원의 슬로건인 'Advancing AI for a better life(더 나은 삶을 위한 AI의 진전)'라고 명료하게 답변했다.


김 수석은 "AI 윤리는 국내서 아직 제도화돼 있지 않다"며 "이슈들은 많은데 새 기술에 대한 사회적 합의가 이뤄지지 않았다"고 했다. 지난 2017년 미국에서 '아실로마 AI 원칙'이 채택되며 본격적으로 AI 윤리 분야의 중요성이 대두되기 시작했다는 설명이다. 실제로 국내에서는 지난해 말부터 시작된 생성형 AI '챗GPT' 바람이 본격적인 파장을 일으키며 기술 발전과 더불어 '어떻게 잘 쓸 수 있는지'에 대한 사회적 논의가 활발히 이루어지고 있다.


김 수석은 최근 논의되고 있는 AI 윤리적 이슈를 크게 두 가지로 꼽았다. 부정확한 정보를 제공해 신뢰성을 떨어뜨리는 '할루시네이션(환각)'과 같은 기술적인 문제, 아울러 생성형 AI 등장으로 누구나 AI를 쓸 수 있게 되면서 윤리가 기업에서 사용자 측면으로 확장되고 있다는 점이다. 그는 "사람들이 AI를 가지고 가짜뉴스나 잘못된 콘텐츠를 생산해 내는 것이 문제"라고 했다.


김명신 수석은 이를 두고 '생성형 AI로 인한 민주주의의 위기'라고, 짤막히 표현했다. 내년 국내 총선과 미국 대선을 앞두고, 가짜뉴스와 허위 정보가 판치는 선거 과정에서 AI가 사람들의 의견을 왜곡시키고 진위를 구분할 수 없는 정보를 확산시킬 수 있다는 우려 섞인 표현이다. 그간 나름 건강한 공론의 장으로 통했던 인터넷이 그 기능이 흔들릴 수도 있을 것이라 추측하며 "사용자가 어떻게 쓰느냐도 문제지만, 동시에 이를 제도적으로 어떻게 보완할 것인가에 대한 고민도 중요하다"고 했다.


김명신 LG AI연구원 정책수석이 5일 오후 서울 강서구 마곡 LG AI 연구원에서 데일리안과 인터뷰를 하고 있다. ⓒ데일리안 홍금표 기자


AI 윤리, 결국은 인간에게 달려


"삶의 출발선에서부터 AI와 함께하는 세대인 요즘 아이들을 'AI 네이티브'라고 표현하죠. 여기서 중요한 것은 변화하는 세상에서 어떻게 아이들을 교육 시킬 것인지에 대한 접근보다, 현재 디지털 환경 속 아이들은 소비자면서 동시에 생산자라는 개념을 대입해야 한다는 겁니다. 윤리 의식을 가르쳐야 하는 수동적인 대상만이 아니라 AI의 특성을 이해할 수 있도록 하고, 아이들 본인이 주체라는 것을 인식시키는 것이 기성세대가 현재 해야 할 역할이라고 봐요."


인간이 아니기에 오히려 공정할 것으로 생각했던 AI의 윤리 기준 역시, 결국은 인간에게 달려있다는 설명이다. 김 수석은 "AI는 하나의 기계가 아니라 시스템"이라고 했다. 전 주기에 걸쳐 데이터를 수집하고 정제 및 라벨링 작업과 알고리즘을 통한 모델 제작, 서비스 유통까지 모든 과정에서의 윤리를 총칭한 것이 AI 윤리라고 강조했다.


또 "출력된 결과에 앞서 당초 데이터를 수집할 때부터 저작권 ·책임 문제 등 전 과정에서 얽힌 이해관계자들에게 피해가 가지 않도록 윤리적 이슈 여부를 살펴야 한다"고 말했다. 김 수석은 AI와 관련된 의사결정에서 언제든 책임 문제가 발생할 수 있다고 봤다. 어떤 알고리즘을 통해 출력값이 나왔는지, 데이터 관리 및 제공 주체-모듈 생성 주체 중 어디서 오류가 났는지 정확히 밝히기 어려운 특성이 있기에, 충분한 사회적 논의가 필요하다는 주장이다.


그를 위해 "'휴먼 온더 루프'와 '휴먼 인더 루프'의 개념을 구분해야 한다"라고도 했다. AI 의사결정에 있어 인간이 전반적인 것만을 체크할 것인지(HUMAN ON THE LOOP), 사이사이 개입할 것인지(HUMAN IN THE LOOP)의 분류인데 산업 특성에 맞추어 어떤 접근 방식을 택하고 책임을 나눌지를 분류하는 것이다. 쉽게 말해 불량품을 검사하는 작업과 심리 상담을 하는 작업의 AI 의사결정 과정에는 각각 차이점을 두어야 한다는 주장이다. 김 수석은 "다만 그럼에도 AI에게만 책임을 돌리는 것은 맞지 않다. 결국 책임은 사람이 지는 것"이라고 강조했다.


"'트롤리 딜레마'와 마찬가지로, 무엇이 옳고 그른지 첨예하게 대립할 수 있는 사안을 놓고 AI는 과연 어떤 정답을 내릴 것인지 많은 이들이 궁금해합니다. 그런데 결국 AI 윤리는 본질적으로 사람의 윤리에요. 우리 사회가 가지고 있는 기준을 결국 AI도 따라가게 됩니다. 우리가 합의한 선에서 AI도 그 기준을 학습하고 결정을 내리게 되지 않을까요."


정부의 역할, 기업의 역할


그의 설명에 따르면, 현재 LG AI연구원의 AI 윤리 접근 방식은 크게 세 가지 축으로 나뉜다. AI 라이프 사이클 전 과정을 관리하는 '거버넌스', '연구(기술+정책)', '그리고 참여'다. 김 수석은 "정책적 연구 부문에서는 'AI 윤리 평가 시스템 자동화'를 연구 중"이라며 "질의응답을 통해 윤리 점검이 자동으로 될 수 있도록 하는 시스템을 내년 초부터 연구원에 도입하고자 준비하고 있다"고 밝혔다. 이어 "연구원은 2주에 한 번 정기적으로 AI 윤리 교육을 진행하며 구성원들의 참여를 끌어내고 있다"고 덧붙였다.


윤리적인 AI 개발 촉진을 위한 정부 역할에 대해선 어떤 견해일까. 그는 "AI 윤리를 제도화시키는 것이 핵심"이라며 "국제적인 AI 윤리 원칙은 어느 정도 합의가 됐다고 보인다. 다만 이 원칙이란 것이 추상적 수준에서 합의됐기에 어떻게 제도화시킬 것이냐는 각국 정부가 책임져야 하는 문제"라고 했다. 또 "새로운 디지털 질서를 충분한 사회적 공감대 형성을 거쳐 누가 빠르게 만들어 내는지 여부가 미래 국가경쟁력을 좌우하게 될 것"이라며 "제도화한 후에도 끊임없이 변화하는 AI에 대해 유연한 방식으로 수정 보완이 필요하다"는 제언도 덧붙였다.


제도화 과정에서 따라오는 규제에 대해서는 "법적 규제와 자율(민간 기업 위주의 자발적 형태) 규제가 있는데, 관점 차이가 있겠지만 지금 우리나라는 자율 규제가 더 중요하다고 본다"며 "기업 입장에선 리스크가 있는 AI 서비스를 런칭하는 것은 소비자의 신뢰를 잃는 등 기업 경쟁력과 직결되기 때문에, 자율 규제에 신경을 쓸 수밖에 없을 것"이라고 내다봤다. 한국의 높은 소비자 인식 수준을 고려했을 때, 시장에서 자동으로 어느 정도 걸러질 수 있을 것이라는 주장이다.


끝으로 "공상 과학 영화에서처럼 AI의 발전이 미래 인류의 일자리를 대체할 것이란 두려움은 어떻게 봐야 하느냐"는 질문에 김 수석은 "AI는 인간을 돕기 위한, 생산성을 높이는 기술"이라고 말했다. "AI 덕분에 'AI 윤리 연구원'이란 직업도 탄생하지 않았느냐(웃음), 분명 대체되는 분야가 있을 수 있지만 AI로 인해 전반적인 생산성이 높아지며 전체 파이가 커질 것"이라고 단언했다.


그는 "500년 전 농경 사회에서는 논밭, 50년 전 산업화 시기에서는 공장, 그리고 오늘날은 사무실이 인간의 주 무대가 되지 않았나. 미래엔 개인마다 자신만의 AI를 가지게 될 수 있고 그로 인한 경제적 소득도 발생할 수 있다고 예상한다"고 했다. 이어 "AI기술이 실제 현장에서의 변화를 만들어 낼 때까지는 시간이 꽤 남아있다고 본다. 이런 변화의 흐름 속에서 어떻게 청장년층·노년층에게 재교육하고 충분히 AI 혁신의 시대를 누릴 수 있을 것인가를 고민해야 하는 수순"이라고 힘주어 말했다.


마곡 LG AI연구원 내부 전경.ⓒLG AI연구원 홈페이지 발췌


LG AI연구원은


현재 LG그룹은 기업 차원에서 청소년, 청년, 직장인을 대상으로 교육 프로그램을 운영하고 있다. 청소년 AI 관련 체험 교육을 제공하는 'LG 디스커버리 랩' , 전공과 무관하게 AI 전문가 교육을 받을 수 있는 'LG 에이머스' 등이다. 임직원들을 대상으로는 아카데미 대학원 과정을 진행하고 있다. 그룹 차원의 최신 AI 원천기술 확보와 계열사 내의 각종 산업 난제를 해결하기 위해 'LG AI연구원'을 지난 2020년 말 설립했다. 이는 국내 대기업 가운데 최초다.


최근 챗GPT와 같은 생성형 AI 챗봇이 큰 반향을 불러일으키며 국내에서도 대기업·스타트업들이 AI 기술을 활용한 사업 모델을 개발 중이지만, 산업 현장에서 AI를 활용한 비즈니스에 뛰어든 경우는 아직 미미한 수준이다. 빅테크 기업들이 생성형 AI를 활용한 메인 비즈니스는 대다수가 클라우드 분야로 알려져 있다. 이와 달리 LG AI연구원은 초거대 멀티모달 '엑사원 2.0'을 통해 실제 산업에 적용 가능한 '전문가용 AI' 개발에 주력하고 있다. 이른바 Task oriented(과제 지향적)다.


현재 자체 AI 모델을 지닌 기업은 LG AI연구원을 포함해 네이버, 카카오 등이 있다. 국내 기업 중 선두 주자인 LG AI연구원은 지난해 5대 윤리 원칙을 발표했다. 국제기구와 글로벌 기업들이 만든 원칙을 바탕으로 LG 그룹 고유의 '고객 가치창조, 인간 존중' 경영 이념을 녹여내 ▲인간 존중 ▲공정성 ▲안전성 ▲책임성 ▲투명성 등 핵심 5대 원칙을 추려냈다. 'Advancing AI for a better life(더 나은 삶을 위한 AI의 진전). LG AI연구원이 추구하는 비전이다.


김명신 LG AI연구원 정책수석은
LG AI연구원에서 AI 윤리와 공공정책 분야를 담당하고 있다. 유네스코에서 AI 윤리 권고 작업 한국대표단으로 활동했으며 성균관대 미디어 융합대학원 겸임교수, 통일부 및 서울시교육청 정책자문위원 등을 역임했다.



임채현 기자 (hyun0796@dailian.co.kr)



기사 원문은 아래 링크에서 


브런치는 최신 브라우저에 최적화 되어있습니다. IE chrome safari