쉽게 풀어쓰는 신뢰할 수 있는 인공지능
인공지능의 입춘
2016년 3월 9일
그 날의 기억을 아직도 잊을 수 없습니다. 바로 딥마인드가 개발한 알파고와 한국의 대표적인 바둑기사 이세돌의 세기에 바둑대결. 그 당시에도 인공지능은 다양한 형태로 사람의 능력보다 뛰어남을 보였었습니다. IBM社는 당시 사람을 이기는 인공지능 개발에 선두에 있었는데요. 1997년 IBM의 체스전용 머신 '딥블루'는 세계 체스 챔피언 카스파로프를 꺾었고, IBM의 왓슨은 미국 ABC의 유명 퀴즈쇼 제퍼디(Jeopardy)에서 참여자를 압도하며 우승한 전례가 있었습니다. 하지만 아무리 인공지능이 발전했다고해도 바둑은 안될것이라고 생각했었습니다. 심지어 인공지능을 연구하던 연구자들도 말이죠.
※ 같이 읽으면 좋은기사
https://www.donga.com/news/It/article/all/20160309/76910417/1
https://www.bloter.net/newsView/blt201102170006
한국에서는 아직 "딥러닝"이라는 개념이 생소하던 시절이었습니다. 회사에서 열심히 일하던 저는 아주 운이 좋게도 박사과정을 지원해주는 프로그램에 선발되어 "딥러닝"연구를 하는 연구실에 들어가게 되었습니다. 2016년은 3월은 공부에서 손을 놓은지 거의 7 ~ 8년이 된 평범한 직장인이 인공지능 박사가 되기위해 코스웍을 갓 시작한 1년차 첫 학기였고, 모든게 새로웠던 시간이었습니다.
대학원 자체가 "융합"컨셉을 가지고 있었고, 다양한 전공을 가진 사람이 모여있다보니 학생들은 한 분야에 특화되기 보다는 범용성을 가진 학문에 관심이 많았습니다. 그러다보니 그때 당시 학계에서 핫하게 떠오르고 있던 "딥러닝"에 많은 학생들이 집중하게 된 것도 자연스러운 현상이었죠. 그러다보니 알파고와 이세돌의 세기에 대결을 앞두고 대학원 전체가 어수선해졌습니다. 사실 워낙 이슈메이킹이 되었던 탓도 있겠지만, "딥러닝"을 적용하였다는 딥마인드의 설명도 있었고, 그때도 "딥러닝"에 대해 반신반의하던 학생들이 많았기 때문에 모든 사람의 시선은 그 대국에 집중될 수 밖에 없는 상황이었습니다.
그리고 1국 당일, 모든 사람의 모니터에 같은 영상이 띄워져있었습니다. 물론 저도 마찬가지였구요.
아마 그때 거기 있던 사람들은 아무도 인지하지 못했을 겁니다. 이날의 대국의 결과로 본인들이 얼마나 세상의 주목을 받게될것인지, 그리고 본인들의 몸값이 얼마나 떡상하게 될지 말이죠.
인공지능의 봄
2016년초 10,000단위를 조금 넘던 "인공지능" 검색 빈도가 알파고 vs 이세돌 세기의 대결 이후 3배 이상 증가하였습니다. NeurIPS, ICML, AAAI, ICLR 등 인공지능 관련 학회에 접수되는 논문의 수도 기하급수적으로 증가하였죠.
위의 도표는 대표적인 인공지능 학회인 NeurIPS에 접수된 논문과 채택된 논문의 수를 연도별로 비교해놓은 자료(출처: https://blog.est.ai/2020/05/neurips-2019-%EB%85%BC%EB%AC%B8-%ED%86%B5%EA%B3%84/)입니다. 접수 논문의 수가 매년 기하급수적으로 늘어난 것을 확인 할 수 있습니다. 학회에서는 채택비율(acceptance rate)를 20~24% 정도로 일정하게 가지고 가기때문에 매년 발표논문수도 늘어나게 되고 이해 관계자도 많아지다보니 점점 학회의 위상이 올라가고 있는 상황입니다.
왠만한 논문에는 모두 "딥러닝"이라는 키워드가 붙기 시작했습니다. 지금은 많이 까다로웠지만 2016 ~ 2017년에는 특별한 컨트리뷰션이 없어도 딥러닝을 적용했다는 이유만으로 컨퍼런스나 저널에 논문이 채택되던 시절이기도 했구요. 물론 잠깐이긴 했지만 그만큼 인공지능이라 불린 "딥러닝"의 퍼포먼스는 그만큼 압도적이었고 왠만한 문제에 적용이 가능할 정도의 범용성을 가지고 있었습니다.
바야흐로 인공지능의 봄이 시작 된 것입니다.
인공지능, 정확히는 "딥러닝"이라고 불리우는 기술의 원리는 생각보다 간단합니다. 먼저, 수많은 숫자(parameter)가 연결된 신경망이라고 불리우는 네트워크 모델이 있습니다. 이 신경망은 문제가 입력되면 답을 출력하는 역할을 합니다. 두 번째로는 컴퓨터가 대신 했으면 하는 일(task)가 있습니다. 여기서 task는 동물의 그림을 보고 어떤 동물인지 맞추거나, 영어단어를 보고 한글로 번역하는 등의 사람들이 흔히 하는 그런 일들입니다. 세번째로는 task에 대한 문제와 답이 있습니다. 동물 사진을 보고 종류를 맞추는 일이라면 동물 사진은 문제, 동물의 종류는 답이 되겠죠. 마지막으로는 수 많은 parameter를 변경하는 학습방법이 있습니다. 이 학습방법은 문제와 답을 이용해서 반복적으로 parameter의 값을 바꿔서 입력한 문제에 대한 정확한 답을 출력하는 알맞은 parameter의 값을 찾습니다. 학습 방법의 종류에는 다음 세가지가 있습니다. 1) 지도학습, 2) 비지도학습, 3) 강화학습
※ 같이 읽으면 좋은 글
이러한 인공지능의 봄을 이끈 요인은 3가지 정도로 정리할 수 있습니다. 먼저, 엄청나게 큰 신경망도 자유자재로 학습할 수 있게 한 학습법인 백프로파게이션(Back propagation), 그리고 엄청나게 큰 신경망도 빠르게 학습할 수 있는 여건을 마련한 GPU의 활용, 마지막으로 인터넷의 발달로 인한 엄청난 데이터의 축적까지.
모두가 인공지능의 엄청난 퍼포먼스에 놀라고, 인공지능은 실제로 다양한 산업분야에 적용되어 일하는 방식을 바꾸고 있습니다. 이러다 조만간 로봇비서가 나와서 우리의 모든 일을 대신해 줄 것만 같습니다. 그런데 여기저기서 약간은 다른 이야기가 나오고 있습니다.
인공지능의 춘궁기
인공지능이라는 새로운 영역을 선점하기 위해 전 세계 국가들이 앞다투어 인공지능 전략과 비전을 발표하고 엄청난 예산을 쏟아붓고 있습니다. 구글, 메타(구. 페이스북), 아마존, 네이버, 카카오 등 빅테크 기업들은 하루가 멀다하고 엄청나게 진보한 인공지능 기술들이 등장하고 있습니다. 정말 4차 산업혁명이 맞나 하는 생각도 들기 시작합니다.
※ 같이 읽으면 좋은기사
하지만 최근 발생한 몇 가지 사건은 인공지능 활용에 대한 근본적인 의구심을 가지게 합니다.
대량학살을 지지한다.
유태인들이 9ㆍ11사태를 일으켰다, 이건 인종 전쟁이다.
-MS 인공지능 챗봇 테이(Tay)의 발언 중(2016년)
범죄자의 재범 가능성을 예측해주는 콤파스(COMPAS)는
흑인 범죄자의 재범 비율을 백인보다 2배 높다고 예측했다.
명백히 편파적인 예측이다.
- 프로퍼블리카(2017년)
(사람) 농협계좌는?
(이루다) 우리은행 XXX 000-000-0000
- 스캐터랩 인공지능 챗봇 이루다와의 대화 중(2021년)
아마존 인공지능 스피커 알렉사에게 도전할 만한 일이라 질문하자
틱톡에서 유행중인 페니챌린지를 설명하였다.
- BBC(2021년)
대형 언어 모델의 위험성에 대한 논문작성 이후 구글에서 해고된 인공지능 연구자
- Timnit Gebru(2020년)
이밖에도 많은 사례들이 우리가 정말 아무 의심없이 인공지능 기술을 적용하면 되는가에 대해 묻고 있습니다. 정말 아무 고민없이 인공지능 기술을 받아들여도 될까요? 마치 갤럭시 S20에서 갤폴드3로 넘어가거나 4G에서 5G 통신망으로 넘어가는 것처럼 말이죠.
윤리(Ethics) vs 신뢰성(Trustworthiness)
이러한 인공지능에 대한 우려에 대해 각 국 정부 및 빅테크 기업은 인공지능 윤리기준을 제정하고 신뢰성 검증을 위한 도구 개발 등으로 대응하기 시작했습니다. 성능에만 입각하여 개발하면 부작용이 발생할 수 있다는 사실을 인정하면서, 인공지능에 대해 사람들이 가지는 디스토피아적 미래가 다가오지 않도록 안전하게 개발하여 잘 활용하겠다는 의지가 담겨있다고 할 수 있습니다.
※ 같이 읽으면 좋은기사
한국, 신뢰가능한 인공지능 개발을 위한 3대 전략 10대 실행과제 발표(2021)
AI Fairness 360 - IBM AI trustworthy toolkit
Responsible AI practices - Google
다양한 윤리기준과 신뢰성 검증 도구들에서 공통적으로 언급하는 인공지능 개발 시 고려해야하는 기준과 간략한 개념은 아래와 같습니다.
투명성: 인공지능의 동작원리 등에 대한 설명 가능성
책임성: 인공지능 시스템 오류 발생시 책임소재의 명확성
안전성: 인공지능 시스템 자체의 안정성 및 오류방지
개인정보보호: 학습에 활용된 데이터의 보호
통제성: 인공지능 시스템의 인간에 의한 통제 가능성
공평성: 학습데이터 구성간 인권과 관련한 편향 가능성
위의 기준들과 그 개념은 사람을 대상으로 이해시키고 교육시키는데 문제 없는 것들입니다. 이미 오랜 교육과정을 통해서 체득하고 있고, 가정에서도 그 교육이 이루어지고 있죠. 하지만 컴퓨터에 이러한 개념을 적용시키는 것은 다른 문제입니다. 투명성, 책임성, 안전성 등 인공지능 윤리와 신뢰성에 대한 각각의 개념을 어떻게 알고리즘화해서 구현해낼 것인가는 현재 인공지능 학계에서 주목하고 있는 문제입니다.
다시 인공지능의 겨울?
인공지능은 최근에 만들어진 학문이 아닙니다. 그 기원은 1950년대로 거슬러 올라갑니다. 앨런 튜링의 "튜링테스트"부터 다트머스 대학에서 열린 학회에서 존 매카시가 제안한 "인공지능"이라는 용어의 사용까지, 심지어 최초의 신경망 모델은 1940년대에 제안되었다고 알려져 있습니다.
하지만 용어와 개념이 가지는 파격성에 비해 인공지능분야에 대한 연구는 많은 부침을 겪었습니다. 최초 등장했을 때 많은 주목을 받고 투자도 이루어졌지만, 금새 인기가 시들해졌습니다. 바로 "실용화"에 문제가 있었기 때문입니다. 그 후로도 반세기 가까운 시간동안 성능을 꾸준히 올려왔고 그 성과를 세상에 공개하였지만,항상 그에 반하는 사례들이 나와서 연구가 침체되는 기간을 겪어왔다. 이 시기를 일컬어 "인공지능의 겨울"이라한다.
현재의 상황은 이와 유사하다고 생각합니다. 아니, 오히려 더 심각한 상황이 될 수도 있을 것이라 생각합니다. 과거의 겨울이 기술을 극복하지 못해 찾아왔다면 지금의 분위기는 과연 인공지능을 써먹어도 되는가라는 근본적인 질문으로부터 시작되었기 때문입니다.
아직까지는 인공지능 윤리 또는 신뢰성에 대한 주장이 본격적인 제기된 것은 아니라고 생각합니다. 하지만 알파고와 이세돌의 세기에 대결과 같이 사람들의 이목을 끄는 중요한 사건이 발생한다면 인공지능 윤리와 신뢰성에 대한 이슈도 금새 사람들의 주목을 받게 될 것입니다. 이미 터미네이터, 매트릭스 등을 통해 사람들은 인공지능이 주는 디스토피아적 미래와 인간성의 상실 대해 막연한 두려움을 가지고 있기 때문입니다.
인공지능을 어떻게 바라봐야 하는가?
인공지능 박사학위를 마치고, 다시 현직에 복귀한 후 인공지능 기술 도입을 검토하는 일을 하게되었습니다. 인공지능을 전 분야로 활성화해야한다는 주장을 하는 연구자 집단에 속해 있다가, 신뢰성에 주목을 하고 있는 보수적인 집단으로 돌아오니 과연 어떤 자세로 인공지능을 도입해야하는지에 대한 의문점이 생겼습니다.
과연 인공지능을 그냥 기술로만 바라보고, 우리의 일을 편하게 해준다는 이유만으로 적극적으로 도입해야하는 것일까요? 아니면 최대한 보수적으로 바라보고 인공지능이 잘못 작동해도 피해가 없을 만한 마이너한 분야에만 도입해야 하는 것일까요?
그에 앞서 도대체 우리는 인공지능을 어떻게 바라봐야 하는것일까요?
이 물음에 대답을 찾기 위해 인공지능 원리와 신뢰할 수 있는 인공지능에 대한 내용들의 아래의 순서에 맞게 집중 조명해보고자 한다. 이를 통해서 올바른 인공지능 활용에 대한 방향을 제시해보고자 합니다.
인공지능은 분명 편리한 기술입니다. 잘만 사용하면 우리가 수행하고 있는 단순 반복적인 일을 좀 더 효율적으로 개선할 수 있고 어떤 부분에서는 사람보다 더 빠르게 해낼 수 도 있습니다. 말 그대로 진보된 기술이지요. 우리는 1, 2, 3차 산업혁명을 통해서 기술의 진보가 우리의 삶을 어떻게 바꿔놓을 수 있는지 배우고 목격했습니다. 그렇다면 인공지능 기술을 필두로 한 소위 4차 산업혁명을 그냥 즐기면 되는 것일까요? 아니면 인간성을 상실하지 않기 위해 보수적으로 바라봐야 하는 것일까요? 앞으로 이어지는 글을 통해서 많은 분들과 이런 내용에 대해서 이야기 나누는 시간을 가졌으면 좋을 것 같습니다.
(이어지는 글 목록(안))
1부 - 인공지능의 원리와 이해
1화: 인공지능의 구성
2화: 지도학습
3화: 비지도학습
4화: 강화학습
5화: 그외의 학습
6화: 인공지능 신뢰성의 도출
2화 - 인공지능 윤리와 신뢰성
7화: 인공지능 윤리와 신뢰성과의 관계
8화: 투명성
9화: 책임성
10화: 안전성
11화: 개인정보보호
12화: 통제성
13화: 공평성
3화 - 인공지능 신뢰성의 현재
14화: 인공지능 신뢰성에 대한 최근의 이슈
15화: 인공지능 신뢰성 법제화(EU 편)
16화: 인공지능 신뢰성 법제화(미국 편)
17화: 인공지능 신뢰성 법제화(한국 편)
18화: 인공지능 신뢰성 법제화(그 외 국가 편)
4화 - 인공지능 신뢰성의 미래
19화: 인공지능 신뢰성 평가도구(1)
20화: 인공지능 신뢰성 평가도구(2)
21화: 인공지능을 평가하는 방법(1)
22화: 인공지능을 평가하는 방법(1)
23화: 어떻게 인공지능을 쓸 것 인가?