인공지능 리터러시
1990년대에는 '컴맹'이라는 말이 있었다. 컴퓨터를 사용하지 못하면 일을 하는 데 있어 큰 불편함이 있던 시절이었다. 이후 인터넷이 보편화되고 디지털 격차가 사회문제로 떠올랐다. 디지털 격차는 인터넷에 접근하지 못하는 사람들이 정보에 뒤쳐지며 기술에 의해 발생하는 불평등을 말한다. 초기의 디지털 격차는 인터넷에 접근할 수 있는지 여부에 초점이 있었으나, 최근에는 디지털 기술의 활용과 그 결과로 생긴 불평등까지 포함하는 개념이 되었다. 우리나라의 경우 대부분의 사람들이 스마트폰을 가지고 있으며 언제든지 인터넷에 접근할 수 있다. 모든 것이 디지털화되면서 일, 학업, 일상생활에 디지털 기술을 사용하지 않으면 생산성이 떨어지거나 불편함이 있기 때문에 디지털 격차는 사라지지 않았다. 노년층의 경우에는 디지털 기술을 제대로 활용하지 못하면서 오히려 차별을 받는 경우도 있다. 인공지능(AI)이 빠르게 발전하면서 새로운 사회 불평등이 발생할 가능성이 제기된다.
인공지능 리터러시의 필요성
문해력(Literacy)은 원래 글을 읽고 쓸 수 있는 능력을 말한다. 정보통신기술(ICT)의 발달로 문해력은 각종 디지털 기술을 사용할 수 있는 능력 정도를 나타내는 개념으로 확대되었다. 예컨대 '컴퓨터 리터러시', '미디어 리터러시', '데이터 리터러시'등이 연구된다. 최근에는 '인공지능 리터러시'의 연구가 늘어나는 추세이다.
2022년 11월 ChatGPT가 공개되면서 두 달 만에 1억 명의 사용자를 확보했다. 딥시크, 클로드, 제미나이와 같은 빅테크 기업의 제품들이 널리 쓰이고 있으며, 후발주자들도 인공지능에 사활을 걸며 그 발전 속도가 매우 빨라졌다. 인공지능은 기존의 디지털 기술을 기반으로 하나, 그 영향력은 인터넷을 뛰어넘을 것으로 예측된다. 국가적인 차원에서 인공지능은 핵무기에 버금가는 안보 문제이며, 조직에서는 생산성 향상을 위한 필수 도구로 인식되고, 개인은 일상생활에서 정보를 얻고 자동화하는데 필수품이 되었다.
사용자 입장에서 인공지능과 기존 디지털 기술의 가장 큰 차이는 자동화의 정도이다. 예를 들어, 정보를 얻기 위해 검색엔진에 질문하면 웹페이지 목록을 보여주는 반면, 인공지능에게 물으면 그 맥락을 고려하여 결과를 알려준다. 인공지능에게 자연 언어로 물으면 친구나 선생님처럼 대답을 하고, 괜찮은 유머를 구사하고, 어려운 수학문제도 척척 풀어준다. 나의 경우 변호사 없이 소송을 하고 있으며, 인공지능을 활용해서 법률문서를 완성한다. 내가 사실을 적으면 인공지능이 유능한 변호사처럼 법률적으로 해석하고 보완해 주는 방식이다. 거의 지식이 없는 영역이더라도 인공지능을 이용하면 누구나 전문가와 같은 콘텐츠를 만들어 낼 수 있다.
이미지를 보고 암인지 판단하는 업무, 증상을 해석해서 질병을 판단하는 업무, 사건을 분석하여 법률문서를 작성하는 업무, 세금 관련 업무 등은 인공지능이 이미 인간의 능력을 넘어섰다. 그렇다면 인공지능으로 전문직이 사라지고 저숙련자는 전문직 없이 일할 수 있는 시대가 오는 것일까? 이에 대해서는 상반되는 연구결과와 예측이 있다. 의사 및 변호사와 같은 고숙련 직업을 가진 사람들은 인공지능을 이용해서 더욱 생산성을 높일 수 있다. 저숙련자들은 인공지능을 이용하면 전문가 같은 수준의 콘텐츠를 생산해 낼 수 있다. 그러나 중간숙련자(법률보조사무자, 세무업무보조자)들은 인공지능으로 인한 역량 개선이 미미하다. 따라서 중간숙련도에 해당하는 사무직 근로자가 인공지능에 의해 대체되고, 노동시장은 저숙련자(예:- 세탁소, 식당서빙)와 고숙련자(예:-의사, 변호사, 정치인)로 양분될 수 있다. 이에 대한 반론도 있다. 고숙련자들의 주요 업무는 지식을 제공하고 의사결정(예:- 판사, CEO)을 하는 것이다. 그러나 지식에 대해서는 어떤 인간도 인공지능과 같은 양의 정보를 수집하고 처리하는 것이 불가능하다. 인공지능은 피로감을 느끼지 않고 감정적으로 동요하지도 않기 때문에 언제나 생산적이고 더 나은 의사결정을 내릴 수 있다. 이 때문에 판사를 인공지능으로 대체해야 한다는 의견이 널리 퍼져 있다.
인공지능은 그 위험도 크다. 자율주행차가 사고를 내면 누구에게 책임을 물어야 하는지 불분명한 윤리적 문제가 있다. 인공지능의 학습에 필요한 데이터를 무단으로 수집해 가면서 저작권과 프라이버시에 대한 문제도 있다. 없는 정보를 생산하거나 잘못된 정보를 사실처럼 말하여 피해 주는 경우도 있다. 이는 환각현상으로 불리며 미국에서는 벌금을 받은 사례가 있다. 변호사가 ChatGPT를 이용하여 판례를 제시하였으나, 해당 판례는 존재하지 않는 것으로 밝혀졌고, 법원은 허위 판례를 제시한 것에 대해 벌금을 부과했다. AGI의 출현도 사람들을 불안하게 한다. 레이 커츠와일은 가까운 미래에 인공지능이 AGI로 진화하고 지능폭발이 일어나며, 전인류의 지식을 다 합친 것보다 인공지능이 더 많은 지식을 보유할 것이라고 주장한다. 인공지능에 의한 인류종말 시나리오는 현존하는 문제가 아니나, 스튜어트 러셀 및 닉 보스트롬과 같은 저명한 학자들은 심각한 위협으로 보고 미리 준비해야 한다고 말한다.
인공지능은 본질적으로 블랙박스(Blackbox)와 같다. 수학문제를 정확히 풀어내고, 정확한 의사결정을 하지만 어떻게 그런 결과가 나왔는지는 알 수 없다. 인공지능에 대한 설명가능성을 요구하며 인공지능 윤리에 대한 지침이 만들어지고 있다. 우리나라는 2024년 12월 인공지능 기본법을 만들었고, 2026년 1월에 시행될 예정이다. 이 법은 인공지능의 혁신을 저해하지 않으면서 그 위험은 규제하는 것을 목적으로 한다. 인공지능에 대한 투자는 법을 기반으로 할 수 있으나, 그 규제는 사실상 어렵다. 규제를 위한 법률이 추상적인 것이 문제이며, 법에 의한 규제는 기술발전 속도를 따라갈 수 없다. 인공지능 개발자들이 스스로 윤리적으로 개발을 해야 한다. 사용자(정부 또는 개인)는 인공지능의 원리를 이해하고 윤리적 사용을 위해 노력해야 한다.
어렸을 때 연기자 강남길이 쓴 '컴맹 탈출' 책을 본적이 있다. 마우스 및 키보드 사용법부터 하드디스크와 램과 같은 기본적인 컴퓨터의 동작방식에 대한 설명이 있었다. 최근에는 데이터분석을 공부하며 인공지능의 기초가 되는 머신러닝(기계학습)을 공부를 했다. 인공지능은 수학, 컴퓨터 과학, 인지과학이 통합되어 탄생하였다. 일반 사용자가 인공지능 엔지니어가 될 수는 없다. 그러나 기본적인 지식만으로 엑셀을 사용해서 개인의 역량을 크게 올릴 수 있는 것처럼 인공지능도 기본적인 동작원리를 이해한다면 더 잘 활용하고 그 위험은 줄일 수 있다. 빠르게 발전하는 인공지능에 대응하지 못하면 사회 불평등이 심화될 우려가 있다. 인공지능 리터러시에 대한 연구와 교육을 서둘러야 할 것이다.