AI 알고리즘이 적용된 서비스가 논란이 되자 해당 업체는 AI 알고리즘이 한 것이라며 발을 빼는 듯한 사례가 심심치 않게 나오고 있다. 문제가 생겼는데, AI가 그랬으니 자기들은 잘 모르겠다는 식으로 오리발을 내밀고 있는 것이다.
많은 이들에게 이름 꽤 있는 회사들이 AI한테 책임을 미루는 장면은 영 보기가 좋지 않을 것이다. 이에 일각에선 해당 업체들이 AI 알고리즘을 공개해야 한다고 주장도 나오고 있다.
AI 알고리즘을 공개하는 것은 대안이 될 수 있을까? 여러 관점이 있겠지만 마이크로소프트 최고법률책임자(CLO) 브래드 스미스(Brad Smith)는 자신이 쓴 책 '기술의 시대'를 통해 알고리즘 공개에 대해서는 반대하는 입장을 보였다. AI 알고리즘을 공개하는 것보다는 지금은 블랙박스 같은 AI를 설명 가능하게 만드는 것이 현실적이라는 것이다.
AI 개발자들이 어떤 알고리즘을 사용하는지 공개해야 한다고 주장하는 사람들도 있다. 하지만 우리가 자체적으로 판단하기로는 대부분의 경우 그런 방법은 무언가 도움이 되는 내용을 알려주기 보다는 오히려 귀중한 영업상의 비밀을 노출할 가능성이 크다. 그렇게 되면 기술 부분의 경쟁이 오히려 저해될 것이다. 우리는 이미 AI에 관해 학계나 다른 IT기업들과 파트너십을 맺고 더 나은 접근법을 개발하고 있다. 점점 더 초점을 맞추고 있는 방법은 의사 결정에 사용되는 핵심 요소를 설명하는 것처럼 AI를 설명 가능하게 만드는 쪽이다.
설명 가능하게 만든다고 다는 아니다. 브래드 스미스는 AI에 대해 사람들이 좀 더 많은 책임감을 가져야 한다고 강조한다. AI를 만드는 엔지니어들은 인문학이나 윤리학적인 소양도 갖춰야 한다고 주문한다.
마지막 AI의 윤리 의식은 나머지 모든 원칙의 기반이라 할 수 있는 책임감이다. 컴퓨터는 인간에 대한 책임을 갖고 컴퓨터를 설계하는 사람들은 다른 모든 사람에 대한 책임을 갖는 그런 미래를 세상은 만들 수 있을 것인가? 어쩌면 우리 세대를 결정짓는 핵심 질문일지 모른다.
이 마지막 원칙이 지켜지려면 AI 기반 시스템이 인간의 검토나 판단, 개입 없이 멋대로 엇나가는 일이 없도록 모든 과정에 인간이 포함되어 있어야 한다. 다시 말해 인간 권리에 중대한 영향을 미칠 수 있는 AI 기반 의사 결정은 늘 인간의 유의미한 검토와 통제 아래 있어야 한다. 그리고 그러려면 AI가 만들어내는 의사 결정을 평가하는 훈련 받는 사람들이 필요하다.
여기에는 또한 폭넓은 관리 과정도 중요하다고 우리는 결론 내렸다. AI를 개발하거나 사용하는 모든 기관은 AI 시스템의 개발과 활용에 관한 새로운 정책과 프로세스, 훈련 프로그램, 준법 감시 시스템이 필요하다. 또한 이를 검토하고 조언해줄 사람들도 필요하다.
저자는 데이터 과학 분야 교과 과정에 아예 윤리학을 넣어야 한다는 도발적인 의견까지 내놓는다.
AI를 마주하는 세상은 이전의 그 어떤 기술에서도 겪어보지 못했던 서 다른 철학적 전통 사이의 차이와 유사성에 대처해야 한다. AI가 제기하는 이슈들은 개인에게 부여된 책임의 역할, 공공 투명성의 중요성, 개인 프라이버시의 개념, 기본적 공정성 개념 등과 같은 주제를 아우른다. 인간에 대한 철학적 이슈에서도 조차 합의를 볼 수 없는 전세계가 대체 어떻게 해야 컴퓨터 윤리에 대해 단일한 접근법을 마련할 수 있을까? 우리가 미래에 해결해야할 근본적인 난제다.
이 문제를 해결하기 위해서는 기술을 만들어내는 사람들이 컴퓨터나 데이터 과학 뿐만 아니라 사회과학이나 자연과학, 인문학 쪽에서도 더 많이 나와야 한다. 인공지능이 인류가 내놓을 수 있는 최고의 선의를 바탕으로 의사 결정을 내리기 위해서는 인공지능을 개발하는 과정에 여러 학문 분야가 연계해야 한다. 그리고 고등 교육의 미래를 생각할 때는 반드시 모든 컴퓨터와 데이터 과학자들이 인문학을 접하도록 해야 한다. 인문학을 전공하는 사람들도 컴퓨터나 데이터 과학이 어느 정도는 필요할 것이다. 또한 컴퓨터나 데이터 과학 교과 자체에도 윤리학에 좀 더 맞추는 것이 필요하다.