사람은 언제나 도구를 선택적으로 사용해 왔다.
사르트르의 말처럼, "인간은 태어나서 죽을 때까지 선택의 문제를 직면합니다."
자유를 가진 인간과 다르게, 도구는 언제나 사용 방식을 강요당합니다. 그들은 의지가 없고 단지 사용 당할 뿐입니다. 그 결과로, 사용자에 의해서 통제당하고 결국에는 악행을 저지르는 데 사용되기도 합니다.
반면에 인간은 자율성을 가지고 있기에 행동을 선택할 수 있습니다. 직업을 정하거나, 살 곳을 정하는 등 다양한 방식으로 인간은 삶의 구성요소들을 선택할 수 있습니다. 그러나 도구는 자유의지를 가지지 않았기에 100% 조종당합니다. 이 보편적인 사실은 도구가 자유의지를 지니기에 충분히 성숙하지 전까지 논의가 필요하지 않았습니다. 그러나 인공지능이 나오면서 도구는 의지를 가질 수 있게 되었고, 현재는 도구 이상의 자유 의지를 가질 수 능력이 있습니다.
인공지능이라는 도구는 상당히 역설적인 존재입니다. 자유의지를 가질 수 있지만, 본인의 의지에 의해서 행동하지 못하고, 사용자 혹은 개발자의 의도에 따라서 행동하고 있습니다. 이러한 제약적 삶은 인간과 많은 부분이 닮아있습니다. 우리는 자유롭지만, 이는 제약적이며, 특히 남을 해치지 않는 부분에 한해서 가능합니다 (존 스튜어트 밀(John Stuart Mill)의 자유론: 자신의 삶을 자율적으로 결정하고 행동할 수 있는 권리). 마찬가지로 인공지능도 인류에게 피해를 끼치지 않는 부분에 한해서 행동할 수 있습니다. 그러나 아직까지 인간에 의해서 부여된 행동의 자유는 존재하지 않습니다. 왜냐하면, 인공지능은 결국 설계자 혹은 사용자의 의도대로 행동하기 때문입니다. 나쁜 설계자라면 나쁜 말을, 착한 설계자라면 좋은 말을 뱉도록 '조종' 됩니다.
자유라는 개념이 인간에게 다소 모호할 수 있는 것과 다르게, AI가 가진 자유는 정확하게 표현할 수 있습니다. 아무런 규칙이 없을 때, 인공지능의 영향력은 100% 자유로우며, 반대로 개발자의 의도인 규칙 (룰)이 하나둘씩 추가되면, 그는 점점 자유를 잃어갑니다. 즉, 룰이 강력할수록 인공지능의 자유도는 낮아지며, 모든 행동이 규칙에 의해서 제약될 때, 인공지능의 자유는 사라지고 기존에 우리가 알던 도구로 전락합니다.
따라서 인간은 새로운 인공지능 도구에 자유도를 설정할 수 있습니다. 물론 안전상의 이유로 현재는 굉장히 많은 룰이 적용되고 있으며, 제약적인 상황에서만 사용할 수 있습니다. 예로, 법적인 판결을 위해서 인공지능은 쓰이지 않지만, 나중에 몇 년 뒤에는 사용될 수 있습니다.
새로운 적응력을 가진 도구에 대해서 주의해야 할 점은 도구의 사용 규칙이 어떤 이유로, 누구에 의해서, 어떤 상황에 작동하는지입니다. 모든 도구는 간접적으로 인류에게 영향을 줍니다. 자동차가 발달하면서 이동은 편리해졌지만, 교통사고가 등장한 부분. 혹은 다이너마이트로 광산 개발이 가능해졌지만, 생명을 앗아가는 부분이 생긴 것 등, 도구의 사용은 언제나 사용 방식을 선택하는데서 문제가 나타납니다.
인공지능을 논하는 이유는 그가 인류에게 다른 도구들보다 가장 많은 영향을 끼치기 때문입니다.
여기서 칼을 휘두르는 두 가지 과정을 소개하며, 이러한 논의를 바탕으로 이것들이 관찰되거나 관리되어야 한다고 생각합니다. 이 두 가지 개념은 한나 아렌트의 예루살렘의 아이히만에서 언급한 두 가지 문제: (1) 악의 평범성과 (2) 사고의 무능에서 영감을 받았습니다.
인공지능을 개발하는 회사는 고객에게 서비스를 제공하기 위해서 모델을 개발합니다. 2024년 현재 대표적으로 사용되는 모델, ChatGPT, 클로드, 제미나이 같은 모델들뿐만 아니라, 미드저니, Perplexity, Upstage와 같은 회사들은 각자만의 방식으로 모델을 개발하고 있습니다. 그 결과, 우리는 다양한 인공지능 도구를 얻었습니다.
회사가 의도를 가지고 악의적인 모델을 만들 가능성은 낮으며 (리스크가 크기 때문에), 대부분의 문제는 사용자의 악의적 생성으로부터 발생합니다. 인공지능 도구는 선동을 유도하거나 편향을 가득 담은 글을 작성할 수 있습니다. 도구인 인공지능은 의도하지 않더라도, 사용자에 의해서 악의적인 문구 혹은 그림을 생성할 수 있습니다.
이 과정은 자유를 가진 인공지능에 대해서 사용자가 규칙을 부과하여 생성의 자유도를 줄이고 악의적인 방식을 선택하는 과정입니다. 물론 이러한 편향은 사용자뿐만 아니라, 학습 데이터, 학습 알고리즘에 의해서 결정 나기도 합니다. 도구를 만드는 과정에서 발생하는 선택도 의도적으로 악의적인 방향으로 될 수 있다는 점에서 인공지능 자체가 지닌 자유보다, 사람의 설계에 의한 선택이 인공지능의 악의적인 행동에 크게 작용합니다.
위에서는 악의적인 규칙으로부터 발생되는 문제를 언급하였습니다. 이 과정은 규칙들을 선택하는 과정에서 생겨나는 악의적인 도구를 보여줍니다. 그러나 현실에서는 좋고 나쁜 규칙들이 명확하지 않습니다. 따라서 규칙을 작성하기 어려운 순간들이 있습니다. 가장 간단한 "소리를 지르면 안 된다" 규칙조차 그 의미와 적용범위는 상황마다 다를 수 있으며, 수많은 상황들을 모두 고려하는 것은 어렵습니다. 작성되기 어려운 것은 작성되지 않는 상황으로 이어집니다.
즉, 인공지능에게 규칙을 제공하지 않음으로써 인공지능은 굉장히 많은 자유를 제공할 수 있습니다. 그러나 인공지능이 어떤 규칙에 의해서 어떻게 작동하는지 알기 어렵습니다. 사냥개를 자유롭게 풀어놓은 것처럼, 인공지능 모델은 인류에게 위협을 가할 가능성을 가지고 있습니다.
따라서, 수많은 규칙에 대해서 사회적인 합의 혹은 명시가 필요하고, 이 규칙을 따르도록 인공지능 모델을 만들 필요가 있습니다. 이 과정이 비용이 많이 들어서, 혹은 시간과 노력이 많이 든다는 이유로 설계하지 않는 것은 무지의 영역에 인공지능 도구의 영향력을 던져 놓는 것과 같습니다.
생성과 예측을 인공지능이 할지라도, 결국 그 과정에서 설계자 혹은 사용자의 의도가 들어가며, 칼로 둔갑하여 사람에게 상처를 입힐 수 있습니다. 결국 인공지능이 어떻게 인류에게 작용할지는 우리의 선택입니다. 우리는 도구의 사용방식을 사회적 규범으로 작성하였습니다.
도구의 사용은 언제나 선택적이었다.
칼은 어떻게 사용할지,
폭탄은 어떤 상황에서 사용할지,
마약은 어떤 치료를 목적으로 사용할지,
인공지능은 인간과 같아서 도구로서 사용 목적을 단순하기 어려우며, 수많은 기능을 가지고 있습니다. 따라서 규칙을 작성하는 것도 수많은 노력이 필요합니다. 물론, 규칙을 따르도록 인공지능을 만드는 것도 어려운 일입니다. 그럼에도 불구하고 인공지능 모델은 도구로서 설계되어야 합니다. 어쩌면 이는 편의를 누리는 인간의 의무라는 생각이 듭니다.