AI 트루스에서 뽑은 50개의 핵심 파트
IT 업계에서 일한다면, 직접적으로든 간접적으로든 AI의 영향을 받을 수 밖에 없다. 이제 Chat GPT를 활용하지 않는 개발자는 거의 없고, 마케터들은 Chat GPT를 이용해서 컨텐츠 제목, 썸네일 등을 제작한다. 최근에는 기업들이 Custom AI 프로덕트를 사용할 수 있게 도와주는 스타트업이 나오기도 했다.
이처럼 AI로 인한 변화는 외국에서 일어나는 먼 미래의 일이 아니다. 현재 우리가 직접 마주하는 변화다. 변화에 잘 대응하기 위해서는 먼저 변화를 정확하게 알아야 한다. 변화하는 현실을 직시해야, 그 변화에 어떤 식으로 대응해야 할지를 알 수 있다. 변화를 제대로 이해하지 않고, 변화에 대응하려는 노력은 무용지물이다.
이 책은 그런 면에서 AI로 인한 변화를 정확하게 인식할 수 있도록 첫 발걸음을 떼는 데 도움을 준다. 저자의 상상력이 들어간 부분도 있어서, 이 책에 나오는 내용들이 모두 100% 진실이라고 할 수는 없지만, AI가 발전한 과정, AI로 일어나는 주요 변화, 그리고 현실을 바탕으로 한 일반적인 상상을 파악하는 데 도움을 주는 책이다.
이 책을 읽는다고 AI에 대한 모든 것을 알 수는 없다. AI라는 분야는 넓고 깊어서 책 한권으로 완전히 알 수는 없다. 그렇지만 이 책을 통해서 AI에 대한 막연한 상상이나 두려움을 실체가 있는 개념으로 바꿀 수 있다.
* 'AI 트루스: 두려움의 시대, 냉철하게 마주해야 할 가장 명확한 진실'은 한빛미디어에서 리뷰 요청과 함께 보내주신 책이다. 리뷰 요청과 함께 받은 책이라고 해서 특별히 더 좋게 쓴 부분은 없다. 이전에 쓴 여러 글처럼 좋다고 생각한 부분만을 편집하고, 요약했다.
1. 우리가 오늘 경험하고 있는 이런 인공지능 기술은 하늘에서 뚝 떨어진 선물이 아니다. 많은 연구자가 수십 년 동안 장구한 고민과 노력, 연구와 시행착오는 물론 수많은 나라와 회사가 신중하게 실행한 계획과 투자, 수많은 사람의 호기심과 관심, 그리고 관련된 모든 사람의 땀과 눈물을 통해 한 걸음씩 앞으로 나아간 도전의 산물이다.
2. 다재다능하고 재기가 넘치는 마빈 민스키는 인간을 생각하는 기계라고 말하며 인간의 지능이 명확한 규칙과 논리로 이루어져 있다고 말하곤 했다. 다트머스 회의에 참석한 학자들은 대부분 민스키와 마찬가지로 인간의 지능이 기계가 시뮬레이션할 수 있을 정도로 명확한 규칙과 논리로 이루어져 있다고 생각했다. 이와 같은 생각에 기반한 접근 방식을 기호주의라고 부르는데, 마빈 민스키는 기호주의의 대표적인 학자였다.
3. 기호주의는 인공지능을 이해하고 만드는 방법의 하나로 인간의 생각을 숫자, 문자 등으로 이루어진 기호와 규칙으로 표현하는 것이다. 즉, 우리가 문제를 해결할 때 머릿속에서 사용하는 논리나 규칙을 컴퓨터가 이해할 수 있는 언어로 바꾸려고 노력하는 것이다. 기호화 규칙을 활용하는 접근법을 확대해 나가면 인간의 지능을 통째로 컴퓨터가 이해할 수 있는 기호화 규칙으로 기술할 수 있다고 믿는다. 이게 기호주의다.
4. 인공지능을 연구하는 학계에는 완전히 다른 방법을 사용하고자 하는 움직임도 존재했다. 바로 연결주의다. 연결주의는 인간의 뇌가 작동하는 모습을 최대한 모방하려고 노력했다. 우리 뇌는 뉴런이라는 작은 세포로 이루어져 있다. 그리고 뉴런은 서로 연결되어 있다. 연결주의는 이렇게 서로 연결되어 있는 뉴런을 모방해서 컴퓨터가 스스로 학습하고 문제를 해결하도록 한다.
5. 연결주의에 기반한 방법은 인공 신경망 (artificial neural network)이라는 구조를 사용한다. 인공 신경망은 많은 인공 뉴런이 서로 연결된 구조를 갖는다. 이런 구조가 입력되는 정보를 처리하고 학습한다. 우리가 오늘날 경험하는 인공지능은 거의 대부분 이와 같은 딥러닝 기술을 이용한다. 딥러닝 기술은 바로 연결주의의 산물이다.
6. 수많은 노드가 층을 이루며 연결되어 있는 모습을 가진 딥러닝 구조는 인간의 뇌 구조를 모방했다. 노드를 작은 동그라미라고 보면 수많은 동그라미와 그들을 연결하는 선으로 이루어진 모습니다. 동그라미는 뉴런에 해당하고 선은 그들을 연결하는 시냅스에 해당한다.
7. 인공 신경망의 구조는 퍼셉트론이라는 아주 단순한 모방에서부터 시작되었다. 퍼셉트론(perceptron)이라는 말은 지각(perception)과 뉴런(neuron)이라는 두 단어의 조합이다. 딥러닝 구조의 가장 단순한 버전이 퍼셉트론이라고 봐도 좋고, 반대로 퍼셉트론을 복잡하게 발전시키면 딥러닝 구조가 된다고 보아도 좋다.
8. 사람이 컴퓨터와 대화를 나누도록 했을 때 그 사람이 상대가 사람인지 컴퓨터인지 구별할 수 없으면 그 컴퓨터는 튜링 테스트를 통과한 것이다. 재미있고 나름 의미도 있는 테스트지만 과학적 오류와 한계가 내포되어 있기 때문에 현대 학자들은 큰 의미를 부여하지 않는다.
9. 사람들이 컴퓨터와 상호작용을 하며 컴퓨터를 사람으로 착각하거나 컴퓨터를 과도하게 의인화하는 경향 혹은 컴퓨터 프로그램이 처리하지 못하는 공간을 자신의 상상으로 메우는 인지 부조화 현상을 보통 ‘일라이자 효과'라고 부른다.
10. 흥미로운 것은 알고리즘이 아니라 기계적 장치화 대화를 나누며 생기는 많은 공간을 빈틈없이 메우는 인간의 상상이었다.
11. 전문가가 가지고 있는 지식을 데이터로 구축하고 그런 지식을 기반으로 새로운 지식을 도출하는 추론 능력을 프로그램 안에 심으면, 그것이 인공지능이 될 수 있다고 생각했다. 그런 생각은 70년대에 시작되어 이후 80년대와 90년대 인공지능 세계를 주름잡은 ‘전문가 시스템(expert system)’으로 이어졌다.
12. 전문가 시스템은 결정적 한계를 가지고 있었다. 우선 지식의 확장성이 없었다. 지식과 추론에 기반한 전문가 시스템은 자기 경험을 통해 새로운 규칙을 만들어내는 능력이 없었다. 시스템이 스스로 지식을 수정하거나 추가하지 못하니 사람이 지식을 지속적으로 관리해주어야 했다. 이런 한계는 당연히 사람의 노력과 적지 않은 관리 비용을 요구했다.
13. 전문가 시스템은 또한 미리 입력된 지식을 벗어나는 일은 절대 알지 못했다. 미리 저장되어 있는 지식에 딱 들어맞는 것이 아니면 적절한 대응을 하지 못한 것이다. 확률적 추론이나 퍼지 논리(fuzzy logic) 같은 기법을 활용해 전문가 시스템의 융통성을 개선하려는 노력이 있었지만, 근본적 해결책은 마련할 수 없었다. 전문가 시스템은 애당초 범용 시스템이 되려는 목적을 포기한 결과이기 때문에 주어진 도메인 영역을 벗어나는 순간 아무 데도 쓸모가 없는 무용지물이 되었다.
14. 인간은 벽에 손 그림자만 비춰도 하늘을 나는 새, 들판을 달리는 말, 울부짖는 늑대를 만들며 무수한 스토리를 만들 정도로 상상력이 풍부하다. 하물며 겉모습이 사람을 닮은 로봇이라면 말할 필요도 없다. 그런 존재가 인간의 상상을 자극하는 정도는 사실상 무한대에 가까울 것이다.
15. 사람을 닮은 휴머노이드 로봇은 결국 벽에 드리워진 사람의 그림자다. 그림자는 스스로 생각하거나 상상하지 않는다. 사람이 생각하고 상상한다. 인간 스스로 잘못된 행동을 하지 않는 한 로봇은 인류를 파멸시키지 않는다. 그럴 수 있는 능력이 없다. 로봇은 생각이 없으니 목적이 없다. 감각이 없으니 욕망도 없다. 그들은 인간을 파멸시킬 목적이나 욕망을 가질 수 있는 생각 자체가 없다. 미리 예측하고 준비하는 것은 필요하지만 과도한 상상으로 두려움을 품는 습관은 버리는 편이 낫다.
16. 미래에 인공지능이 인류 문명을 파괴한다면 그건 너무 똑똑해진 인공지능의 의도 때문이 아니라, 인공지능이 아무 생각 없이 추구하는 효율성 때문일 확률이 높다. 인간이 미리 명확하게 정의하고 설명한 영역 바깥에서 스스로 최대한의 효율성을 추구하기 위해 기존 규칙을 파괴하는 것이다.
17. 인간이 정말 무서워해야 하는 것은, 그렇게 인간의 관리와 통제를 벗어난 인공지능이 스스로의 판단과 동기에 의해 극도의 효율성을 추구하는 세상이다.
18. 뇌와 기계를 연결하는 인터페이스를 BMI(Brain Machine Interface)라고 부른다.
19. 가짜를 만들어내는 딥페이크 기술 자체가 인공지능 학습 방법의 일부이기 때문에, 딥페이크를 원천 봉쇄하려면 인공지능 개발을 중단해야 한다. 이는 불가능한 일이다.
20. 단순히 글과 플롯이 아니라 인간의 독창성마저 거뜬히 흉내 내는 인공지능의 글이 예술 작품이 아니라고 단정하려면, 예술이 무엇을 의미하는지에 대한 철학적, 미학적, 문화적 논의가 더 있어야 할 것이다.
21. 인류에게 정말 필요한 모라토리엄은 인공지능 연구 개발을 멈추는 게 아니다. 갈등과 투쟁, 지나친 물질 추구와 경쟁을 멈춰야 한다.
22. 인공지능과의 대화에서 더 개선되어야 하는 지점은 남아 있다. 빠르게 전환된거나 모호한 표현이 등장하는 대화에서 상대의 의도나 문맥을 정확히 이해하는 능력이 개선되어야 하고, 인간의 미묘한 감정을 읽는 능력도 더 필요하다. 대화 내용을 오래 기억하는 능력은 아직 매우 제한적이다. 무엇보다 사실이 아닌 잘못된 정보를 뻔뻔스럽게 전달하는 할루시네이션(hallucination)이 큰 문제다. 대화 상대의 문화적 배경이나 윤리적 가치를 고려하는 능력도 많이 부족하다.
23. 요즘엔 구글 검색을 대신하여 챗GPT 같은 인공지능을 사용하는 사람이 늘고 있다. 아예 자신이 해야 할 생각과 판단을 인공지능에게 맡기는 사람마저 있을 정도다. 지식의 외주화를 넘어 생각 자체를 외주화 하는 것이다.
24. 오늘날 인공지능은 딥러닝 같은 알고리즘, 빅데이터, 컴퓨팅 파워라는 세 개의 요소가 결합되어 가능해졌다. 그 중에서 컴퓨팅 파워의 핵심은 단연 GPU다.
25. 사람 개발자의 코딩이 여전히 필요하다고 생각하는 사람들은 다른 근거도 가지고 있다. 우선 현 단계 인공지능이 가진 한계를 지적한다. 인공지능은 이미 몇 년 전부터 개발자 곁에서 코드를 만들어왔다. 인공지능이 코딩을 수행하는 현상은 새로운 일이 아니다. 하지만 인공지능이 작성하는 코드의 품질은 아직 사람을 대신할 정도는 아니다.
26. 사람 개발자가 계속 존재해야 하는 이유는 또 있다. 소프트웨어 개발과정은 코딩만이 아니라 사용자 요구사항을 취합해서 분석하고, 그에 맞는 시스템을 설계하고, 코딩하고, 테스트하고, 현장에 배포하는 여러 단계로 이루어져 있다. 각 단계는 사람 사이에서 일어나는 수많은 커뮤니케이션을 분명 필요로 하는데 인공지능이 이런 모든 과정을 어떻게 대신할 수 있겠냐는 것이다. 인공지능이 어찌저찌 코딩은 할 수 있다 해도 상황에 따른 판단이나 소통처럼 반드시 사람이 수행해야 하는 일이 너무 많다.
27. 코딩은 높은 수준의 규율과 정확성을 필요로 한다. 그래서 아무나 코딩을 할 수 없었다. 하지만 그런 시간은 이제 끝나가고 있다. 코딩에 집착하지 말라. 자기가 사용하는 기술에 매달리지 말라. 인공지능의 도움을 받는 것을 즐겁게 생각해야 한다. 인공지능의 도움을 받아 문제를 해결하는 것이야말로 진정한 가치에 해당하기 때문이다. 진짜 가치는 문제를 해결하는 것이다. 코딩이 아니다.
28. 인공지능 코딩 도구를 만드는 것이 기술적으로 아주 어려운 일은 아니다. 그렇게 하기 위한 인력, 컴퓨팅 파워, 데이터만 있으면 가능하다. 데이터는 물론 소스코드다. 이런 자원을 확보하고 있는 회사 중에는 스스로 인공지능 코딩 도구를 만들어 사용하는 회사가 많다. 이런 식으로 제작된 모델까지 고려하면 코딩을 수행하는 인공지능 모델은 매우 많을 것이다. 인공지능 도구를 활용하는 개발자의 수가 그만큼 많아지고 있다는 의미다.
29. 코파일럿을 비롯한 인공지능 도구들은 이미 사람이 작성한 코드보다 더 정확하고 깔끔한 코드를 척척 만들어내고 있다. 코드의 범위가 넓어지거나 추상 수준이 올라가면 아직은 사람의 실력에 미치지 못하여 활용성이 떨어지고 문제를 발생시키는 경우가 있지만, 작은 단위의 코드나 구체적인 목적을 위한 코드를 생성하는 일은 상당히 잘한다. 그렇다 보니 개발자들은 일상적으로 진행하는 작은 단위의 코딩 업무를 위해 AI 코딩 도구를 적극 사용한다. 대신 일의 범위가 넓어지거나 추상 수준이 높아지면 인간의 자부심을 드러내며 직접 업무를 수행한다. 일종의 협업이다.
30. 사실 개발자들이 인공지능 코딩 도구로부터 도움을 받는 것은 코딩 자체로 국한되지 않는다. 생각의 흐름을 이어가기 위한 아이디어에서 자신이 작성한 코드에 대한 검토에 이르기까지 매우 다양한 방식으로 도움을 구하고 얻는다. 그렇지만 일을 하는 주체는 어디까지나 사람인 나 자신이다. 인공지능은 그런 나를 부분적으로 도와주는 도구일 뿐이다. 인공지능은 내가 필요로 하는 경우에 한해서 동작한다. 협업이지만 주인과 노예의 관계인 것이다. 내가 주인이고, 인공지능은 노예다.
31. 멈추지 않고 스스로 학습하는 인공지능이 나타났다는 것은 그 분야에서 인간이 설 땅이 계속 좁아지고 있다는 의미다. 이건 코딩만의 이야기가 아니다.
32. 이런 일을 할 수 있는 인공지능이 나타나면 개발자만 문제인 것도 아니다. 지식, 논리, 추론 등 지능을 이용해 노동을 수행하는 이 세상의 모든 화이트칼라 노동자가 다 함께 벼랑 끝으로 향하게 된다. 인공지능이 코딩을 정복하는 이야기를 하고 있지만 이게 단순히 코딩 이야기가 아닌 이유다.
33. 인공지능 모델은 어떤 문장을 처리할 때 문장 주변에 존재하는 단어를 모두 고려하면서도 어텐션 메커니즘을 통해 특정 단어에 더 많은 주의를 기울인다.
34. 트랜스포머 모델은 이런 어텐션 메커니즘을 적극적으로 사용하여 문장의 각 단어가 주변의 다른 단어와 어떤 관련성을 가지고 있는지 명확하게 이해할 수 있게 되었다. 결과적으로 문장의 의미와 맥락을 전보다 더 잘 파악하게 되어 번역을 하거나 글의 내용을 요약할 때 더 매끄럽고 자연스러운 결과를 내놓을 수 있게 되었다.
35. 인공지능 모델이 사람처럼 자연스러운 문장을 만들어 낼 수 있는 이유는 인공지능이 실제로 사고를 하기 때문이 아니라 확률을 사용하기 때문이다. 확률을 사용한다는 것은 무슨 의미일까. 인공지능의 문장을 만드는 과정을 아주 간단히 설명하면 이렇다. 트랜스포머 아키텍처를 사용하는 인공지능은 하나의 단어를 내뱉은(출력한) 다음, 뒤에 따라올 수 있는 단어의 집합을 생각한다. 그 집합에 속한 단어 중에서 확률적으로 가장 그럴듯한 단어를 하나 선택한다. 그리고 그 단어를 출력한다. 단어를 고르는 작업은 어떤 추론이나 생각이 아니라 확률에 의해 이루어진다. 그래서 확률을 사용한다고 말하는 것이다.
36. 트랜스포머에서 확률은 이런 식으로 단어를 계속 이어가는 엔진 역할을 한다. 그리고 어텐션은 맥락을 이해하고 전체적인 의미가 일관성을 유지하도록 만드는 방향키 역할을 한다.
37. 인공지능은 자연어와 프로그래밍 언어 유형을 모두 비슷한 방식으로 다룰 수 있다는 점이 중요하다. 그래서 언어 모델의 자연어 구사 능력이 향상되면 거의 똑같은 수준으로 컴퓨터 코딩 능력도 향상된다고 보아도 무방하다.
38. 결국 인공지능이 사람 개발자를 완전히 대체하게 되는 것 아닌가. 아직은 아니다. 직업을 잃는 사람 개발자의 자리를 대체하는 존재는 아직 인공지능 자체가 아니다. 인공지능을 적극적으로 활용하는, 즉 인공지능을 무기로 장착한 다른 사람이다. 당신을 대체하는 것은 인공지능이 아니라, 인공지능을 활용하는 다른 사람이다.
39. 사람이 컴퓨터 공학과 코딩을 공부해야 할 이유는 여전히 차고 넘친다. 사람이 만든 코드는 물론 인공지능이 만든 코드도 반드시 사람이 읽고, 테스트하고, 검증할 수 있어야 한다. 인공지능의 코딩 수준이 아무리 높아진다고 해도 인간 세상의 소중한 구성물인 소프트웨어는 반드시 사람의 관리와 통제 하에 놓여 있어야 한다.
40. 사람이 그런 관리와 통제를 수행하려면 컴퓨터 전체에 대한 이해와 코딩 능력은 필수다. 어떤 공부를 해야 할지 세부 내용은 인공지능의 발전과 시간의 흐름에 따라 달라질 수 있지만 우리는 그런 공부를 아직 컴퓨터 공학과 코딩이라 부른다. 그래서 누군가는 오히려 전보다 더 많은 관심과 높은 사명감을 갖고 공부해야 한다.
41. 확률을 기반으로 하는 트랜스포머 알고리즘을 사용하는 현재 인공지능은 AI 할루시네이션 현상을 피할 수 없다. GPT 등 거대 언어 모델의 엔진은 기본적으로 통계이기 때문에 사실과 사실이 아닌 것을 확실하게 구분할 수 있는 능력이 없다. 그래서 때론 사실이 아닌 것을 사실인 것처럼 천연덕스럽게 이야기한다. 사실 속에 거짓을 섞어 넣기도 하고, 거짓 속에 사실을 풀어놓기도 한다.
42. 할루시네이션이 발생하는 이유는 다양하다. 인공지능 모델 학습을 위해 사용된 데이터가 불충분하거나 편향 혹은 왜곡된 정보가 들어있으면 할루시네이션의 원인이 된다. 학습 데이터 안에 이미 잘못된 정보가 들어 있으면 인공지능이 그릇된 이야기를 하는 걸 막기 어려운 것이다.
43. 전통적인 소프트웨어는 수학 공식처럼 아귀와 맥락이 딱딱 맞는 결정론적 논리로 구성되어 있기 때문에 버그의 정의가 뚜렷하다. 사람이 의도한 것과 다른 행동을 하면 그게 버그다. 그런 버그가 발견되면 대부분 디버깅 과정을 밟아 수정하는 것이 가능하다. 일단 수정되어 정상적 동작이 검증되면 그건 더 이상 버그가 아니다.
44. 그에 비해 인공지능 모델은 결정론적 논리의 흐름을 따르지 않는다. 비결정론적인 확률적 분포의 흐름에 따라 상황을 이해하고 행동하기 때문에 미리 확실하게 결정된 것이 없다. 확률의 세계에서는 미리 결정된 것이 없다. 그래서 잘못된 행동을 의미하는 버그라는 단어를 사용하기 애매하다. 버그라고 부를 수 없으니 할루시네이션이라는 기묘한 이름을 사용한다. 이런 할루시네이션은 버그와 달리 근본적으로 해결할 방법이 없다. 최선을 다해 완화시킬 수 있을 뿐이다.
45. 만약 당신이 개발자라면 ‘진심으로 프로그래밍을 좋아하는가? 키보드를 두드려 화면에 한 줄 한 줄 코드를 적어넣는 행위를 너무나 사랑하는가?라는 질문에 답을 해야 할 때다. 질문에 그렇다고 답할 수 없다면 얼른 다른 일을 찾기 바란다. 현실적인 사람이 되어야 한다(다른 분야를 대입해도 상황은 비슷할 것이다). 그저 먹고살기 위해서 프로그래밍을 하는가? 아니면 프로그래밍을 안 하면 견딜 수 없는 마음을 가지고 있는가? 이런 질문이 잔인하다는 건 안다. 하지만 경제적 현실이 달라졌다. 이제 세상은 그저 그건 사람에게 높은 연봉을 줄 마음이 없다.
46. 코딩은 지속적으로 수행하되 코딩에 집착하지 말아야 한다. 사람 개발자는 한동안 계속 요구되겠지만 코딩만 하는 개발자는 조만간 사라질 것이다. 코드는 한동안 계속 존재하겠지만 우리가 지금까지 수 십 년 동안 알고 있던 코딩이라는 행위는 전과 달라질 것이다. 개발자의 역할도 달라질 것이다.
47. 인공지능은 특정한 영역에서 인간보다 뛰어난 능력을 보여주지만 인간 정신이 가진 수준의 유연성과 보편성을 지니지 못했다. 인간에 비해 물리적 세계에 대한 상식이 부족하고, 추론 능력도 부족하다. 무엇보다 아직 자기인식이 없다.
48. 문제의 본질은 인류 스스로 자기들끼리 맺고 있는 관계다. 서로 경쟁하고 투쟁하는 방식, 사회 시스템, 경제 구조, 정치 체제, 이런 게 문제다.
49. 인간이 두려워해야 하는 것은 인간을 공격하는 터미네이터 같은 게 아니다. 다른 사람이, 다른 회사가, 다른 국가가 각자 자신의 이익을 추구하기 위해 온 힘을 다해 만들어 나가는 사회적 관계, 구조, 체제 같은 것들이 진짜 두려움의 대상이다. 오늘날 호모사피엔스의 생존을 위협하고 있는 것은 인공지능이나 휴머노이드 로봇이 아니다. 호모사피엔스 자신이다.
50. 낙관은 잘못이 아니다. 인공지능과 관계된 일을 하며 흘리는 땀은 아무 잘못이 없다. 문제는 앞에서 이야기했다시피 관계다. 시스템이다. 체제다. 사람이 주변 세계와 맺는 관계는 그런 시스템이나 체제의 부산물이다. 시스템이 뒤틀리면 그 안에서 선한 마음으로 수행하는 노동이 끔찍한 결과를 낳을 수 있다.