brunch

You can make anything
by writing

C.S.Lewis

by WOODYK Jan 06. 2024

[책리뷰.책요약] 박태웅의 AI강의

AI라는 세상에 들어가기 위한 기초 강의


생각정리


"챗GPT는 출시된 지 일주일 안에 100만 명의 사용자를 모았고, 두 달 만에 1억 명을 돌파했습니다. 얼마 지나지 않아 챗GPT의 다음 버전, GPT-4가 나왔고 메타에선 경량 버전인 라마를 내놓았습니다.



 라마는 훨씬 적은 수의 매개변수를 가지고 있었지만 더 많은 학습량을 이용해 챗GPT에 맞먹는 성능을 낸다고 발표했습니다.


그리고 스탠퍼드대학이 라마를 더 최적화한 알파카를 내놓았습니다. 이것이 신호탄이 됐을까요. 매일같이 새로운 인공지능 오픈소스 프로젝트들이 쏟아져 나오고 있습니다. 말 그대로 '인공지능의 캄브리아기가 시작된 것입니다. <박태웅의 AI 강의 머리말_박태웅 저>"



챗GPT가 등장하자 AI 성능에 대단함을 표현하며 얼리어덥터들은 열광했다. AI가 언어를 통해 사람들과 대화하고 원하는 답을 즉각적으로 찾아주는 기능들에 매혹당했다.


매일 신문기사에는 AI의 혁신과 일상화에 놀라움을 감추지 못하고 과연 AI가 어디까지 발전할지 궁금해하면서도 인간을 대신할 수 있는 직업은 무엇이고 윤리적 문제가 발생할 확률에 대해 우려를 보이기도 한다.


AI를 연구하는 회사들은 많다. 구글, 아마존, 테슬라, MS, 네이버, 엔비디아, 카카오, NC, 삼성, LG, SK 등 아마 AI 전쟁을 OPEN AI의 챗GPT가 가속화라는 선물을 해 주었다.


이미 AI는 연구되어 왔고 챗GPT 등장 이전부터 많은 투자와 활용을 위해 실험되어 왔지만 대중들에게 챗GPT처럼 폭발적으로 반응이 온 적도 없었다.


이 책은 AI 전반에 대한 이야기다. 목차만 봐도 책의 내용을 알 수 있다. 목차의 내용을 간단히 정리해 보면


1강 놀라움과 두려움 사이에서 등장한 챗GPT의 탄생을 이야기하며 챗GPT는 이미지까지 인식하는 수준까지 발전했지만 '트랜스포머'의 특징인 주어진 문장을 보고 다음 단어가 뭐가 올지를 확률적으로 예측하는 형태로 운영되면서 할루시네이션, 멀쩡한 거짓말을 하는 경우가 생긴다는 것이다. 그래서 인공지능은 견고하지 않은 상태라는 것이다.


2강 우리는 왜 챗GPT에 열광하게 되었나라는 주제인데 사람과 기계를 자연어로 이어주는 사상 최초의 유저 인터페이스이다. 인공지능 믿을 수 없을 정도로 똑똑하지만 또한 충격적으로 멍청하기도 하다.


왜냐면 3000억 개의 단어, 5조가 넘는 문서를 딥러닝을 통해 배우고 이미지까지 처리할 수 있는 멀티모달을 갖고 있고 GPT-4는 미국 변호사 시험을 상위 10퍼센트의 성적으로 통과할 정도로 똑똑하나 우주를 구성하고 있는 보이지 않는 상식은 이해하지 못하여 엉뚱한 답을 주기도 한다는 것이다.


워싱턴대학의 최예진 교수는 우주의 5퍼센트만이 우리가 보고, 상호작용할 수 있고 나머지 95퍼센트는 암흑 물질과 암흑 에너지라고 말하며 언어는 보이는 텍스트이지만 암흑 물질은 세상이 어떻게 작동하는지에 대한 무언의 규칙이라고 한다.


결국 사람들이 언어를 사용하는 방식과 해석에 영향을 미치고 AI는 암흑세상, 상식을 이해하지 못하기 때문에 똑똑하지만 멍청하기도 하다는 말을 한다.


3장은 열려버린 판도라의 상자를 설명하며 마이크로소프트사가 AI윤리팀을 해고하는 사례처럼 AI를 상업적으로 활용하게 될 것이며 결국 우리가 아직 경험하지 못한 판도라가 열리게 되었다고 말한다.


 오염된 데이터를 통한 오염된 결과를 산출해 낼 수도 있고 오지지널의 실종이 생기게 된다고 우려한다. AI의 잘못된 학습은 차별을 재생산하는 현상을 만들 수 있고 결국  AI의 발전은 판도라의 상자를 연 위기 상황이 될 수도 있다는 메시지를 전달한다.


4장은 몸에 대한 실험, 마음에 대한 실험이라는 말로 거짓과 선동 기사들이 난무할 수 있다는 메시지와 인공지능이 신이 될 것인지 사탄이 될 것인지 미래의 AI 세상을 우려의 눈으로 바라보고 있다.


5강 인류는 어떻게 대응해야 하는가는 신뢰할 수 있는 인공지능을 만들어 나가야 한다는 말인데 그러기 위해 국가적으로 국제적으로 인공지능에 대한 사용 규정과 원칙, 윤리 등에 대한 공동체적 대응이 필요하다고 말한다.


아래는 챗GPT에 물어본 AI관련 질문에 대한 답이다.


챗GPT에게 물어 본 질문과 답은 'AI강의'에 나온 내용들을 간략히 정리한 내용과 흡사하다. AI의 지식과 조합능력이 폭발적으로 발전하는 모습에 기회를 찾을 수 있고 그에 따른 부작용도 발생할 것은 분명하다.


 하지만 AI에 대한 것을 기사로만 읽고 그것에 대한 액션이 없다면 아마 AI시대에 변해가는 세상의 흐름을 이해하지 못하고 새로운 세상의 기회를 놓치는 우를 범할 수 있지 않을까 생각해본다.

 







[챗GPT에 물어본 내용 발췌]


챗 GPT 진화와 미래는 어떻게 될까?



ChatGPT




챗GPT와 같은 언어 모델의 진화에 대한 전망은 미래에 대한 예측이 어려운 부분이기도 하지만, 여러 가지 방향으로 나아갈 수 있습니다. 몇 가지 가능성을 살펴보겠습니다:



                    모델의 크기와 복잡성의 증가: 미래에는 더 큰 모델과 높은 복잡성을 가진 언어 모델이 등장할 것으로 예상됩니다. 이는 모델의 성능과 언어 이해 능력을 향상시킬 수 있습니다.                  


                    다양한 도메인에 대한 특화: 미래의 언어 모델은 특정 도메인에 특화된 지식과 이해를 가진 모델로 발전할 수 있습니다. 이는 특정 산업이나 분야에서 높은 수준의 전문 지식을 제공할 수 있게 될 것입니다.                  


                    더 나은 상호 작용 및 피드백 처리: 미래의 모델은 사용자와의 상호 작용에서 더 나은 이해와 더 유용한 답변을 생성하는 데 중점을 둘 것입니다. 사용자 피드백을 효과적으로 활용하여 모델의 개선이 빈번하게 이루어질 것입니다.                  


                    더 효율적인 학습 방법과 자원 활용: 미래의 언어 모델은 효율적인 학습 방법과 자원 활용을 통해 보다 빠르게 학습하고 업데이트될 것입니다. 이는 모델의 성능 향상과 개발 속도의 증가로 이어질 것입니다.                  


                    더 광범위한 다중 모달 지원: 미래의 언어 모델은 텍스트뿐만 아니라 음성, 이미지, 비디오 등 다양한 모달리티에 대한 이해력을 향상시킬 것으로 기대됩니다.                  


                    더 강력한 개인화: 모델은 사용자의 취향과 성향을 더 잘 파악하고, 사용자에게 맞춤형 서비스 및 정보를 제공하는 데 중점을 둘 것입니다.                  



총평하자면, 언어 모델의 발전은 계속해서 사용자 경험과 유용성을 향상시킬 것으로 기대됩니다. 그러나 이러한 발전에는 윤리적인 고려 사항과 모델의 사용에 따른 사회적 영향을 신중히 고려해야 합니다.



샘 알트먼이 챗GPT에 대한 우려를 했는데 그 내용이 뭐에요?


ChatGPT




2021년에 OpenAI의 동료인 Sam Altman이 "The Stakes of AI"라는 글을 통해 챗GPT와 같은 언어 모델에 대한 우려를 나타냈습니다. 이 글에서 샘 알트먼은 몇 가지 주요 우려와 도전에 대해 언급했습니다. 아래는 그중 일부 내용입니다:



                    AI 모델의 성능과 능력 증가: Altman은 모델의 크기와 학습 데이터의 증가로 인해 AI 언어 모델의 능력이 계속해서 증가하고 있다고 지적했습니다. 이에 따라 모델이 인간과 구분하기 어려워질 수 있고, 혹은 인간을 흉내 내는 데 사용될 수 있는 가능성에 대한 우려를 표현했습니다.                  


                    윤리적인 사용과 악용: 샘 알트먼은 AI 모델이 특정 목적에 윤리적으로 사용되지 않거나 악용될 가능성에 대한 우려를 나타냈습니다. 특히, 모델이 선동, 디스인포메이션, 혐오 발언 등을 생성하는 데 사용될 경우 사회적 문제를 야기할 수 있다고 언급했습니다.                  


                    권력과 통제의 질서적 문제: Altman은 AI 모델이 사회에 큰 영향을 미칠 경우, 그에 따른 권력과 통제 문제가 발생할 수 있다고 주장했습니다. 특히, 이러한 모델이 소수의 조직이나 개인에게 집중될 경우에 대한 우려를 제기했습니다.                  



샘 알트먼은 이러한 우려에 대응하기 위해 역사적으로 다양한 도전에 대처해 왔지만, 미래에는 보다 적극적이고 협력적인 노력이 필요하다고 강조했습니다. OpenAI는 AI의 윤리적인 사용에 대한 가이드라인을 개발하고, 모델의 투명성을 향상하는 방안 등을 모색하고 있습니다




너는 챗GPT인데 네가 생각하는 챗GPT를 가장 잘 이용할 수 있는 방법은 무엇이고 네가 생각하는 AI의 장점과 단점은 무엇인가?



ChatGPT




저는 프로그램이나 모델이 아니라, 단순히 텍스트를 생성하고 이해하는 언어 모델입니다. 따라서 자체적인 생각, 의견, 느낌을 가지지 않습니다. 하지만 여러 사용자들이 언어 모델을 효과적으로 활용하기 위한 몇 가지 방법과, 일반적으로 AI의 장단점을 알려드릴 수 있습니다.


챗GPT를 효과적으로 활용하는 방법:



                    명확한 질문 및 명령 사용: 모델에게 명확하고 구체적인 질문이나 명령을 제공하여 원하는 답변을 얻을 수 있습니다.                  


                    대화의 흐름 유지: 대화의 맥락을 유지하면서 추가적인 정보를 제공하면 모델이 더 나은 답변을 생성할 수 있습니다.                  


                    다양한 시도: 여러 번의 시도를 통해 모델이 다양한 측면에서 답하는 방식을 경험하고 모델의 특성을 더 잘 이해할 수 있습니다.                  



AI의 장점:



                    자동화와 효율성: AI는 반복적이고 규칙 기반의 작업을 자동화하고 효율적으로 수행할 수 있습니다.                  


                    언어 이해 능력: 언어 모델은 언어를 이해하고 생성할 수 있어, 자연어 처리 작업에 유용하게 사용될 수 있습니다.                  


                    데이터 분석 및 패턴 인식: 대규모 데이터를 분석하여 패턴을 인식하고 통계적인 추이를 파악하는 능력이 있습니다.                  



AI의 단점:



                    데이터 편향과 품질: 모델은 학습 데이터에 노출된 정보에 의존하므로, 편향된 정보나 품질이 낮은 데이터로 인해 오류가 발생할 수 있습니다.                  


                    윤리적 문제: AI 결정의 투명성 부족, 개인정보 보호, 알고리즘의 공정성 등에 대한 윤리적 문제가 제기되고 있습니다.                  


                    인간의 창의성과 상상력 부재: AI는 학습 데이터에 기반하여 작업을 수행하므로, 창의성과 상상력에서는 인간에 비해 한계가 있습니다.                  


                    문맥 파악의 어려움: 모델은 문맥을 이해하는 데 한계가 있어, 대화의 특정한 맥락을 정확하게 파악하기 어려울 수 있습니다.                  






"박태웅의 AI강의" 중 기억하고 싶은 내용 정리




브런치는 최신 브라우저에 최적화 되어있습니다. IE chrome safari