Generative AI의 등장 배경을 알아보자
생성형 인공지능이 디자인에 큰 변화를 가져오고 있다. 생성형 인공지능이 가지는 가치와 의미를 이해하기 위해서는 인공지능 기술이 어떻게 발전되어 생성형 인공지능까지 이르게 되었는지 이해를 하는 것이 큰 도움이 된다.
앨런 튜링의 튜링 테스트
인공지능 연구의 시작은 1950년, 앨런 튜링이 "Computing Machinery and Intelligence" 논문에서 기계가 '지능적'으로 행동할 수 있는지에 대한 기준으로 ‘튜링 테스트’를 제안하면서 시작되었다. 튜링 테스트는 인간 평가자가 기계와 대화하면서 그것이 사람인지 기계인지 판단할 수 없을 때 그 기계를 ‘지능적’이라고 간주하는 아이디어로 제안되었다.
존 매카시와 다트머스 콘퍼런스
1956년에는 미국 뉴햄프셔주 다트머스 대학교에서 다트머스 콘퍼런스가 개최되었다. 이 콘퍼런스는 존 매카시, 마빈 민스키, 너대니얼 로체스터, 클로드 섀넌 등 10명의 대표적인 수학자, 컴퓨터 과학자, 심리학자들이 주최하고 주관했다. 이들은 다름 사람들을 회의에 초대하면서 초청장에서 "제한된 시간 안에 인간 수준의 사고를 하는 기계를 만드는 것이 가능할까?"라는 질문을 기재했다. 실제 회의는 한 달 동안 진행되었으며, 인공지능의 다양한 분야에 대한 논의가 이루어졌다. 이 콘퍼런스에서 ‘인공지능’이라는 용어가 처음으로 사용되기 시작했으며, 자연어 처리, 기계 학습, 로봇 공학 등 인공지능의 핵심 분야에 대한 연구가 본격적으로 시작되었다. 특히, 인공지능이 하나의 연구 및 개발 분야로 본격적으로 형성되었으며, 인공지능 연구에 대한 투자와 관심이 증가하는 계기가 되었다는 점에서 큰 의미를 가진다.
1950~1970년대: 기호 기반 인공지능 (Symbolic AI)의 시작
1950년부터 1970년의 인공지능은 ‘기호 기반 인공지능의 시대’로 이해할 수 있습니다. 이 당시 초기 인공지능 연구는 주로 기호적 방법론을 사용한 논리 및 규칙 기반의 접근법에 중점을 두었습니다. 많은 초창기 연구자들은 인공지능의 발전 가능성에 대해 매우 낙관적이었고, 일부 연구자들은 인간 수준의 지능을 가진 기계를 개발하는 것이 멀지 않은 미래의 일이라고 예측했습니다. 이 시기에 주로 개발된 인공지능 프로그램들은 주로 체스, 기본적인 수학 문제 해결, 기호적 추론 등의 작업을 수행할 수 있었습니다. 1951년에 페로가 개발한 Ferranti Mark 1 컴퓨터 위에서 실행된 체스 프로그램이나, 1959년에 앨런 뉴얼과 허버트 사이먼이 개발한 규칙 기반의 기호 처리 프로그램인 "General Problem Solver"가 대표적인 프로그램들이었습니다.
1980~1990년대: 인공지능의 겨울
1980~1990년대는 "인공지능의 겨울"이라고 불린다. 초기 인공지능 프로젝트들은 몇 가지 성공 사례들을 만들기도 했지만, 대부분의 결과물들이 실제 인간 세계에 존재하는 문제를 해결하는데 유의미한 결과를 도출하지 못했다. 특히 ‘기호 기반 인공지능’의 한계성을 인식하게 된 시간이었다. 이 시기를 보내며 투자자들은 연구 자금을 줄이거나 중단하기 시작했다. 1973년, 영국 Lighthill에 의해 작성된 보고서는 인공지능 연구의 한계와 실패를 지적했고. 이 보고서로 영국 정부는 인공지능 연구에 대한 지원을 중단하게 되는 사태까지 이르게 되었다. 하지만 이렇게 어려운 시기에도 불구하고, 몇몇 연구자들은 인공지능의 핵심이 되는 기본 연구를 지속했고, 1980년대의 연구 중 일부는 1990년대와 2000년대의 인공지능 부흥의 기반이 되었다.
머신러닝 : 인공지능 연구의 부활
머신러닝은 1950년대부터 연구가 시작되었지만, 1980년대 이후에 본격적으로 발전하기 시작했다. 머신러닝의 도입으로 인공지능 연구는 새로운 전성시대를 맞이하게 된다. 머신러닝은 인공지능의 한 분야로, 알고리즘과 통계를 사용하여 기계가 데이터로부터 스스로 학습하고 예측이나 의사결정을 수행할 수 있게 하는 기술을 의미한다. 머신러닝 알고리즘의 발전으로 기존의 방법보다 효율적으로 데이터를 학습할 수 있게 되었고, 컴퓨터 성능이 엄청나게 발전하여 대규모 데이터를 처리하고 학습할 수 있게 되었다. 무엇보다 인터넷의 발전으로 전 세계에서 인터넷 데이터 베이스에 방대한 양의 데이터를 축적하여 인공지능은 과거와 비교할 수 없을 정도의 많은 데이터를 학습하게 되었다. 머신러닝을 통해서 이제는 다양한 분야에서 실제적으로 인공지능이 문제 해결에 활용이 가능해졌다. 이미지 인식, 음성 인식, 추천 시스템, 자동 주행 기술 등이 가능하게 되었고, 이제 이러한 기술들은 우리가 사용하고 있는 다양한 제품과 서비스에 접목되어 활용되고 있으며, 그 적용 분야는 계속 확장되고 있다.
딥러닝 : 인간의 한계를 뛰어넘기 시작하다.
딥러닝 (Deep Learning)은 머신러닝의 하위 분야로, 여러 개의 층을 가진 인공 신경망 (Deep Neural Networks)을 사용하여 복잡한 패턴이나 특징을 학습하도록 설계된 알고리즘 집합을 의미한다. 이름에서도 알 수 있듯이 "딥(deep)"은 이 신경망이 "깊다"는 것을 강조하는데, 실제로 이런 심층 신경망은 수십, 수백, 또는 그 이상의 층을 가질 수도 있다. 딥러닝 기술로 이전보다 더 많은 양의 복잡한 데이터를 자동으로 학습시킬 수 있게 되었다. 딥러닝의 능력과 가능성을 보여준 사건은 2016년에 열린 알파고와 이세돌의 바둑 대결이었다. 데미스 허사비스(Demis Hassabis)가 이끄는 구글의 딥마인드(DeepMind) 연구팀에 의해서 개발된 알파고는 딥러닝 기술과 몬테카를로 트리 탐색을 결합하여 바둑을 학습하였다.
서울에서 총 5번의 대국이 진행이 되었고 신의 한 수라고 불리는 2국을 제외하고는 이세돌이 4번의 대국에서 패배하게 되었다. 이세돌은 이미 여러 번 세계 챔피언을 차지했던 바둑 기사였다. 바둑은 복잡성이 높고 전략이 필요하기 때문에 컴퓨터가 인간의 최고 수준의 선수를 이기기 힘들 것이라고 여겨졌었다. 그러나 알파고의 승리는 딥러닝 기술의 발전과 그 가능성을 세계에 인식시키는 계기가 되었다. 이 대결을 계기로 인공지능 연구와 투자에 대한 관심이 급증하였고, 딥러닝 기술의 중요성이 강조되었다. 또한 이 대결은 단순히 게임의 승패를 넘어 이제는 컴퓨터가 인간이 해오던 복잡한 일들을 대신할 수 있는 시대에 접어들게 된다는 상징적인 사건이 되었다.
트랜스포머 : 생성형 인공지능을 위한 기술의 등장.
트랜스포머 학습 방식은 2017년 구글 브레인의 Ashish Vaswani 외 7인이 발표한 논문 "Attention is All You Need"에서 처음으로 소개되었다. 트랜스포머 학습 방식은 주로 자연어 처리(NLP) 분야에서 기존의 인공 신경망이 처리하기 어려웠던 순서 데이터를 처리할 수 있다는 점에서 혁신성을 가진다. 이전의 ‘시퀀스-투-시퀀스(sequence-to-sequence) 모델’은 계산이 비효율적이었고, 긴 시퀀스에 대해서 잘 학습하지 못하는 한계가 있었다. 트랜스포머에서 제안된 ‘어텐션 메커니즘’로 문장의 다양한 부분과의 관계를 더 잘 파악할 수 있게 되었다.
트랜스포머 학습 방식을 기반으로 드디어 생성형 인공지능이 등장하게 되었다. 트랜스포머 학습방식은 구글 브레인에서 가장 먼저 제안을 했지만 생성형 인공지능에 트랜스포머 학습 방식을 적극적으로 도입해서 의미 있는 결과를 만들어낸 곳은 ChatGPT를 개발한 오픈 AI이다. 오픈 AI의 샘 알트먼(Sam Altman)은 트랜스포머 학습 방식을 통해서 GPT-3을 개발해서 텍스트, 코드, 이미지 등 다양한 종류의 창의적인 콘텐츠를 생성할 수 있도록 하였다. 또한 DALL-E와 같이 이미지를 텍스트로 설명하면 해당 이미지를 생성할 수 있는 모델도 개발해 냈다. 트랜스포머 학습 방식은 생성형 AI의 상용화를 가져왔고, 또한 이 분야의 발전을 가속화하고 있다.
트랜스포머 방식 외에도 적대적 생성 신경망 (Generative Adversarial Networks, GAN)과 같은 학습방식 역시 생성형 인공지능의 성능을 빠르게 가져오고 있다. GAN은 생성자(generator)와 판별자(discriminator)라는 두 신경망으로 구성되는 방식인데, 생성자는 진짜와 같은 데이터를 생성하려고 하고 판별자는 생성된 데이터가 진짜인지 가짜인지 판별한다. 이 두 네트워크가 서로 경쟁하면서 학습을 하게 되고, 결국 생성자는 진짜와 구별하기 어려운 데이터를 생성하게 된다.
인공지능은 역사가 70년 정도밖에 되지 않지만 짧은 기간에 아주 큰 발전을 이루었고 다양한 학습방법의 개발로 이제 우리 인간의 많은 문제를 해결하는 수준을 넘어서 생성형 인공지능과 같이 글도 쓰고 그림도 그릴 수 있는 수준으로 올라서게 되었다.
https://blog.naver.com/yu2hs/221795773699
https://www.youtube.com/@aidesigntv
#인공지능 #생성형인공지능 #디자인 #인공지능디자인 #AI디자인 #generatvieai #chatgpt #챗GPT #달리 #미드저니 #GAN