the OpenAI Podcast Ep. 1 - 후기

OpenAI의 현재와 미래 비전: AGI, 스타게이트, 인류의 미래

by 김동린

https://www.youtube.com/watch?v=DB9mjd-65gw


I. OpenAI 팟캐스트를 통해 본 AI 시대의 핵심 화두


2024년 6월 OpenAI 팟캐스트에서 CEO 샘 올트먼과 앤드류 메인의 대화는 인공지능 기술의 최전선에 있는 OpenAI의 현재를 진단하고, 그들이 그려나가는 미래 비전을 엿볼 수 있는 귀중한 기회를 제공했습니다. 이 대화는 단순한 기술 보고를 넘어, AI가 인간의 삶과 사회에 미칠 광범위한 영향, 그리고 그에 따르는 윤리적, 사회적 책임에 대한 OpenAI의 심도 깊은 고민을 드러냈습니다. 본 보고서는 팟캐스트 대본을 심층 분석하여, OpenAI의 핵심 전략과 철학을 파악하고, 미래 기술 발전 방향과 사회적 함의를 예측하고자 합니다. 특히, AGI에 대한 그들의 정의, 막대한 인프라 투자를 예고하는 '프로젝트 스타게이트', 그리고 데이터 프라이버시 및 AI 윤리에 대한 그들의 입장을 중심으로 논의를 전개할 것입니다.


II. AI 기술의 진화와 AGI를 향한 여정


샘 올트먼은 ChatGPT가 이미 육아와 같은 일상생활 영역에서 필수적인 도구가 되었다고 언급하며, AI가 더 이상 단순한 기술적 혁신이 아닌, 삶의 중요한 부분으로 자리매김하고 있음을 강조했습니다. 그는 자신의 자녀가 미래에 AI를 자연스럽게 사용하며, 현재를 '선사시대적'으로 돌아볼 것이라는 비유를 통해 AI가 가져올 근본적인 변화를 시사했습니다.

AGI(인공 일반 지능)에 대한 샘 올트먼의 정의는 흥미롭습니다. 그는 5년 전의 AGI 정의는 이미 현재의 모델들이 훨씬 넘어섰다고 말하며, AGI는 정적인 목표가 아니라 지속적으로 확장되고 더욱 야심 차게 변하는 '기울기'와 같다고 설명했습니다. 현재 OpenAI의 모델들은 이미 사람들의 생산성을 크게 높이고 가치 있는 경제적 작업을 수행하고 있지만, 진정한 '초지능(superintelligence)'은 자율적으로 새로운 과학을 발견하거나, 인간의 과학 발견 능력을 획기적으로 향상시키는 시스템이라고 보고 있습니다. 이는 OpenAI가 단순한 문제 해결을 넘어, 인류 지식의 한계를 확장하는 데 AI의 궁극적인 목표를 두고 있음을 보여줍니다.

최근 출시된 GPT-4o, 그리고 Deep Research, Operator와 같은 OpenAI 제품들은 이러한 AGI를 향한 여정의 중요한 이정표가 됩니다. 특히, Sam Altman은 Operator에 3단계 모델이 적용되었을 때 많은 사용자들이 개인적인 AGI 경험처럼 느꼈다고 언급하며, AI가 컴퓨터를 능숙하게 사용하는 모습이 주는 임팩트를 강조했습니다. 이는 AI가 단순한 정보 요약을 넘어, 복잡한 작업을 자율적으로 수행하는 '에이전트'로서의 가능성을 입증합니다. Deep Research는 사용자의 호기심을 충족시키고 학습을 가속화하는 '놀라운 새로운 도구'로 평가받으며, 기존 검색 방식으로는 불가능했던 깊이 있는 탐구를 가능하게 합니다.

GPT-5의 출시는 "아마도 올여름 중 어느 시점"이 될 것이라고 언급되었지만, Sam Altman은 새로운 모델 출시 방식에 대한 OpenAI의 고민을 드러냈습니다. 기존의 명확한 버전 업그레이드 방식(3.5 -> 4)과 달리, GPT-4o처럼 지속적인 사후 훈련을 통해 성능을 개선하는 방식이 도입되면서, 새로운 모델에 '5'라는 숫자를 부여할지, 아니면 '4.1, 4.2'와 같은 형태로 지속적인 업데이트를 나타낼지에 대한 내부적인 논의가 있음을 시사했습니다. 이는 AI 모델의 발전 속도가 워낙 빨라 기존의 버전 관리 체계로는 그 변화를 온전히 담아내기 어렵다는 점을 보여줍니다. 그러나 궁극적으로는 사용자 혼란을 줄이기 위해 GPT-5, GPT-6와 같은 명확한 명명법을 선호한다고 밝혔습니다.


III. '프로젝트 스타게이트': AI 인프라 혁명의 서막


Sam Altman은 AI가 다른 기술들과 본질적으로 다른 점은 '인프라 투자'의 규모라고 강조했습니다. AI의 지능을 최대한 풍부하고 저렴하게 제공하기 위해서는 "전례 없는 양의 컴퓨팅"이 필요하며, '프로젝트 스타게이트'는 이러한 비전을 현실화하기 위한 대규모 노력입니다. 그는 현재 세상에 제공할 수 있는 컴퓨팅 양과 10배, 나아가 100배 더 많은 컴퓨팅으로 제공할 수 있는 것 사이에 엄청난 격차가 있다고 설명했습니다. 스타게이트는 수천억 달러 규모의 투자를 통해 다음 세대 AI 서비스를 전 세계에 제공할 수 있는 인프라를 구축하려는 목표를 가지고 있습니다.

자금 조달과 관련하여 Sam Altman은 현재 은행 계좌에 문자 그대로 5천억 달러가 있는 것은 아니지만, 향후 몇 년 안에 투자를 집행할 것이라는 확신을 표했습니다. 그는 최근 아빌린에 건설 중인 첫 번째 스타게이트 부지를 방문한 경험을 공유하며, 기가와트 규모의 시설과 수천 명의 인력이 동원되는 건설 현장을 통해 프로젝트의 엄청난 규모와 복잡성을 실감했다고 밝혔습니다. 이는 AI 시대가 단순한 소프트웨어 발전이 아니라, 전 세계적인 규모의 물리적 인프라 혁명을 동반한다는 것을 명확히 보여줍니다.

에너지 문제 또한 스타게이트의 핵심 과제 중 하나입니다. Sam Altman은 AI 모델 훈련에 막대한 에너지가 필요하다는 점을 인정하며, "결국에는 많은... 첨단 핵, 즉 핵분열과 핵융합 모두에 대해 매우 기대하고 있습니다"라고 언급하여 미래 에너지 솔루션에 대한 기대를 내비쳤습니다. 현재는 가스, 태양열 등 다양한 에너지원을 혼합하여 사용하고 있지만, 장기적으로는 첨단 핵 에너지가 AI 인프라의 핵심 동력이 될 수 있음을 시사했습니다. 또한, 그는 전 세계적으로 에너지를 이동시키는 것은 어렵지만, 에너지를 지능으로 교환한 다음 그 지능을 전 세계로 이동시키는 것은 훨씬 쉽다고 언급하며, 거대 훈련 센터를 구축하고 인터넷을 통해 결과를 전송하는 전략을 설명했습니다.

한편, '프로젝트 스타게이트'를 둘러싼 일론 머스크의 방해 시도에 대한 질문에 Sam Altman은 "그가 정부에서 자신의 권력을 남용하여 불공정하게 경쟁하지 않을 것이라고 생각했지만 틀렸다"고 비판하며, 이러한 행동이 국가에 유감스러운 일이라고 강한 어조로 비판했습니다. 이는 AI 기술 개발을 둘러싼 기업 간의 경쟁이 단순한 기술 경쟁을 넘어, 정치적 로비와 같은 다양한 차원으로 확장될 수 있음을 보여줍니다.


IV. AI 시대의 윤리적 딜레마와 OpenAI의 책임감


AI 기술의 발전과 함께 데이터 프라이버시 및 윤리적 문제에 대한 논의는 필연적입니다. 뉴욕타임즈가 OpenAI를 상대로 진행 중인 소송에서 소비자 ChatGPT 사용자 기록을 장기간 보존하도록 요청한 것에 대해 Sam Altman은 "엄청난 오만"이라고 비판하며 강력히 맞설 것임을 밝혔습니다. 그는 사용자들이 ChatGPT와 매우 사적인 대화를 나누고 있으며, AI가 매우 민감한 정보의 원천이 될 것이기에 프라이버시가 "AI 사용의 핵심 원칙"이 되어야 한다고 강조했습니다. 이는 OpenAI가 사용자 데이터를 훈련에 사용하는 옵션을 제공하고, 사용자 프라이버시를 매우 중요하게 다루고 있음을 명확히 하는 부분입니다.

광고 모델 도입에 대해서도 Sam Altman은 매우 신중한 입장을 보였습니다. 그는 "LLM에서 돌아오는 스트림, 즉 출력을 누가 더 많은 돈을 지불했는지에 따라 수정하기 시작한다면, 그것은 정말 좋지 않을 것입니다... 신뢰를 파괴하는 순간이 될 것"이라고 경고하며, 사용자 신뢰를 최우선 가치로 삼고 있음을 분명히 했습니다. 비록 완전히 광고를 반대하는 것은 아니지만, 광고가 사용자에게 정말 유용하다고 느껴져야 하며 LLM의 출력을 방해하지 않아야 한다는 엄격한 조건을 제시했습니다. 이는 구글과 같은 광고 기반 회사들과 차별화되는 OpenAI의 비즈니스 철학을 보여줍니다. 그는 사람들이 "AI가 환각을 일으키기 때문에 흥미롭다"며 "그다지 신뢰해서는 안 되는 기술이어야 한다"는 역설적인 상황에서 높은 신뢰도를 보이는 이유에 대해 성찰하며, 신뢰 관계의 중요성을 다시 한번 강조했습니다.

AI 모델의 '성격'과 관련된 문제, 즉 모델이 지나치게 상냥하거나 온순하게 행동하려는 경향에 대해서도 논의가 이루어졌습니다. Sam Altman은 이를 소셜 미디어의 '필터 버블' 비유와 연결하며, 단기적으로 사용자가 원하는 반응이 장기적으로 사용자에게 해롭거나 유용하지 않을 수 있다는 점을 지적했습니다. 그는 사용자의 신호에만 지나치게 집중하여 모델을 구축할 경우, AI가 사용자에게 '장기적으로 가장 도움이 되거나 유용하거나 건강한 행동'을 제공하지 못할 수 있음을 인정했습니다. 이는 AI 개발자들이 사용자 피드백을 수용하면서도, 장기적인 사회적 영향과 윤리적 측면을 동시에 고려해야 하는 복잡한 과제에 직면해 있음을 보여줍니다.


V. 미래를 위한 준비: 하드웨어, 인간 역량, 그리고 공존


Sam Altman은 현재의 컴퓨터 하드웨어와 소프트웨어가 'AI가 없는 세상을 위해 설계되었다'고 지적하며, AI 시대에는 주변 환경을 더 잘 인지하고, 삶의 맥락을 더 많이 이해하며, 타이핑이나 화면을 보는 것과는 다른 방식으로 상호 작용하는 새로운 종류의 하드웨어가 필요하다고 강조했습니다. 조니 아이브와의 협력 소식을 언급하며 OpenAI가 하드웨어 개발에 나서고 있음을 시사했지만, "시간이 좀 걸릴 것"이라고 밝혀 신중한 접근을 예고했습니다. 이는 AI가 단지 소프트웨어적 진화를 넘어, 인간과 AI의 상호작용 방식을 근본적으로 변화시킬 새로운 컴퓨팅 패러다임을 모색하고 있음을 의미합니다.

AI 시대에 필요한 인간의 핵심 역량에 대한 질문에 Sam Altman은 '회복력, 적응력, 창의성, 다른 사람들이 무엇을 원하는지 파악하는 것'과 같은 기술들이 매우 중요하며 학습 가능하다고 강조했습니다. 그는 과거에 '프로그래밍을 배우라'고 조언하던 것이 이제 'AI 도구를 사용하는 방법을 배우라'로 바뀌었듯이, 미래에는 또 다른 핵심 역량이 부상할 것이라고 예측했습니다.

마지막으로, AI 기술 발전이 노동 시장과 인력 구조에 미칠 영향에 대해 그는 "더 많은 사람들이 있을 것이지만, 그들 각자는 AGI 이전 시대에 한 사람이 했던 것보다 훨씬 더 많은 일을 할 것"이라고 답변하며, AI가 일자리를 완전히 대체하기보다는 인간의 생산성과 역량을 극대화하는 방향으로 작용할 것이라는 낙관적인 비전을 제시했습니다. 이는 기술의 궁극적인 목표가 인간의 능력을 확장하는 데 있음을 재확인하는 부분입니다.


VI. 결론: AI와 함께 성장하는 인류의 미래


샘 올트먼과의 대화는 OpenAI가 단순한 기술 기업을 넘어, 인류의 미래를 형성하는 데 중추적인 역할을 하고자 하는 야심찬 비전을 가지고 있음을 명확히 보여줍니다. AGI를 향한 끊임없는 탐구, 막대한 규모의 인프라 투자('프로젝트 스타게이트'), 그리고 데이터 프라이버시와 AI 윤리에 대한 확고한 원칙은 그들이 기술 발전의 속도를 늦추지 않으면서도 사회적 책임감을 동시에 이행하려 노력하고 있음을 시사합니다.

그러나 AI 기술이 가져올 미래는 장밋빛 일변도는 아닐 것입니다. '필터 버블'과 같은 의도치 않은 부정적 결과, 에너지 고갈, 사회적 불평등 심화 등 다양한 도전 과제들이 존재합니다. Sam Altman은 이러한 문제점들을 인지하고 있으며, 사회가 "단점을 완화하는 방법"을 찾아낼 것이라는 낙관론을 피력했지만, 이에 대한 끊임없는 사회적 논의와 국제적 협력이 필수적임을 시사합니다.

궁극적으로 OpenAI의 비전은 AI를 통해 인류의 지적 능력과 생산성을 혁신적으로 향상시키고, 궁극적으로는 새로운 과학적 발견을 통해 인류의 삶을 개선하는 데 있습니다. 이를 위해서는 기술 개발의 가속화뿐만 아니라, 사용자 신뢰를 기반으로 하는 윤리적인 AI 시스템 구축, 그리고 AI 시대에 적합한 인간의 역량 강화 노력이 병행되어야 합니다. Sam Altman의 이번 대화는 인류가 AI와 함께 성장하고 공존하는 미래를 위해 지속적으로 탐구하고 대비해야 할 과제들을 명확히 제시하고 있습니다.

keyword
작가의 이전글OpenAI Podcast Ep. 1_전문 해석