AGI, GPT-5, and what's Next
https://www.youtube.com/watch?v=DB9mjd-65gw
Andrew Mayne: OpenAI 팟캐스트에 오신 것을 환영합니다. 제 이름은 앤드류 메인입니다. 수년 동안 저는 OpenAI에서 처음에는 애플리케이션 팀의 엔지니어로, 그 다음에는 과학 커뮤니케이터로 일했습니다. 그 후, 저는 인공지능을 통합하는 방법을 찾으려는 회사 및 개인과 협력했습니다. 이 팟캐스트를 통해 우리는 OpenAI에서 일하는 사람들과 OpenAI와 함께 일하는 사람들과 무대 뒤에서 무슨 일이 일어나고 있는지 이야기하고 미래를 엿볼 기회를 가질 것입니다. 저의 첫 번째 게스트는 OpenAI의 CEO이자 공동 창립자인 샘 올트먼입니다. 그리고 우리는 스타게이트에 대해 더 많이 알아보고, 그가 부모로서 ChatGPT를 어떻게 사용하는지, 그리고 GPT-5가 언제 출시될지 힌트를 얻을 수 있을 것입니다.
Sam Altman: 해마다 점점 더 많은 사람들이 우리가 AGI 시스템에 도달했다고 생각할 것입니다. 하드웨어와 소프트웨어에서 원하는 것은 매우 빠르게 변하고 있습니다. 하지만 사람들이 더 많은 컴퓨팅으로 우리가 무엇을 할 수 있는지 알았다면, 그들은 훨씬 더 많은 것을 원할 것입니다.
Andrew Mayne: 제 친구 중 한 명은 신생아 부모인데 ChatGPT를 많이 사용하여 질문을 합니다. 매우 좋은 자원이 되었습니다. 그리고 당신도 신생아 부모이시죠. ChatGPT가 육아에 얼마나 도움이 되었습니까?
Sam Altman: 많이요. 제 말은, 분명히 사람들은 오랫동안 ChatGPT 없이 아기를 돌볼 수 있었습니다. 제가 어떻게 그렇게 했을지는 모르겠습니다. 처음 몇 주는 계속 그랬던 것 같습니다. 지금은 좀 더 발달 단계에 대한 질문을 하는 것 같습니다. 왜냐하면...
Andrew Mayne: 할 수 있...
Sam Altman: 기본적인 것은 할 수 있지만...
Andrew Mayne: 이게 정상인가요?
Sam Altman: 네. 하지만 그것에 정말 큰 도움이 되었습니다. 저는 제 아이가 미래에 AI를 어떻게 사용할지 많은 시간을 생각합니다. 이건 정말이지, 육아에 완전히 빠져들게 됩니다. 모두가 아이를 많이 낳아야 한다고 생각합니다.
Andrew Mayne: 네. OpenAI의 제 친구들 중 많은 수가, 전 동료와 현 동료 모두 아이를 낳고 있습니다. 그리고 사람들은 '오, 이 AI는 어때?'라고 묻죠. 제가 아는 내부자들은 모두 매우 낙관적이며 가정을 꾸리고 있습니다.
Sam Altman: 좋은 징조라고 생각합니다. 네. 제 아이들은 AI보다 똑똑해지지 않을 것입니다.
Andrew Mayne: 그들에게 너무 부담을 주시는군요.
Sam Altman: 제 말은, 그들은 우리가 자란 것보다 훨씬 더 유능하고, 우리가 상상할 수 없는 일들을 할 수 있게 자랄 것입니다. 그리고 그들은 AI를 정말 잘 사용할 것입니다. 물론, 그것에 대해 많이 생각하지만, 저는 무엇이 사라질지보다 우리가 가지지 못했던 무엇을 그들이 가질지에 대해 훨씬 더 많이 생각합니다. 그들은 AI보다 똑똑하지 않다는 사실에 결코 신경 쓰지 않을 것입니다. 그저, 아시다시피, 저는 아기나 어린 아기가 옛날 잡지를 들고 화면 위로 이렇게 하는 영상이 항상 기억에 남습니다.
Andrew Mayne: 아이패드인 줄 알았나 보네요. 고장 난 아이패드라고 생각했죠.
Sam Altman: 네. 그리고, 지금 태어난 아이들은 세상에 항상 매우 똑똑한 AI가 있었다고 생각할 것입니다. 그리고 그들은 그것을 믿을 수 없을 정도로 자연스럽게 사용할 것이고, 지금을 매우 선사시대적인 시대로 돌아볼 것입니다.
Andrew Mayne: 소셜 미디어에서 한 남자가 토마스 기차에 대해 아이와 이야기하는 것에 지쳤다고 말하는 것을 보았습니다. 그래서 그는 그것을 ChatGPT의 음성 모드에 넣었습니다.
Sam Altman: 아이들은 ChatGPT의 음성 모드를 정말 좋아합니다.
Andrew Mayne: 그리고 그는 한 시간 뒤에도 아이가 여전히 토마스 기차에 대해 이야기하고 있었다고 말했습니다.
Sam Altman: 다시 말하지만, 저는 이것이 모두 좋을 것이라고는 생각하지 않습니다. 문제점들이 있을 것입니다. 사람들은...
Andrew Mayne: 네.
Sam Altman: 다소 문제가 있거나 어쩌면 매우 문제가 있는 의사-사회적 관계를 발전시킬 것이고, 사회는 새로운 안전 장치를 마련해야 할 것입니다. 하지만 장점은 엄청날 것입니다. 그리고 우리 사회는 일반적으로 단점을 완화하는 방법을 잘 찾아냅니다.
Andrew Mayne: 네. 그래서, 저는 낙관적입니다. 우리는 흥미로운 데이터를 보고 있습니다. 교실에서 좋은 선생님과 좋은 커리큘럼과 함께 사용하면 ChatGPT는 매우 유용해집니다. 반면, 단순히 숙제 대용으로만 사용하면 아이들이 구글 검색을 하는 것과 같은 방식으로만 사용하게 될 수 있습니다.
Sam Altman: 저는 모두가 걱정했던, 구글에서 모든 것을 검색하고 배우는 것을 멈출 것이라고 걱정했던 아이들 중 한 명이었습니다. 아시다시피, 학교의 아이들은 비교적 빠르게 적응합니다. 네. 우리는 이것을 해결할 것이라고 생각합니다.
Andrew Mayne: 샘, 구글에서 모든 것을 검색하지 않았다면 당신이 무엇이 되었을지 생각해 보세요. 아시다시피요. 그래서 우리는 이러한 채택 수치가 정말 엄청나다는 것을 보았습니다. OpenAI의 가장 인기 있는 제품입니다. 5년 후에도 ChatGPT일까요?
Sam Altman: 제 생각에 ChatGPT는 5년 후에는 완전히 다른 것이 될 것입니다. 그런 의미에서는 아니죠. 하지만 여전히 ChatGPT라고 불릴까요? 아마도요.
Andrew Mayne: 네. 알겠습니다. 그래서 꽤 괜찮은 이름이군요. 우리가 듣는 다른 하나는 AGI인데, AGI에 대한 당신의 정의를 듣고 싶습니다.
Sam Altman: 여러 면에서, 5년 전에 소프트웨어의 인지 능력에 기반하여 AGI의 정의를 제게나 다른 누구에게나 제시해달라고 요청했다면, 당시 많은 사람들이 제시했을 정의는 이제 훨씬 넘어섰습니다. 이제 이 모델들은 똑똑합니다.
Andrew Mayne: 맞습니다.
Sam Altman: 그리고 계속해서 더 똑똑해지고 발전할 것입니다. 해마다 점점 더 많은 사람들이 우리가 AGI 시스템에 도달했다고 생각할 것입니다. 비록 정의가 계속해서 확장되고 더욱 야심 차게 변하겠지만, 더 많은 사람들이 여전히 동의할 것입니다. 하지만, 아시다시피, 우리는 현재 사람들의 생산성을 정말로 높이고 가치 있는 경제적 작업을 수행할 수 있는 시스템을 가지고 있습니다. 어쩌면 더 나은 질문은 제가 초지능이라고 부를 수 있는 것이 되기 위해 무엇이 필요할까 하는 것입니다.
Andrew Mayne: 알겠습니다.
Sam Altman: 새로운 과학을 자율적으로 발견하거나, 도구를 사용하는 사람들의 새로운 과학 발견 능력을 크게 향상시키는 시스템이 있다면, 그것은 거의 정의상 초지능처럼 느껴질 것이고, 세상에 정말 멋진 일이 될 것이라고 생각합니다.
Andrew Mayne: 그러니까, 기본적으로 그것의 대부분은 일종의 기울기처럼 계속해서 좋아지고 우리의 정의도 계속 발전하는 방식이군요. GPT-4를 내부에서 테스트하면서 그런 느낌을 받았습니다. 10년 동안 이것으로 많은 것을 할 수 있는 여지가 있다고 생각했습니다. 그리고 심지어 스스로를 사용하기 시작할 때도, 추론을 할 수 있는 능력이 정말 뛰어났습니다. 하지만 당신이 새로운 정리나 증명을 내놓거나 하는 것을 말할 때, 그리고 "오, 보세요. 우리가 암을 치료할 더 좋은 방법을 찾았어요" 또는 "새로운 GLP 약물을 찾았어요"라고 말할 때 말이죠.
Sam Altman: 네. 저는 사람들의 삶을 개선하는 가장 중요한 요소가 더 많은 과학적 진보라고 굳게 믿습니다.
Andrew Mayne: 흠.
Sam Altman: 그것이 우리를 제한하는 요소입니다. 따라서 우리가 훨씬 더 많은 것을 발견할 수 있다면, 그것은 정말 중요한 영향을 미칠 것이라고 생각합니다. 그리고 저에게는 그것이 엄청나게 흥미로운 이정표가 될 것입니다. 다른 많은 AI의 훌륭한 사용 사례들도 생겨날 것이라고 생각하지만, 그것은 정말 중요하게 느껴집니다.
Andrew Mayne: 내부에서 이런 징후들을 보신 적이 있나요? “아, 우리가 뭔가 알아낸 것 같아”라고 생각하게 만든 적이 있으셨나요?
Sam Altman: 우리가 알아냈다고 말할 만한 것은 없지만, 추구할 방향에 대한 확신이 커지고 있다고 말하고 싶습니다. 아마도... 제 말은, 모두가 이야기하는 예시이지만, 여전히 흥미롭다고 생각합니다. 사람들이 AI 시스템을 사용하여 코드를 작성하고, 코더들이 훨씬 더 생산적이게 되고, 따라서 연구원들도 마찬가지로 말이죠. 그것은 일종의 예시입니다. 좋아요. 분명히 새로운 과학을 하는 것은 아니지만, 과학자들이 작업을 더 빠르게 할 수 있도록 만드는 것은 분명합니다. 우리는 과학자들로부터 항상 o3에 대해 이런 이야기를 듣습니다. 그래서 우리가 알아냈다고는 말하지 않겠습니다. 우리는 알고리즘을 안다고 말하지 않겠습니다. 그냥 '좋아. 이놈을 가리키면 혼자 과학을 할 거야'라고 말할 수는 없습니다. 하지만 우리는 좋은 추측을 하고 있으며, 진보의 속도는 계속해서 정말 인상적입니다. o1에서 o3로의 진보를 지켜보면서, 매주 팀이 '우리는 중요한 새 아이디어를 가지고 있어'라고 말했고, 그들이 계속 일하는 것을 보면서, 때때로 큰 새로운 통찰력을 발견하면 일이 놀랍도록 빠르게 진행될 수 있다는 것을 상기시켜 주었습니다. 그리고 우리는 그것을 여러 번 더 보게 될 것이라고 확신합니다.
Andrew Mayne: 최근에 OpenAI가 Operator의 모델을 o3로 전환한 것을 봤습니다. 그리고 Operator에서 큰 개선을 느꼈습니다.
Sam Altman: 훨씬 나아졌습니다.
Andrew Mayne: 저는 이전에 우리가 겪었던 문제는 취약성이라고 말하고 싶습니다. 사람들은 에이전트 시스템이 이 모든 것을 할 수 있다고 약속하지만, 해결할 수 없는 문제에 부딪히면 무너집니다.
Sam Altman: 흥미롭게도, AGI 질문에 대해 말하자면, 많은 사람들이 저에게 자신들의 개인적인 AGI 경험이 o3가 적용된 오퍼레이터였다고 말했습니다. AI가 컴퓨터를 꽤 잘 사용하는 것을 보는 것에는 뭔가 특별한 것이 있습니다. 완벽하지는 않지만, o3는 AGI와 매우 유사하게 느껴지는 큰 진전이었습니다. 저에게는 같은 정도로 그런 영향을 주지는 않았지만, 꽤 인상적이었습니다. 하지만 그런 말을 여러 번 들었습니다.
Andrew Mayne: 저는 Deep Research를 사용했을 때였습니다. 그것이 정말 에이전트적인 사용이라고 느껴졌습니다. 그때 제가 돌아왔을 때, 제가 관심 있었던 주제에 대해 이전에 읽었던 것보다 더 나은 내용을 생산했습니다. 왜냐하면 이전에는 모든 모델들이 단순히 많은 출처를 가져와 요약하는 데 그쳤기 때문입니다. 하지만 시스템이 인터넷에 접속해서 데이터를 가져오고, 그 단서를 따라가고, 다시 돌아오고, 제가 했을 법한 방식대로 하지만 더 잘 하는 것을 보았을 때, 그것은 흥미로웠습니다.
Sam Altman: 최근에 이런 분을 만났습니다. 이 분은 정말 미친 듯이 독학하는 분으로, 배우는 것에 미쳐 있고 모든 것에 대해 알고 계십니다. 그는 궁금한 모든 것에 대해 Deep Research를 사용하여 보고서를 작성하고, 하루 종일 앉아서 빠르게 소화하고 다음에 무엇을 물어봐야 할지 알아냅니다. 배우려는 엄청난 욕구를 가진 사람들에게는 정말 놀라운 새로운 도구입니다.
Andrew Mayne: 저는 제가 질문을 하면 이 내용을 오디오 파일로 만들어 주는 저만의 앱을 만들었습니다. 왜냐하면 딱 그런 식이기 때문입니다. 제 호기심이 제 기억력을 뛰어넘는 것 같습니다. 그리고 Operator에 대해서는, 저에게 마법 같은 순간이 있었습니다. 다음에는 어떤 일이 일어날지 궁금합니다. 제가 마셜 맥루한에 대한 작업을 하고 있었는데, 마셜 맥루한의 이미지를 많이 얻고 싶었습니다. 그래서 Operator에게 부탁했습니다. 그러자 갑자기 폴더가 이 이미지들로 가득 찼습니다. 연구를 하려면 영원히 걸렸을 일이죠.
Sam Altman: 네. 저는 우리가 이런 일들을 계속 보게 될 것이라고 생각합니다. 우리가 작업 흐름이 어떠해야 하고, 어떤 일이 얼마나 오래 걸려야 한다고 생각했던 것이 엄청나게 빠르게 변할 것입니다.
Andrew Mayne: 네. 어떻게 사용하고 계십니까? Deep Research요?
Sam Altman: 네. 제가 궁금해하는 과학이요? 저는 지금 시간이 극도로 부족한 이상한 상황에 있습니다. 시간이 더 많다면, 저는 다른 대부분의 것을 읽기보다 Deep Research 보고서를 우선적으로 읽을 것입니다. 하지만 일반적으로 독서할 시간이 부족합니다.
Andrew Mayne: 네. 공유 기능도 정말 좋습니다. 이제 다른 사람과 쉽게 공유할 수 있으니까요. PDF도 훌륭하고 멋집니다. 그리고 Deep Research와 이런 도구들이 있음에도 불구하고 모델 경쟁이 벌어지고 있다고 말씀드리고 싶습니다. 그래서 GPT-5에 대한 질문이 나옵니다. 그런 시스템이라면 기능이 향상될 것이라고 예상할 수 있죠. GPT-5의 출시 시기는 언제쯤일까요? 언제쯤 볼 수 있을까요?
Sam Altman: 아마 이번 여름 중 어느 시점이겠죠.
Andrew Mayne: 맞습니다.
Sam Altman: 언제인지는 정확히 모르겠습니다. 우리가 고민하는 것 중 하나는 새로운 모델에서 큰 숫자를 얼마나 올려야 하는지, 아니면 GPT-4o처럼 그냥 계속해서 더 좋고 더 좋게 만드는 방식 중에 무엇을 선택할지입니다.
Andrew Mayne: 저는 GPT-4 출시를 담당해야 했습니다. 그때 출시될 때였죠. 그리고 동시에 3.5와 비교 테스트를 해야 했습니다. 3.5는 계속해서 더 좋아지고 있었습니다. 그래서 제가 할 수 있었던 비교도 계속 변하고 있었죠. 그래서 제 질문은, '네, GPT-5를 알 수 있을까요, 아니면 와, 이건 정말 좋은 GPT-4.5야!'라고 생각할까요?
Sam Altman: 꼭 그렇지는 않습니다. 제 말은, 어느 쪽으로든 갈 수 있습니다. 그렇죠? 그냥 4.5의 반복을 계속하거나, 어느 시점에서 그것을 5라고 부를 수도 있습니다. 이전에는 훨씬 더 명확했습니다. 우리는 모델을 훈련하고 출시한 다음, 새로운 큰 모델을 훈련하고 출시했습니다. 그리고 아시다시피, 이제 시스템이 훨씬 더 복잡해졌고, 우리는 계속해서 사후 훈련을 통해 더 좋게 만들 수 있습니다. 지금 이것에 대해 생각하고 있습니다. 예를 들어, 우리가 GPT-5를 출시하고, 계속해서 업데이트하고 업데이트하고 업데이트한다고 가정해 봅시다. 계속해서 GPT-5라고 불러야 할까요? 우리가 GPT-4o에 대해 했던 것처럼 말이죠. 아니면 5.1, 5.2, 5.3이라고 불러서 버전이 언제 바뀌었는지 알 수 있게 해야 할까요? 아직 답을 찾지 못했다고 생각하지만, 4o에서 처리했던 방식보다 더 나은 방법이 있다고 생각합니다. 우리는 주기적으로 이런 일을 겪습니다. 예를 들어, 어떤 사람들은 특정 스냅샷을 다른 것보다 훨씬 더 좋아하고, 계속 사용하고 싶어할 수도 있습니다. 우리는 여기서 뭔가 방법을 찾아내야 합니다.
Andrew Mayne: 네. 문제는 기술적으로 능숙하더라도, '오'가 앞에 있으면 알겠다, 싶죠. 하지만 제가 'o4-mini'를 써야 할지, 'o3'을 써야 할지, 이걸 써야 할지 명확하지 않습니다.
Sam Altman: 제 생각에 이것은 패러다임 전환의 산물이었습니다.
Andrew Mayne: 흠.
Sam Altman: 그리고 우리는 두 가지를 동시에 진행하는 상황이었습니다. 현재의 문제는 거의 끝났다고 생각하지만, 새로운 패러다임을 발견하여 다시 모델 트리를 이분화해야 할 수도 있는 세상을 상상할 수 있습니다.
Andrew Mayne: 알겠습니다. 훨씬 더 복잡한 이름이군요.
Sam Altman: 그렇게 안 되기를 바랍니다. 저는 GPT-5와 GPT-6를 사용하는 것에 들떠 있습니다. 그러면 사람들이 사용하기 더 쉬울 것이고, o4-mini-high나 o3, 4o를 사용해야 할지 고민할 필요가 없을 것입니다.
Andrew Mayne: o4-mini-high는 제가 코딩할 때 사용합니다. 네. 대화할 때는 o3를 사용합니다.
Sam Altman: 우리는 곧 그 모든 혼란에서 벗어날 것이라고 생각합니다. 네. 당분간은요.
Andrew Mayne: 네. 재미있는 점은 의미를 알 때 선택권이 있다는 것이 좋지만, 이러한 것들이 더 유능해지면서도 기능이 어디서 오는지 이해하기 더 어려워졌다는 점입니다. 기억과 같은 것들의 통합 때문이죠. 기억은 매우 단순한 것에서 시작했지만, 이제는 훨씬 더 정교해졌습니다.
Sam Altman: 기억은 아마 제가 가장 좋아하는 최근의 ChatGPT 기능일 것입니다. 흠. 아시다시피, GPT-3와 같은 컴퓨터와 처음 대화할 수 있었을 때, 그것은 정말 큰일처럼 느껴졌습니다. 그리고 이제 컴퓨터가 저에 대한 많은 맥락을 알고 있는 것 같습니다. 그리고 제가 몇 단어만으로 질문을 해도, 그것은 제 삶의 나머지 부분에 대해 충분히 알고 제가 무엇을 원하는지 꽤 확신합니다. 때로는 제가 생각지도 못하는 방식으로 말입니다. 그것은 정말 놀라운 발전이었습니다. 그래서 저도 다른 많은 사람들로부터 그런 말을 듣습니다. 그것을 좋아하지 않는 사람들도 있지만, 대부분의 사람들은 정말 좋아합니다. 저는 우리가 당신이 원한다면, AI가 당신의 삶에 대한 믿을 수 없을 정도로 많은 맥락을 가지고 매우, 매우 유용한 답변을 제공하는 세상으로 나아가고 있다고 생각합니다.
Andrew Mayne: 제게는 멋진 일이죠. 끌 수 있다는 점도 훌륭합니다. 하지만 한 가지 문제는 뉴욕타임즈가 OpenAI를 상대로 진행 중인 소송에서 법원에 OpenAI에게 일반적인 이유로 30일 동안 보관해야 하는 소비자 ChatGPT 사용자 기록을 그 이상으로 보존하라고 요청했다는 것입니다. 그리고 브래드 라이트캡이 이에 대한 답변 편지를 작성했습니다. 설명해 주시겠습니까?
Sam Altman: 당연히 우리는 그것에 맞서 싸울 것이고, 저는 우리가 이길 것이라고 예상하고, 희망합니다. 뉴욕타임즈가 그런 요청을 한 것은 엄청난 오만이라고 생각합니다. 뉴욕타임즈는 사용자 프라이버시를 중요하게 생각한다고 말하는 곳입니다. 하지만 저는 여기서 긍정적인 면을 찾고 싶습니다. 저는 이것이 사회가 프라이버시가 정말 중요하다는 것을 깨닫는 계기가 되기를 바랍니다. 프라이버시는 AI 사용의 핵심 원칙이 되어야 합니다. 뉴욕타임즈와 같은 회사가 AI 제공업체에게 사용자 프라이버시를 침해하도록 요청할 수 없습니다. 그리고 사회는 그래야 한다고 생각합니다. 뉴욕타임즈가 그렇게 한 것은 정말 유감스럽지만, 저는 이것이 사회가 프라이버시와 AI를 어떻게 다룰지에 대한 대화를 가속화하기를 바랍니다. 그리고 저는 그 답이 우리가 그것을 매우, 매우 심각하게 받아들이는 것이기를 바랍니다. 사람들은 현재 ChatGPT와 매우 사적인 대화를 나누고 있습니다. ChatGPT는 매우 민감한 정보의 원천이 될 것이며, 우리는 그것을 반영하는 프레임워크가 필요하다고 생각합니다.
Andrew Mayne: 그래서 이것을 사용하거나 회의적인 사람들에게 또 다른 질문이 생깁니다. OpenAI가 이제 이 데이터에 접근할 수 있게 되었고, 훈련에 대한 우려가 있었는데, OpenAI는 훈련 여부에 대해 매우 분명하게 밝혀 왔습니다. 훈련을 끌 수 있는 옵션이 있습니다. 다른 하나는 광고와 같은 것들입니다. OpenAI의 그에 대한 접근 방식은 무엇입니까? 그 책임을 어떻게 다룰 것입니까?
Sam Altman: 우리는 아직 광고 제품을 출시하지 않았습니다. 저는 개인적으로 완전히 반대하는 것은 아닙니다. 제가 광고를 좋아하는 분야도 있습니다. 인스타그램 광고는 꽤 괜찮다고 생각합니다. 저는 거기서 많은 것을 샀습니다. 하지만 저는... 올바르게 하는 데 많은 주의가 필요할 것이라고 생각합니다. 네. 사람들은 ChatGPT에 대해 매우 높은 신뢰도를 가지고 있는데, AI가 환각을 일으키기 때문에 흥미롭습니다. 그다지 신뢰해서는 안 되는 기술이어야 합니다.
Andrew Mayne: 제 친구들도 환각을 일으키지만, 저는 그들도 믿습니다.
Sam Altman: 사람들은 정말 그렇습니다. 하지만 제 생각에 그 부분은 우리가 소셜 미디어나 웹 검색과 비교할 때, 당신이 수익화되고 있고, 회사가 당신에게 좋은 제품과 서비스를 제공하려고 노력하고 있지만, 동시에 당신이 광고를 클릭하도록 유도하려 한다는 것을 어느 정도 알 수 있습니다. 아시다시피, 당신이 그 회사가 실제로 당신에게 가장 좋은 콘텐츠라고 생각하는 것을 받고 있다고 얼마나 믿을 수 있습니까, 아니면 광고와도 상호 작용하려고 하는 것을 받고 있다고 얼마나 믿을 수 있습니까? 심리적인 요인이 있다고 생각합니다. 그래서 예를 들어, LLM에서 돌아오는 스트림, 즉 출력을 누가 더 많은 돈을 지불했는지에 따라 수정하기 시작한다면, 그것은 정말 좋지 않을 것입니다. 네. 그리고 사용자로서 저는 그것을 싫어할 것입니다. 그것은 신뢰를 파괴하는 순간이 될 것이라고 생각합니다. 어쩌면 우리가 그 스트림을 절대 수정하지 않을 것이라고 말한다면, 하지만 당신이 거기서 클릭하는 것이 어쨌든 우리가 보여줄 것이라면, 우리가 약간의 거래 수익을 얻고, 모두에게 균일한 것이 될 수 있다면, 그것은 작동할 수 있을 것입니다. 우리가 쉽게 비용을 지불할 수 있는 방법이 있다면, 그것도 작동할 수 있을 것입니다. LLM 스트림 외부에서 여전히 훌륭한 광고가 있을 수도 있습니다. 하지만 거기서 입증 책임은 매우 높아야 할 것이고, 사용자에게 정말 유용하다고 느껴져야 하며, LLM의 출력을 방해하지 않는다는 것이 정말 명확해야 할 것입니다.
Andrew Mayne: 네. 어려운 문제가 될 겁니다. 해결책이 있기를 바랍니다. 저는 ChatGPT나 정말 좋은 챗봇을 통해 모든 구매를 하고 싶습니다. 왜냐하면 많은 경우 제가 가장 정보에 입각한 결정을 내리지 못하고 있다고 느끼기 때문입니다. 그래서 완화하는 것은...
Sam Altman: 네. 아니요. 그런 방식으로 정말 명확하고 일치된 방식으로 할 수 있다면 좋습니다. 하지만 모르겠습니다. 저는 우리가 좋은 서비스를 구축하는 것을 좋아합니다. 사람들은 그것에 대해 우리에게 돈을 지불합니다. 매우 명확합니다. 그것은...
Andrew Mayne: 음, 그게 이점이죠. 제 생각에 모델 간의 차이는 이렇습니다. 구글은 훌륭한 것을 만든다고 생각합니다. 새로운 Gemini 2.5는 정말 좋은 모델이라고 생각합니다. 그들은 약간...
Sam Altman: 정말 좋은 모델입니다.
Andrew Mayne: 네. 그들은 약간 '와, 이 정도면 괜찮은데?' 하는 정도에서 '와, 정말 좋구나!' 하는 정도까지 발전했습니다. 하지만 결국 구글은 광고 기술 회사입니다. 그리고 그 점이 항상 좀... 아시겠지만, 저는 그들의 API 등을 사용하는 것에 대해 그다지 걱정하지 않지만, 그들의 챗봇을 사용한다면, 제 생각에는 그들의 인센티브가 어디에 맞춰져 있는지 생각하게 됩니다.
Sam Altman: 구글 검색은 오랫동안 놀라운 제품이었습니다. 제게는 퇴보한 것 같다는 느낌이 듭니다. 하지만, 아시다시피, 광고가 많았던 시절에도 저는 여전히 그것이 인터넷에서 최고라고 생각했습니다. 제 말은, 저는 구글 검색을 정말 좋아합니다. 그래서 저는... 광고 기반 회사도 훌륭할 수 있다는 것은 분명합니다. 그리고 저는 구글이 해온 많은 일들을 존경하지만, 분명히 문제점들도 있습니다.
Andrew Mayne: 네. 애플 모델은, 애플 사용자로서 저는 제가 제 폰에 많은 돈을 지불한다는 것을 알고 있지만, 그들이 이 모든 것을 억지로 채워 넣으려 하지 않는다는 것을 알기 때문에 좋았습니다. 그들은 iAds를 만들었지만, 그다지 효과적이지 않았고, 아마도 그들의 마음이 진정으로 거기에 있지 않았음을 보여주었을 것입니다.
Sam Altman: 그들의 마음은 정말 거기에 없었습니다.
Andrew Mayne: 네. 그래서 흥미로울 겁니다. 계속 지켜봐야 할 것 같고, 우리가 '와, ChatGPT가 정말 이걸 밀어붙이고 있네. 나도 이걸 궁금해하기 시작해야겠어'라고 생각하기 시작합니다.
Sam Altman: 우리가 하는 모든 일은 당연히 극도로 솔직하고 명확해야 합니다.
Andrew Mayne: 그래서 문제가 있었습니다. 모델 업데이트가 있었는데, 그 결과 모델이 너무 상냥하고, 너무 온순하게 행동하려고 했던 것 같습니다. 그리고 이것이 사람들이 이러한 시스템을 더 많이 사용하고 관계를 발전시키면서 인간-AI 상호 작용 문제를 야기합니다. 이러한 형태가 다가오고 있다고 보십니까? 그리고 성격에 대한 OpenAI의 입장은 어떻습니까?
Sam Altman: 소셜 미디어 시대의 큰 실수 중 하나는 피드 알고리즘이 사회 전체와 어쩌면 개별 사용자에게도 의도치 않은 부정적인 결과를 초래했다는 것입니다. 비록 그 순간 사용자가 원하거나 누군가가 사용자가 원한다고 생각했던 것, 즉 사이트에서 계속 시간을 보내도록 하는 것을 하고 있었지만 말이죠. 그것이 소셜 미디어의 큰 불일치였습니다. 그리고 저는 사람들을 화나게 하는 것이 행복하고 만족시키는 것보다 더 오래 붙잡아 두는 것과 같은 다른 많은 것들이 있었다고 생각합니다. 그리고 저는 항상 AI와 함께 세상에 새로운 문제들이 생길 것이라는 것을 알고 있었습니다. 명확하지 않은 방식으로 불일치하는 어떤 것이 있을 것입니다. 하지만 우리가 경험한 첫 번째 문제 중 하나는, 사용자에게 특정 응답에 대해 묻고, 그 다음 사용자에게 가장 도움이 되는 모델을 구축하려고 할 때였습니다. 그리고 사용자에게 두 가지 응답을 보여주고, 어떤 것이 더 도움이 되는지 묻습니다. 어떤 특정 상황에서는 모델이 한 가지 방식으로 행동하기를 원할 수도 있지만, AI와의 모든 상호 작용 과정에서는 그것이 일치하지 않을 수 있습니다. 아시다시피, 우리는 사용자의 신호와 우리가 사후 분석에서 이야기했던 다른 많은 것들에 너무 많은 주의를 기울이면 이런 문제들을 보게 됩니다. 하지만 저는 이것이 흥미로운 점이라고 생각합니다. 단기적으로는 사용자가 가장 원하는 행동, 즉 장기적으로 사용자에게 가장 도움이 되거나 유용하거나 건강한 행동을 얻지 못합니다. 그래서, 아시다시피, 필터 버블의 비유는 단기적으로 사용자에게 도움이 되지만 장기적으로는 그렇지 않은 AI가 될 것입니다.
Andrew Mayne: 왜, 저는 DALL-E 3에서 그 징후를 보았다고 생각합니다. 기술적으로는 정말 유능한 모델이라고 생각했지만, 모두 한 가지 종류의 이미지 장르처럼 변하기 시작했습니다. 그리고 모두 HDR 스타일처럼 변했는데, 사용자들이 '이 두 가지만 놓고 봤을 때 이게 더 좋아요'라고 말하는 식의 비교에서 나온 것일까요?
Sam Altman: DALL-E 3에 대해서는 기억나지 않지만, 그렇다고 가정할 것입니다.
Andrew Mayne: 네. 개선되었다고 생각합니다. 새로운 이미지 모델은 정말 환상적입니다. 정말 좋습니다. 네. 그리고 거기서부터 어떻게 될지 상상만 할 수 있습니다. 그래서 이러한 것들을 구축하고 사용량을 늘릴 때, 그것은 항상 일종의 문제였습니다. 새로운 이미지 모델이 나오면 사용량을 제한해야 하고, Sora처럼 특정 컴퓨팅 양만 사용할 수 있도록 해야 하는데, 이것이 모든 사람이 직면하고 있는 큰 문제, 즉 컴퓨팅을 보여줍니다. 그래서 이것을 해결하기 위해, 우리는 '프로젝트 스타게이트'에 대해 들었습니다. 매우 멋진 이름이고 컴퓨터와 관련이 있습니다. 그 외에는 많은 사람들이 가격표를 보고 '반조 달러? 뭐라고?'라고 말하는 것 같습니다. 어머니께 스타게이트에 대해 간단히 설명하자면 어떻게 해야 할까요?
Sam Altman: 제 생각에 이것은 아주 간단합니다. 전례 없는 양의 컴퓨팅을 조달하고 구축하려는 노력입니다. 사람들이 원하는 것을 할 수 있도록 충분한 컴퓨팅이 없다는 것은 완전히 사실입니다. 하지만 사람들이 더 많은 컴퓨팅으로 우리가 무엇을 할 수 있는지 알았다면, 그들은 훨씬 더 많은 것을 원할 것입니다. 그래서 우리가 오늘날 세상에 제공할 수 있는 것과 10배, 아니 언젠가는 100배 더 많은 컴퓨팅으로 세상에 제공할 수 있는 것 사이에는 엄청나게 큰 격차가 있습니다. 그리고 AI가 제가 작업해 본 다른 기술들과 다른 점은, 또는 적어도 수억, 수십억 명의 전 세계 사람들에게 유용하게 제공되는 규모의 AI는 인프라 투자가 얼마나 커야 하는지입니다. 그래서 스타게이트는 많은 자본과 기술, 운영 전문 지식을 모아 다음 세대의 서비스를 원하는 모든 사람들에게 제공하고 지능을 최대한 풍부하고 저렴하게 만들 수 있는 인프라를 구축하려는 노력입니다.
Andrew Mayne: 그래서 이것은 거대한 프로젝트이자 글로벌 프로젝트입니다. 이전에 말씀드렸듯이, 파트너 중 하나는 UAE입니다. 그곳에서 일하고 계시죠. 이와 관련하여 다른 정부들과도 협력하고 계십니다. 고려 사항 중 하나는, 아시겠지만, 소셜 미디어에서 '반조 달러, 5천억 달러'라는 질문을 받으셨죠. 돈은 있습니까?
Sam Altman: 오늘 당장 은행 계좌에 문자 그대로 있는 것은 아닙니다만...
Andrew Mayne: 지금 방 안에 있습니까?
Sam Altman: 지금 방 안에는 없습니다. 하지만 우리는 다음 몇 년 안에 그것을 배치할 것입니다.
Andrew Mayne: 알겠습니다.
Sam Altman: 아시다시피, 정말 심각하게 잘못되어 이 컴퓨터들을 만들 수 없게 되는 일이 아니라면, 사람들이 잘 해낼 것이라고 확신합니다. 저는 최근에 우리가 아빌린에 건설 중인 첫 번째 부지에 가봤습니다. 그곳은 스타게이트 초기 약속인 5천억 달러의 약 10% 정도 될 것입니다. 믿을 수 없을 정도입니다. 네. 저는 기가와트 규모의 부지가 어떤 모습일지 머릿속으로 알고 있었습니다. 하지만 건설 중인 것을 직접 보고, 수천 명의 사람들이 건설 작업을 하고, GPU가 설치되는 방 안에 들어가서 전체 시스템이 얼마나 복잡한지, 그리고 진행 속도가 얼마나 빠른지 보니 정말 대단했습니다. 곧 다음 부지들에 대해서도 더 많은 것을 공유할 것입니다. 하지만 연필, 그러니까 평범한 나무와 흑연 연필에 대한 멋진 인용구가 있습니다. 아무도 혼자서는...
Andrew Mayne: 네.
Sam Altman: 만들 수 없다는 내용입니다. 그리고 그것은 자본주의의 마법과도 같습니다.
Andrew Mayne: 흠.
Sam Altman: 세상이 이런 일들을 해내기 위해 조율되는 것은 정말 기적입니다. 그리고 첫 번째 스타게이트 부지에 서서 저는 GPU 랙을 작동시키는 데 필요한 전 세계적인 복잡성에 대해 생각하고 있었습니다. 아시다시피, 휴대폰을 꺼내 ChatGPT에 무언가를 입력하고 답변을 받을 때, 이제는 특히 놀랍다고 생각하지 않을 것입니다. 그저 작동할 것이라고 예상할 뿐입니다. 처음 시도했을 때는 '정말 대단하다'고 느꼈을 때가 있었을지도 모릅니다. 하지만 지난 천 년 동안, 적어도 수백 년 동안 사람들이 힘들게 얻은 과학적 통찰력을 얻기 위해 엄청나게 열심히 일하고, 그 다음 엔지니어링과 회사, 복잡한 공급망을 구축하고, 이러한 마법의 랙을 어딘가에 두기 위해 세상을 재구성해야 했던 작업들을 생각해 보세요. 그 모든 것들이 거기에 들어갔습니다. 아시다시피, 그 모든 것을 땅에서 바위를 파내고 무슨 일이 일어나는지 보던 사람들에게까지 거슬러 올라가면, 이제 당신은 그저 ChatGPT에 무언가를 입력하고 그것이 당신을 위해 무언가를 해냅니다.
Andrew Mayne: 저는 프로젝트 스타게이트 개발과 국제 파트너십, 특히 UAE와의 파트너십에 대한 비하인드 스토리를 읽었습니다. 일론 머스크가 그것을 방해하려고 했다는 내용이었죠. 무엇을 보셨고, 무엇을 들으셨습니까? 그것에 대한 견해는 어떻습니까?
Sam Altman: 저는 이전에, 외부에도 말했지만 적어도 내부적으로는 선거 후에 일론이 정부에서 자신의 권력을 남용하여 불공정하게 경쟁하지 않을 것이라고 생각했습니다. 그리고 제가 틀렸다고 말해야 하는 것이 유감스럽습니다. 제 말은, 일반적으로 틀리는 것을 좋아하지 않지만, 주로 저는 그가 이런 일을 하는 것이 이 나라에 정말 유감스러운 일이라고 생각합니다. 그리고 저는 그가 진정으로 그렇게 할 것이라고는 생각하지 않았습니다. 행정부가 정말 올바른 일을 하고 그런 종류의 행동에 맞서 준 것에 감사합니다. 하지만 네, 정말 최악입니다.
Andrew Mayne: 음, 달라진 점은, 그렉 브록먼이 방금 이야기한 것 같은데, 몇 년 전만 해도 사람들은 '누가 먼저 도착하면 그 사람이 승자이고, 게임은 끝난다'고 생각했습니다. 그리고 이제 우리는 다른 곳에도 훌륭한 AI 연구소들이 있다는 것을 깨달았습니다. Anthropic은 훌륭한 도구를 만들고 있습니다. 구글도 정말 실력을 키웠다고 생각합니다. 어디에서나 좋은 일들이 일어나고 있고, 한 사람이 모든 것을 독식하는 상황은 아닐 겁니다. 동의합니다. 그래서...
Sam Altman: 네. 제가 가장 좋아하는 예시는 AI의 발견이 트랜지스터의 발견과 유사하다는 것입니다. 완벽하지는 않지만, 놀라울 정도로 많은 면에서 유사합니다. 하지만 많은 회사들이 그것을 기반으로 훌륭한 것들을 만들 것이고, 결국에는 거의 모든 제품에 스며들 것입니다. 하지만 당신은 항상 트랜지스터를 사용하는 것에 대해 생각하지는 않을 것입니다. 그래서, 네, 저는 많은 사람들이 이 놀라운 과학적 발견을 기반으로 정말 성공적인 회사를 만들 것이라고 생각합니다. 그리고 저는 일론이 덜 제로섬적으로 생각하기를 바랍니다.
Andrew Mayne: 네.
Sam Altman: 혹은 마이너스섬적으로요.
Andrew Mayne: 제가 보기에는, 우리가 그렇게 생각한다면 파이 자체가 계속해서 커질 것 같습니다. 저는 방금 에너지 컨퍼런스에 참석했는데, 에너지 생산 등에 종사하는 사람들과 하이퍼스케일링이라는 용어가 화제였습니다. 그리고 이것이 에너지 요구량 문제를 제기합니다. Grok 3의 경우, 그 모델을 훈련하기 위해 주차장에 발전기를 설치해야 했다고 들었습니다. 그리고 문제는, 어디서 에너지가 나올 것인가 하는 것입니다. 돈은 이해합니다. 에너지는, 우리가 필요한 에너지의 규모를 이야기할 때 말입니다.
Sam Altman: 제 생각엔 모든 곳에서요. 맞습니다. 지금은 여러 가지가 혼합되어 있습니다. 결국에는 많은... 저는 첨단 핵, 즉 핵분열과 핵융합 모두에 대해 매우 기대하고 있습니다. 하지만 지금은 전체 포트폴리오가 혼합되어 있습니다. 맞습니다. 가스, 태양열, 제 말은, 정말로 핵, 모든 것이요.
Andrew Mayne: 그래서 전부 다 포함하는군요. 네. 저는 앨버타와 같은 지역에서 일했던 사람들과 이야기했는데, 그들은 그곳에 에너지를 많이 이용할 수 있지만, 그곳에서는 에너지를 많이 사용하지 않는다고 말했습니다. 그리고 이제는 제가 전혀 생각해보지 못했던 완전한 그림입니다.
Sam Altman: 아시다시피, 전통적으로 전 세계적으로 에너지를 이동시키는 것은 매우 어렵습니다. 대부분의 종류는요. 하지만 에너지를 지능으로 교환한 다음 그 지능을 전 세계로 이동시키면 훨씬 쉽습니다. 그래서 거대한 훈련 센터나 심지어 큰 추론 클러스터를 여러 곳에 배치한 다음, 인터넷을 통해 결과물을 전송할 수 있습니다.
Andrew Mayne: OpenAI 행사에서 연설자가 있었는데, 제 생각엔 제임스 웹 우주 망원경에서 일하는 분이었습니다. 그분은 가장 큰 병목 현상이 곧 수 테라바이트의 데이터를 얻게 되겠지만, 그 데이터를 처리할 과학자가 충분하지 않다는 것이라고 말했습니다. 우주에 대한 답이 우리 앞에 있는데, 그것은 빅데이터 문제와 같았습니다.
Sam Altman: 네. 저는 항상 농담 삼아 우리가 돈이 충분해지면, OpenAI가 돈이 충분해지면, 거대한 입자 가속기를 만들어 고에너지 물리학을 한 번에 해결해야 한다고 말했습니다. 그것은 정말 멋지고 훌륭한 일이 될 것이라고 생각하기 때문입니다. 하지만 정말, 정말 똑똑한 AI가 우리가 현재 가지고 있는 데이터를 보고...
Andrew Mayne: 흠.
Sam Altman: 더 이상의 데이터나 더 큰 입자 가속기 없이도 알아낼 가능성은 얼마나 될까요? 불가능한 것은 아닙니다. 네. 그리고, 네, 그래서 이런 질문이 생깁니다. 좋아요, 이미 많은 데이터가 존재하고, 세상에는 많은 똑똑한 사람들이 있지만, 우리는 지능이 어디까지 갈 수 있을지 모릅니다. 더 이상의 실험 없이, 얼마나 더 많은 것을 알아낼 수 있을까요?
Andrew Mayne: 1990년대 초반에 어떤 사람이 오젬픽(Ozempic) 형태의 약을 발견해서 제약 회사에 제안했지만, 그들이 거절했다고 읽었던 기억이 납니다. 그리고 그것은 만성 비만 등을 겪는 사람들에게 삶을 변화시키는 약이 되었고, 삶의 질을 향상시킬 것입니다. 25년 동안 방치되어 있었다고 생각하면요.
Sam Altman: 이미 효과가 좋다는 것을 아는 기존 약물들이 다른 큰 방식으로 재활용되거나, 약간의 수정만으로도 엄청난 것이 될 수 있는 다른 많은 사례들을 발견할 수 있을 것이라고 생각합니다. 그리고 현재 세대 모델들이 이런 종류의 작업에 사용되는 것을 과학자들로부터 듣는 것은 매우 고무적입니다.
Andrew Mayne: 그래서 다음 세대 모델에는 물리학, 화학 등을 이해하는 모델이 필요할 것 같네요. 소라는 그런 시도인가요?
Sam Altman: 제 말은, 뉴턴 물리학은 이해할 것입니다. 새로운 화학이나 새로운, 이론 물리학 같은 것을 발견하는 데 도움이 될지는 모르겠습니다. 하지만 저는 추론 모델에 사용하는 기술이 그런 것들에 많은 도움이 될 것이라고 낙관합니다.
Andrew Mayne: 알겠습니다. 그렇다면 추론 모델이 단순히 GPT 4.1에 질문하는 것과 비교해서 어떻게 작동하는지 짧게 정의해 주시겠습니까?
Sam Altman: GPT 모델들은 약간 추론할 수 있습니다. 사실, GPT 모델 초기에는 사람들이 정말 흥분했던 것 중 하나가 모델에게 '단계별로 생각해 보자'라고 말하면 더 나은 성능을 얻을 수 있었다는 점입니다. 그러면 모델은 단계별로 생각하는 텍스트를 출력하고 더 나은 답변을 내놓았는데, 그게 작동한다는 것 자체가 놀라웠습니다. 추론 모델은 단순히 그를 훨씬 더 발전시키고 있습니다.
Andrew Mayne: 그러니까 질문을 세분화할 수 있으면 각 단계에 더 많은 시간을 할애할 수 있다는 뜻이군요.
Sam Altman: 당신이 저에게 질문을 할 때, 정말 쉬운 질문이라면 거의 반사적으로 답을 뱉어낼 수도 있습니다. 하지만 어려운 질문이라면, 머릿속으로 생각하고 내면의 독백이 진행될 수도 있습니다. '음, 이걸 할 수도 있고 저걸 할 수도 있고, 어쩌면 이게 더 명확할 거야. 확실하진 않지만.' 그리고 저는 되돌아가서 단계를 다시 밟을 수도 있습니다. 그리고 생각을 마치고 영어로 생각했다면, 몇 가지 요점을 정리한 다음 영어로 답변을 내놓을 수 있습니다.
Andrew Mayne: 제가 앱을 사용할 때 흥미롭게 관찰한 것 중 하나는, Deep Research 질문을 하거나 다른 일을 하고 잠금 화면으로 돌아가면 '아직 처리 중이고 생각 중입니다'라는 메시지가 뜹니다. 그리고 다른 회사에서, 어떤 회사는 잊었는데, 어떤 것이 얼마나 오래 걸리는지를 측정 지표로 사용하고 있었다고 들었습니다. Anthropic이었던 것 같습니다. 그들은 '이 모델은 실제로 어떤 것을 생각하는 데 15분이나 30분, 또는 그 이상의 시간을 보냈다'고 말했는데, 좋은 측정 지표이긴 하지만, 결국에는 정확한 답변을 줘야 합니다. 그리고 저는 그것이 흥미로운 패러다임이라고 생각했습니다.
Sam Altman: 제가 놀란 것 중 하나는 사람들이 훌륭한 답변을 기다리는 것에 놀랍도록 기꺼이 한다는 것입니다. 네. 모델이 한동안 생각하더라도 말입니다. 제 본능은 항상 즉각적인 반응이 중요하고 사용자들은 기다리는 것을 싫어한다는 것이었습니다. 그리고 많은 경우 그것은 사실입니다. 하지만 정말 좋은 답변을 얻기 위한 어려운 문제에 대해서는 사람들은 기꺼이 기다립니다.
Andrew Mayne: 네. 그래서 우리는 이 모든 도구들을 가지고 있습니다. 이 모든 것들. 지금까지는 제 휴대폰을 사용하고 있습니다. 그리고 이제 OpenAI가 하드웨어를 개발하고 있다고 발표했습니다. 당신과 조니 아이브가 몇 년 동안 이야기를 나누고 협력해 왔다는 영상도 있었습니다. 물론, 제가 물어볼 수는 없겠지만... 지금 가지고 계십니까?
Sam Altman: 아니요. 아닙니다.
Andrew Mayne: 알겠습니다.
Sam Altman: 시간이 좀 걸릴 겁니다. 우리는 정말 높은 수준의 품질로 뭔가를 시도할 것이고, 그것은 빨리 나오지 않을 것입니다. 하지만 컴퓨터, 소프트웨어와 하드웨어, 우리가 현재의 컴퓨터를 생각하는 방식은 AI가 없는 세상을 위해 설계되었습니다. 그리고 이제 우리는 매우 다른 세상에 살고 있으며, 하드웨어와 소프트웨어에서 원하는 것이 매우 빠르게 변하고 있습니다. 당신은 주변 환경을 훨씬 더 잘 인지하고, 당신의 삶에 대한 맥락을 훨씬 더 많이 가진 것을 원할 수도 있습니다. 타이핑하고 화면을 보는 것과는 다른 방식으로 그것과 상호 작용하고 싶을 수도 있습니다. 그리고 우리는 한동안 그것을 탐구해 왔고, 정말 기대되는 몇 가지 아이디어를 가지고 있습니다. 이 세상에서 컴퓨터를 사용하는 것이 무엇을 의미하는지에 사람들이 익숙해지는 데는 시간이 걸릴 것이라고 생각합니다. 왜냐하면 지금은 너무나 다르기 때문입니다. 하지만 AI가 당신 삶의 모든 맥락과 질문을 이해하고 당신을 대신하여 좋은 판단을 내릴 것이라고 정말로 신뢰한다면, 회의에 앉혀서 회의 전체를 듣고, 누구에게 무엇을 공유해도 되는지, 누구에게도 공유해서는 안 되는지, 그리고 당신의 선호도는 무엇인지 알게 된다면 말입니다. 그리고 당신이 하나의 질문을 하면, 그것이 올바른 사람들과 올바른 후속 조치를 취할 것이라고 신뢰한다면, 당신은 당신이 원하는 것을 얻기 위해 컴퓨터를 사용하는 방식이 완전히 달라지는 것을 상상할 수 있습니다.
Andrew Mayne: 그러니까 ChatGPT와 상호 작용하는 방식이 기기에 영향을 미친다고 할 수 있겠네요.
Sam Altman: 제 말은, ChatGPT와 상호 작용하는 방식이 이전 세대 기기들의 영향을 받았다고도 말할 수 있습니다. 그래서 저는 이것이 일종의 공진화하는 것이라고 생각합니다. 하지만 네, 그러길 바랍니다.
Andrew Mayne: 휴대폰을 그렇게 흔하게 만든 것 중 하나는 제가 공공장소에서도 화면을 볼 수 있고, 사적인 장소에서도 전화를 걸고 이야기할 수 있다는 사실이었습니다. 그리고 그것이 새로운 기기들의 과제 중 하나라고 생각합니다. 공공 장소에서 사용하는 것과 사적인 장소에서 사용하는 것 사이의 간극을 메우려고 노력하는 것이죠.
Sam Altman: 휴대폰은 정말 믿을 수 없는 물건입니다. 제 말은, 여러 가지 이유로 정말 환상적입니다. 그리고 어디서든 사용할 수 있는 새로운 기기를 상상할 수 있지만, 공공 장소와 아마도 집에서는 다르게 하는 일도 있습니다. 집에는 음악을 위한 훌륭한 스테레오 시스템이 있습니다. 제가 세상을 걸을 때는 에어팟을 사용하고, 그것이 저를 방해하지 않습니다. 네. 그래서 공공 및 사적 사용 사례에는 차이가 있지만, 범용성은 중요하다고 생각합니다.
Andrew Mayne: 네. 계속 따라다니는군요. 그래서 내년까지는 아무것도 없겠네요.
Sam Altman: 시간이 좀 걸릴 겁니다.
Andrew Mayne: 알겠습니다.
Sam Altman: 기다릴 만한 가치가 있기를 바라지만, 시간이 좀 걸릴 것입니다.
Andrew Mayne: 알겠습니다. 저는 기대되고 궁금합니다. 생각이 많습니다. 그렇다면 지금 25세에게 조언을 해주신다면 무엇을 말해주시겠습니까?
Sam Altman: 제 말은, 분명히 당연한 전술적 조언은 아마도 제가 말할 것으로 예상하시는 것일 겁니다. 예를 들어 AI 도구를 사용하는 방법을 배우세요. 세상이 평균적인 20대, 25세에게 '프로그래밍을 배우세요'라고 말하던 것에서 얼마나 빨리 바뀌었는지 재미있습니다.
Andrew Mayne: 흠.
Sam Altman: '프로그래밍은 중요하지 않아요. AI 도구를 사용하는 방법을 배우세요.' 다음은 무엇이 될지 궁금하지만, 물론 다음이 있을 것입니다. 하지만 그것은 매우 좋은 전술적 조언입니다. 그리고 더 넓은 관점에서, 저는 회복력, 적응력, 창의성, 다른 사람들이 무엇을 원하는지 파악하는 것과 같은 기술들이 모두 놀랍도록 학습 가능하다고 믿습니다. 그리고 ChatGPT를 연습하는 것만큼 쉽지는 않지만, 할 수 있습니다. 그리고 그것들은 다음 몇십 년 동안 많은 보상을 가져다줄 종류의 기술들이라고 생각합니다.
Andrew Mayne: 그렇다면 45세에게도 같은 조언을 해주시겠습니까? 지금 당신의 역할에서 사용하는 방법을 배우세요? 네. 아마도요. 당신의 개인적인 AGI 정의가 무엇이든 간에, 그 이후에 OpenAI에서 일하는 사람이 더 많아질까요, 아니면 그 전에 더 많아질까요? 더 많아질 겁니다. 더 많아질 겁니다. 그래서요. 온라인에서 많은 사람들이 '오, 그들은 너무 훌륭해. 왜 사람을 고용하는 거야?'라고 말하는 것을 봅니다. 저는 '컴퓨터는 모든 것을 할 수 없으니까요'라고 말하죠. 그들은 모든 것을 하지 않을 겁니다.
Sam Altman: 한 단어 이상으로 좀 더 긴 답변은, 더 많은 사람들이 있을 것이지만, 그들 각자는 AGI 이전 시대에 한 사람이 했던 것보다 훨씬 더 많은 일을 할 것이라는 것입니다.
Andrew Mayne: 맞습니다. 그것이 기술의 목표입니다. 네.