brunch

You can make anything
by writing

C.S.Lewis

by 알바트로스 Jan 24. 2023

ChatGPT를 바라보는 구글의 복잡한 심경

책임감 있는 인공지능 개발이란?

모두가 OpenAI사에서 내놓은 ChatGPT의 놀라운 성능에 대해서만 이야기하고 있을 때, 상황을 예의주시하며 조용히 침묵을 지키고 있던 이들이 있다. 2017년 'all you need is attention'이라는 논문과 함께 ChatGPT의 초석이 된 transformer라는 모델을 공개한 바로 그 유명한 Google이다.


Google은 ChatGPT가 구글 검색엔진을 대체해 버릴 것이라는 기자들의 다소 과격한 예측에도 별다른 입장을 내놓지 않고 있었다. 그러나 그랬던 그들이 드디어 입을 열었다. 과연 무엇이 Google의 이유 있는 침묵을 깨버린 것일까? 그것은 수익성 약화에 대한 걱정도, 경쟁사에 대한 라이벌의식도 아니었다.



1. Google은 이미 '람다'를 가지고 있었다.


구글 LaMDA 모델 설명


Google이 만든 transformer는 BERT와 GPT를 비롯한 모든 pre-trained(전이학습) 언어 모델의 조상 격이라 해도 과언이 아니다. 이렇듯 기술력 측면에서 어쩌면 모두를 앞서고 있을지 모르는 Google은 이미 '람다'라는 챗봇을 OpenAI에 앞서 개발했다.


LaMDA(Language Model for Dialogue Applications)란, 언어 이해에 초점을 둔 BERT와 언어 생성에 강한 GPT가 합쳐진 형태의 모델로, 대화에 중점을 둔 언어 모델이다. 자연어 이해(Natural Language Understanding)을 담당하는 모델의 Encoder 부분과 자연어 생성(Natural Language Generation)을 담당하는 Decoder 부분 모두를 사용하는 만큼 '대화'에 최적화되어있다.


Google의 엔지니어 블레이크의 '람다는 의식이 존재한다' 폭로로 유명해진 언어모델이기도 하다.  베일에 싸인 이 람다라는 모델은 사실 작년 말 공개된 ChatGPT보다 더욱 뛰어난 성능을 가지는지도 모른다. 그러나 Google은 자사의 검색 시스템과 매출을 기하급수적으로 올려줄 수 있는 이 모델을 결국 대중에 공개하지 않았다. 도대체 왜일까?



2. 책임감 있는 AI개발이란?


기업은 이윤을 추구하는 동시에 인류 사회 발전에 이바지한다는 더욱 큰 존재가치를 가지고 있는 집단이다. 히 기업이 사람들에게 미치는 영향력과 파급력이 우리가 상상하는 것 이상으로 큰 회사들의 경우, 그들의 사회적 책임이 더욱 중요해질 수밖에 없다.



AI와 같이 인간 사회의 모습을 근본부터 바꾸어버릴 가능성이 있는 기술의 경우 더욱더 책임감 있는 접근이 필요한다. 지금 우리는 어쩌면 AI 발전에 있어서 가장 흥미로운 시기를 지나고 있는지도 모른다.  AI는 사회의 여러 문제를 혁신적으로 해결해 줄 수 있는 무한한 가능성과 동시에 다양하고 진화하는 복잡성과 위험성을 가지고 있기 때문이다.


이러한 중요한 시기에 '책임감 있는 AI개발'이라는 개념에 대해 한번쯤 생각해 볼 필요가 있지 않을까? 이번에 구글이 내놓은 입장문에 따르면 현존하는 AI 모델은 다음과 같은 위험성과 한계성을 내포하고 있다고 한다.


품질이나 정확도 측면에서 의도한 대로 작업을 수행하지 않는 경우

▲부적절한 데이터에 의존

▲너무 이르거나 테스트가 불충분한 상태에서 안전하지 않게 배포

▲오남용

▲사회적 편견과 피해 증폭 등의 경우

▲사이버 보안 위험 생성

▲잘못된 정보 위험 초래

▲실제 갖지 않은 기능을 가지고 있다는 인상

▲노동시장 등에서 불평등과 사회경제적 피해 유발 등의 사례


또한 구글은 올바른 AI 사용을 위해서는 아래의 관점에서 개인과 기업, 연구소, 개발자, 배포자, 학계와 시민사회, 정부와 사용자 등 모든 관계자들의 협력과 공동의 노력이 필요하다고 말한다.


AI 개발 및 AI 시스템 배포에 대한 책임 있는 접근 방식 채택

▲사람과 사회에 혜택을 주는 데이터 및 개인 정보 보호 관행 수립

▲강력한 AI 인프라와 사이버 보안으로 보안 위험 완화

▲혁신과 AI의 안전하고 유익한 사용을 장려하고 AI의 오용, 오용 또는 유해한 사용을 방지하는 규정 마련

▲표준 및 모범 사례 개발을 위한 커뮤니티 간 협업

▲정부 및 시민사회 지도자들과 함께하는 나눔과 배움

▲사회적 관심 영역에서 신뢰를 구축하기 위한 실질적인 책임 메커니즘 구축

▲AI 안전, 윤리 및 사회 기술 연구에 대한 투자

▲세계의 다양성을 완전히 반영하고 도전과 기회를 더 잘 해결하기 위해 더 크고 다양한 AI 실무자 커뮤니티 양성


(출처 : AI타임스 https://www.aitimes.com )


인공지능을 연구하고 개발하며 배포하는 사람들 뿐 아니라 사용자의 책임 역시 가볍게 생각할 수 없는 문제이다. 어쩌면 인공지능을 사용한다는 것은 윤리, 법률, 인권, 차별에서 인류의 미래까지 우리가 생각하는 것보다 큰 영향을 미치는 것일 수 있기 때문이다.


끝으로 ChatGPT를 공개한 OpenAI사와 인공지능 업계의 선두주자 Google의 미션에 대해 소개하며 글을 마치고자 한다. 당연하면서도 재미있는 사실은 둘 중 어느 회사도 '매출의 극대화'를 미션으로 삼고 있지는 않다는 것이다. 그들을 의 미션이 '책임 있는 AI'를 내포하고 있듯 연구자이자 개발자 혹은 사용자로서 우리는 그들을 주시해야 할 의무가 있다.



OpenAI  : Our mission is to ensure that artificial general intelligence benefits all of humanity. (우리의 임무는 모든 인류가 인공지능의 혜택을 받도록 하는 것입니다.)


Google : Make life easier with a little help from our products.(우리 제품의 작은 도움으로 삶을 더욱 쉽게.)

매거진의 이전글 나의 인공지능 개인비서 ChatGPT
브런치는 최신 브라우저에 최적화 되어있습니다. IE chrome safari