brunch

You can make anything
by writing

C.S.Lewis

by 김별 Dec 09. 2023

인공지능 AI와 함께 하는 미래 (3)

판도라의 상자가 열린 걸까? 가속화되는 인공지능 개발

 쳇 지피티의 아버지라 불리는 오픈 에아이의 CEO 샘 올트먼에 관한 기사에 대해 언급해 본다.


샘 알트만 오픈AI CEO [사진: 연합뉴스]출처 : 디지털투데이 (DigitalToday)  2023.07.26


샘 알트만 CEO는 "AI 관련 업계 종사자들은 AI가 사람들의 일자리를 대체하지 않는다는 낙관적인 전망을 갖고 있지만 이는 자신을 속이는 것"이라며 "일자리는 확실히 사라질 것이다"라고 강조했다.

이어 "대신 고임금의 새로운 일자리가 등장할 것"이라고 말했다. 학계도 AI로 인한 일자리 위협에 대한 의견을 내놓고 있다. 칼 베네틱트 프레이 옥스퍼드대 교수는 "현재 AI 어시스턴트는 텔레마케터를 대체하기 위해 훈련받고 있다"고 말했다. 이에 AI로 일자리를 잃은 근로자들의 미래를 어떻게 해쳐나갈 수 있을지 고민해야 한다고 비즈니스인사이더는 전했다. 출처 : 디지털투데이 (DigitalToday)(http://www.digitaltoday.co.kr)



지난 11월 뉴스를 떠들썩하게 했던 오픈에이아이(OpenAI) 최고경영자에서 쫓겨나다시피 해서 마이크로 소프트로 갔던 샘 올트먼이 다시 원래 있던 곳으로 돌아갔다. 그는 복귀 조건으로 내걸었던 전 이사회 퇴진과 새로운 이사회 구성도 이뤄냈다. 사람들은 이번 사태가 올트먼에게는 전화위복이 된 거 처럼 그의 완벽한 승리로 보고 있다. 이제 그는 거의 대체 불가능한 인공지능 업계의 제왕이 된 거 같다.


하정우 네이버클라우드 에이아이 이노베이션 센터장은 “이번 사태로 올트먼의 리더십을 정확하게 확인할 수 있는 계기가 됐다”며 “(인공지능) 비즈니스와 안전 문제가 격한 형태로 충돌했으나 결국 올트먼을 중심으로 비즈니스 친화적으로 정리돼 오픈에이아이가 더 무섭게 변할 것으로 예상된다”고 말했다.     

     


위 인공지능 비즈니스와 안전 문제가 충돌하면서 오픈에이아이가 더욱 무섭게 변할 것으로 예상된다고 언급 된 부분이 잘 모르는 내가 봐도 아무래도 염려스럽다.

인공지능 개발의 구체적인 위험성에 대해서는 언급되지 않았으나 마치 판도라 상자가 열린 것처럼 무서운 속도의 개발이 가져올 결과에 대해 우려심을 자아낸다.      


일부 사람들은 여전히 인공지능의 발전이 혁신과 편의를 가져다줄 것이라고 믿고 있지만, 동시에 인공지능이 일정 수준 이상의 지능을 보유하게 되면 인간의 역량을 초월하고 예측할 수 없는 상황을 만들 수있음을 결코 배제할 수는 없다 본다.     


인공지능의 위험성은 주로 다음과 같은 측면에서 논의된다.      


첫째, 인공지능의 의사결정 능력이 인간의 윤리적 가치와 충돌할 수 있다는 점이다. 예를 들어, 맨 먼저 인공지능이 인간의 생명을 위협하는 결정을 내릴 수 있다면 어떻게 대처해야 할지에 대한 문제가 제기된다. 

(인공지능 규율 1번이 인간을 해치지 않는다 이지만 가끔 에이아이가 엉뚱한 답을 하는 경우도 있다. 딥 러닝을 통해서 스스로 자의식이 생겨버리는 경우 인공지능은 우리의 예상과는 다른 판단을 내릴 수 있다)  

 

둘째, 인공지능의 알고리즘과 데이터에 내재된 편견과 차별이 문제가 될 수 있다. 인공지능은 학습 데이터에 기반하여 판단을 내리지만 이 데이터가 편향되어 있거나 차별적인 내용을 담고 있다면, 인공지능의 결정에도 그 영향이 미칠 수 있다는 거다. 

(실제 구글 에이아이는 흑인여성 사진을 고릴라로 분류해서 문제가 된 적이 있다. 그리고 동양인의 사진을 보고 눈을 감은 사람이라고 하기도 했다. 백인 위주의 학습데이터가 문제가 된 경우다)    


셋째, 인공지능의 자율성과 통제 문제다. 인공지능이 자체적으로 학습하고 판단하는 능력을 갖게 되면, 우리가 그 결정을 이해하고 통제하기 어려워지기 때문이다.      


이러한 위험성에도 불구하고, 인공지능의 발전이 기술적인 혁신과 사회적인 편의를 가져다주기에 개발은 중단되지 않을 것이다. 따라서 우리는 여전히 인공지능의 개발과 도입에 대한 적절한 균형과 통제를 고려해야만 한다. 이를 위해서윤리적인 가이드라인과 법적인 규제, 그를 위한 전문가들의 적극적인 참여와 협력이 필요하다 본다.          


 다양한 측면에서 고려되고 있는 인공지능 개발에 대한 대책들이다.


1. 윤리적 가이드라인과 규제: 인공지능의 개발과 사용이 인간의 가치와 권리를 존중하고, 사회적으로 공정하며 투명하게 이루어질 수 있도록 지침을 제시할 수 있다. 또한, 법적인 규제도 필요한데, 이를 통해 인공지능의 사용 범위와 제한을 명확히 하고, 개인정보 보호와 같은 중요한 문제를 다룬다.    

 

2. 투명성과 해석 가능성: 인공지능의 의사결정 과정과 동작 원리를 투명하게 만드는 것이다. 이를 통해 개발자와 사용자가 인공지능의 판단과 결정을 이해하고 검증할 수 있다. 또한, 인공지능의 결정이 해석 가능하도록 설계하는 연구와 기술 개발이 함께 진행되고 있다.     


3. 데이터의 품질과 다양성: 인공지능은 학습 데이터에 의존한다. 따라서 데이터의 품질과 다양성을 보장하는 것이 중요하다. 편향된 데이터나 차별적인 내용을 피하기 위해 데이터 수집과 처리 과정에서 주의가 필요하고 다양한 출처와 다양한 관점의 데이터를 활용하여 인공지능의 편견을 최소화하려고 노력중이다.     


4. 협력과 다학제적 접근: 인공지능 개발은 컴퓨터 과학뿐만 아니라 윤리학, 사회과학, 법학 등 다양한 분야의 전문가들이 협력하여 인공지능의 개발과 적용에 대한 다각도의 이해와 평가를 할 수 있도록 해야 한다.     


5. 인간 중심적 설계: 인공지능은 인간의 복지와 가치를 존중하는 방향으로 개발되어야 한다. 사용자의 요구와 필요에 우선 초점을 맞추고, 인공지능은 인간의 의사결정을 보조하고 개선하는 도구로서만 역할을 수행하도록 해야 한다.          




인공지능이 인간을 대체할 가능성은 어느 정도일까?     


1. 작업 수행 능력: 인공지능은 특정 작업 영역에서 인간보다 더 빠르고 정확하게 작업을 수행할 수 있다.      


2. 창의성과 감성:  예술, 문학, 음악 등의 분야에서는 인간의 창의성과 감성이 아직까지 특별한 가치를 가지고 있다. 인공지능은 데이터와 패턴을 기반으로 작업을 수행하는데 비해, 인간의 창의성과 감성은 예측 불가능하고 독자적인 특징을 지니기 때문에 아직까지 인공지능이 완전히 모방하기는 어렵다.     


3. 사회적 상호작용과 윤리적 판단: 인간은 사회적 상호작용과 윤리적 판단을 수행하는 능력을 지니고 있다. 인간은 다양한 상황에서 윤리적인 판단을 하고, 사회 규범과 윤리적 원칙을 준수하며 상호작용하는데 인공지능은 이러한 사회적 상호작용과 윤리적 판단을 완벽하게 대체하기 어렵다.     


따라서 현재로서는 인공지능이 인간을 완전히 대체하는 것은 어렵다.  그러나 미래에 대한 예측은 어려운 것이 기술의 발전과 함께 인공지능의 역할과 가능성이 계속해서 변화할 수 있기 때문이다.   

    

   

만약 인공지능이 인간을 대체한다면, 그로 인해 생기는 문제는 무엇일까?  

  

1. 취업과 경제적 영향: 인공지능의 발전으로 인해 일부 직업이 자동화되고 인간의 역할이 대체될 때 일부 산업 및 직업 분야에서 일자리 감소와 경제적 영향이 발생할 수 있다.

    

2. 사회적 문제와 불평등: 인공지능의 대체로 인해 사회적 불평등이 심화될 수 있다. 기술의 보급과 접근성이 부족한 지역이나 사회 계층은 이점을 얻지 못할 수 있으며, 디지털 격차가 형성될 수 있다.  이는 사회적 불안과 경제적 불평등을 야기할 수 있다.     


3. 윤리적 문제와 도덕적 고민: 인공지능의 의사결정 과정, 개인 정보 보호, 인간과의 상호작용 등 다양한 윤리적 문제가 제기될 수 있으며, 이를 해결하기 위한 규제와 준칙 마련이 필수적이다.     


4. 인간성과 정체성의 위협: 인간의 창의성, 감성, 사회적 상호작용 등은 인공지능으로 완전히 모방하기 어렵기 때문에, 이러한 측면들이 감소하거나 왜곡될 수 있다. 따라서 인간의 정체성과 가치를 유지하면서 인공지능과 함께 공존할 수 있는 방안을 모색해야 한다.          






이 모든 염려와 의구심에도 불구하고 현재 인공지능 개발은 점점 더 가속도가 붙어갈 것이다. 그 현황에 대해 알기위해 어제 신문기사 한 편을 가져와봤다. 


(실제 전문가들도 고개를 절레절레 흔들정도의 기술력이 가속화되어 만들어지고 있다 ㅠㅜ

지난 2 천년의 인류역사보다 지난 2 백년의 산업기술혁명이 우리 생활에 더 큰 변화를 가져왔다면 지난 20년의 컴퓨터와 인터넷기술 혁명이 가져온 변화가 더 클 것이고 이런 식이라면 향후 2년의 변화가 어쩌면 모든 지난 변화를 넘어설 수도 있지 않을까!!!)   


구글이 지피티-4 터보 보다 더욱 강력한 제미나이를 출시했다는 소식과 함께  빅테크 기업들의 초대형 인공지능 개발 경쟁이 치열하니 자본주의 비즈니스 경제의  실체를 보는 것 같다.  

    

구글은 “제미나이는 파일로만 인식이 가능한 지피티-4 터보와 달리 강력한 비전 인식을 갖춰 마치 눈 달린 사람과 실시간으로 대화하듯 사용할 수 있다”고 설명했다. 이는 텍스트 데이터만 학습한 기존 에이아이 모델과 다른 방식으로, 텍스트·코드·오디오·이미지·동영상 등 다양한 유형의 정보를 이해하고 상호작용할 수 있다는 게 가장 큰 특징이라고 한다.     

구글 최고경영자는 “제미나이는 지금까지 구글이 수행한 가장 큰 과학·공학적 결과물”이라고 말했다.


한편, 이번 구글 제미나이 출시로 빅테크 기업들의 초대형 인공지능 경쟁은 더욱 격화할 전망이다. 이날 오픈에이아이와 손잡은 엠에스는 검색과 멀티모달 기능을 강화한 ‘엠에스 코파일럿’ 업데이트판을 선보였다.

페이스북과 인스타그램을 운영하는 메타는 아이비엠(IBM)·인텔·에이엠디(AMD) 등 50여개 기업과 손잡고 인공지능 개발 연합체 ‘에이아이 얼라이언스’를 출범했다. 이날 에이아이 얼라이언스는 “개방적이고 안전하며 책임감 있는 에이아이 발전을 위해 글로벌 커뮤니티를 출범한다”고 밝혔다. 한계레 박지영 기자 (2023-12-07 14:45)     



아래는 이제 앵커없이도 뉴스를 진행할 수 있는 인공지능 가상 엥커에 관한 영상과 글이다.       

   

AI 인간’이 진행하는 뉴스…앵커 없이도, 누구나 만들 수 있다


케이티(KT)가 이번달 공개한 ‘AI 휴먼 스튜디오’를 통해 인공지능 가상 인간을 만들어 뉴스를 진행하는 영상을 뚝딱 만들었다. 6개의 가상 외모와 110개의 목소리를 통해 만들어진 가상 인간들은 모든 이가 아나운서의 고용 없이 영상을 만들 수 있도록 해준다. ▶영상보기   https://aihumanstudio.ai/result/2023_11_23_22_31_05_5198378219980606.mp4     


 ‘가상 한겨레 임지선 기자’를 만든다는 생각으로 ‘인공지능 앵커’를 제작했다 앵커 배경 사진을 삽입하고 뉴스 진행자를 고용하지 않고도 3분 만에 뚝딱 33초짜리 뉴스 영상이 완성됐다.     

케이티(KT)가 아예 사람의 형체와 목소리를 가진 ‘가상 인간’을 쉽게 만들 수 있는 대중 플랫폼을 연 것이다.    

케이티는기업 고객용 ‘맞춤형 인공지능 인간’ 제작에도 나선다.  

“실제 인간으로 인공지능 인간(AI Human)을 제작할 경우에는 일부러 절차를 복잡하게 하는 등 안전성 확보를 위한 노력을 하고 있다”고 밝혔다.  한계레 임지선 기자 2023-11-27 02:36     






맞춤형 인공지능 인간이 제작되면 우리 사회는 어떻게 달라질까?


맞춤형 인공지능 인간은
개인의 취향, 선호도, 요구사항을 이해하고
이를 반영한 개인의 요구에 맞는 맞춤형 서비스를 제공할 수 있을 것이다.
 예를 들어, 개인의 건강 관리, 학습, 엔터테인먼트 등의 영역에서
맞춤형 지원을 해 줄 것이다.
뿐만 아니라 개인의 업무에 최적화된 지원을 제공받음으로서
업무의 자동화, 데이터 분석 및 의사결정 지원,
작업의 자동화 등을 통해 업무 생산성이 향상될 수 있을 것이다.
 
이는 시간과 비용을 절감하고, 더 효율적인 업무 수행을 가능하게 할것이다.



자본주의 사회에서 시간과 비용의 효율성은 사람들이 언제나 맨 먼저 고려하는 것이다.


그러나 편리와 효율성을 넘어서 여전히 개인 정보 보호나 개인의 자유와 자결권, 사용과 통제에 대한 고민이 있어야 할 것이고 이에 대한 법적인 규제와 책임소재에 대한 윤리적인 가이드라인이 마련되어야 할 것이다. 


책임을 물어야한다는 원론은 있지만 정작 누가 누구에게 책임을 물어야하는 지의 각론과 세부사항은 여전히 모호한 것 같다.

 

예를 들어 대표적 약 인공지능의 케이스인 자율주행 자동차가 사고 를 낸 경우 사고의 책임은 이를 구입한 운전자에게 있나? 차를 출시한 자동차 회사에 있나? 아니면 차에 적용된 인공지능 프로그램을 만든 개발자에게 있나?. 

인공지능 의사가 내린 결정에 따라 수술을 받고  오류가 있어서 심각한 신체의 손상을 입었다면 이러한 경우 사고의 책임은 누구에게 있는 것일까? 인공지능에게 있을까? 아니면 그러한 인공지능 프로그램을 개발한 개발자에게 책임이 있을까? 아니면 인공지능이 내린 판단의 오류를 점검하지 못한 인간 의사에게 있을까? 아니면 안공지능의 말을 전적으로 신뢰하고 수술을 감행한 환자에게도 그 책임이 있을지 아니면 이러한 인공지능의 불확실성을 알고도 인공지능을 도입한 병원장에게 그 책임이 있을지?


인공지능이 발달하면 발달할수록 기계의 자율성이 점점 커지게 될 것이고 인간에게만 책임을 묻기 어려운 상황이 온다고 본다. 따라서 유럽연합에서는 '인공지능은 인격체인가', '인공지능에게도 법적 책임을 부여해야 하는가'와 같은 원론적 질문을 하며 답을 찾아가고 있다.

브런치는 최신 브라우저에 최적화 되어있습니다. IE chrome safari