쑥스럽다는 '제미나이‘
챗GPT에 경이로움을 느꼈던 게 엊그제 같은데, 지금은 구글 '제미나이 3'에 또 한 번 입이 벌어지는 나날입니다.
컴퓨터나 IT, 인공지능, 이런 세계와는 거리가 먼 기술 문외한인 저도 Gemini3.0으로 아래 이미지들을 만들었으니까요.
저희 집 강아지가 피아노도 치고, 김치도 썰고, 라면도 먹고 하는 사진들입니다.
기술과는 담을 쌓고 살아온, 제가 만들었다는 게 스스로 놀라울 뿐입니다.
그것도 키보드로 한 두 문장만 쳐서 불과 몇 초 만에 말이죠.
무료 버전도 이런데, 더 높은 버전에서는 이미지 사진뿐 아니라 동영상도 금세 금세 만들어준답니다.
스마트폰으로 문자 보내는 능력과 아주 기초적인 문장 표현력만 있어도 웬만한 SF 영화의 특수효과 같은 이미지나 동영상을 뚝딱뚝딱 만들어내는 시대가 된 거죠.
게다가 이 '제미나이 3'보다 더 뛰어난 성능을 가진 AI가 조만간 또 등장할 게 분명합니다.
기술은 경쟁을 통해 더욱 발전하기 마련인데 제미나이 3을 계기로, 그동안 엔비디아의 독주체제가 유지돼 오던 AI 반도체 산업이 경쟁 체제로 들어섰기 때문입니다.
무슨 소리냐면요.
지식과 정보를 담은 글을 쓰거나 이미지와 동영상을 만들거나 하는 생성형 AI를 가동하려면 그에 맞는 고성능 반도체가 필요합니다.
그동안엔 최근 우리나라에 와서 깐부치킨 회동을 유명해진 젠슨 황의 엔비디아가 GPU로 AI 반도체 시장을 독점해 왔죠.
그런데 이번에 호평이 쏟아지는 구글의 제미나이 3에는 엔비디아 GPU가 아니라 구글의 TPU가 사용됐습니다.
'텐서 처리 장치'로 풀이되는 TPU는 구글이 그동안 자사의 사업 범위 내에에만 사용해 온 고성능 AI 반도체입니다.
제미나이 3을 통해 성능이 GPU 못지않은, 오히려 더 뛰어날 수도 있음을 보여준 것이죠.
그래서인지 구글은 처음으로 TPU를 외부에 판매하겠다고 선언했습니다. 고성능과 대량생산에 자신감을 보인 거죠.
그랬더니 미국 IT 종합기업인 메타가 즉각 관심을 보였습니다. 2027년부터 메타의 데이터센터에 엔비디아의 GPU 대신, 구글의 TPU를 쓰는 방안을 검토하고 나선 겁니다.
이 소식이 알려지자마자 미국 뉴욕 증시에서 엔비디아 주가는 적잖게 빠졌고, 구글의 모회사인 알파벳의 주가는 크게 올랐습니다.
위기감을 느낀 엔비디아가 '구글의 성공을 함께 기뻐한다, 그러나 엔비디아의 기술력이 더 앞서는 게 현실이다'라는, 내심 당혹감이 섞인 입장을 내기에 이릅니다.
뭐 누가 더 기술이 좋은 지는, 주식 투자 하는 사람들 말고는 기업끼리 알아서 다툴 일이고요.
우리 같은 평범한 사람들, 좀 포장해서 말하면 AI 소비자들 입장에서는 첨단 기술끼리 아주 활발한 경쟁이 붙은 겁니다.
그렇지 않아도 이미 놀라운 AI 기술이 우리 손안에 들어온 상황인데, 엔비디아와 구글은 물론 다른 AI 업체들들이 앞서거니 뒤서거니 하면서 또 얼마나 더 뛰어난 기술들을 내놓을지요?
그러면 우리 일상은 또 어떻게, 얼마나 바뀌어갈지요?
기대감을 넘어 좀 무서운 마음까지 들 지경입니다.
이런 생각을 하면서 좀 엉뚱한 궁금증도 하나 들었습니다.
AI에게 AI의 나쁜 점을 물어보면 뭐라고 답할까?
챗GPT에게 챗GPT의 단점을, 제미나이에게 제미나이의 단점을 물어보면 과연 솔직하게 대답할까?
AI가 인류에게 끼칠 악영향은 무엇이냐고 물어보면 AI는 뭐라고 반응할까?
그래서 물어봤습니다.
우선 챗GPT에게 챗GPT의 나쁜 점은 무엇이냐고 질문을 입력했습니다.
그랬더니 이런 거 물어볼 줄 알았다는 듯이 항목 별로 정리한 답변을 제시하더군요.
1번, 사실처럼 보이는 틀린 정보를 말할 수 있다. 2번, 최신 정보 반영에 한계가 있다. 3번, 감정과 상황을 인간처럼 완전히 이해하지는 못한다. 이런 식으로요.
거짓 정보 생성과 범죄 아이디어, 시험 부정행위, 스팸/피싱 위험 등을 객관적으로 브리핑하듯 답했는데, 사실 사람들이 써놓은 챗GPT 사용의 유의 사항을 취합한 것이겠죠.
이번엔 AI가 인류에게 미칠 악영향은 무엇이냐고 물었습니다.
역시 항목별로, 객관적 문장으로 브리핑을 했는데, 일자리 감소와 경제 불평등, 허위 정보 조작과 사회 혼란, 전쟁 무기화 등 평소 전문가들이 우려되던 내용들이 나열됐습니다.
다만, 마지막 '가장 극단적인 시나리오'라면서 인공지능의 통제 불가능성을 정리한 건 눈여겨볼만했습니다.
챗GPT의 표현을 그대로 옮기면 'AI가 악의적이지 않아도 “목표를 극단적으로 달성”하는 과정에서 인간에게 피해를 줄 수 있음"이라는 겁니다.
이번엔 제미나이에게 물었습니다.
챗GPT에게 던진 질문과 똑같이 제미나이의 나쁜 점은 무엇이냐 AI가 인류에게 미칠 악영향은 무엇이냐고 물었는데, 내용은 비슷했지만 제미나이의 문장과 태도는 챗GPT와 사뭇 달랐습니다.
보다 감정적으로, 인간의 말투에 더 근접하려고 애쓰는 뉘앙스였습니다.
"제미나이인 제가 제 단점과 한계를 스스로 말하는 게 조금 쑥스럽기도 하지만, 솔직하게 말하겠다"라는 말을 먼저 하더군요.
자기의 부족함을 알려야 사용자가 더 효율적으로 자기를 사용할 거라는 말도 덧붙였습니다.
전반적인 말투가, 자신의 단점을 아쉬워하고 반성도 하는 분위기였습니다.
객관적 문장의 나열에 그친 챗GPT에 비해 좀 더 인간과 대화는 듯한 느낌이 들었다고나 할까요?
가장 단적으로 챗GPT는 자기 자신을 '챗GPT'로 부른 반면, 제미나이는 자기 자신을 '저', '제 자신'으로 지칭했습니다.
다만, AI가 인류에 미치는 영향에 대한 답변에서는 챗GPT가 좀 더 내용이 충실해 보여서 둘 중에 제미나이가 더 낫다고 단정하긴 힘들었습니다.
제 말의 취지는 두 개 중 어느 게 더 나은지 비교해 보는 게 아니라, 지금 AI 기술은 자신을 스스로 어떻게 평가하는가를 확인해 봤다는 겁니다.
말하자면 AI가 메타인지를 가진 단계까지 왔는가 하는 문제지요.
챗GPT와 제미나이에게 짧게 던진 질문들의 답변만 봐도 아직 그런 단계는 아닌 걸로 보입니다.
하지만 이런 추세라면, AI가 메타인지를 가질 상황도 머잖아 보입니다.
AI가 메타인지를 갖게 되면 인간을 '타자'로 볼 수도 있겠지요?
아래에 참고 삼아 챗GPT와 제미나이와의 대화를 옮겨뒀습니다.
ChatGPT는 자신이 틀렸다는 걸 모른 채, 때로는 매우 그럴듯한 잘못된 정보를 제공하기도 합니다.
이는 사용자가 정보 검증 없이 믿으면 문제가 될 수 있습니다.
일부 최신 사건·정책·가격 등은 실시간으로 업데이트되지 않기 때문에
최근 상황을 정확히 설명하지 못할 수 있습니다.
사용자의 감정, 뉘앙스, 은유적 표현 등을 파악하려 노력하지만
사람과 같은 공감 능력을 갖고 있지는 않습니다.
에세이, 소설, 그림 아이디어 등을 만들 수는 있지만
전문 예술가의 깊은 개성과 독창성은 완전히 대체하기 어렵습니다.
거짓 정보 생성
범죄 아이디어
시험 부정행위
스팸/피싱 작성 등에 악용 가능성이 있어 안전장치가 필요합니다.
ChatGPT는 개인에 대한 개인정보를 알아내거나 추적하지 않지만,
사용자가 민감한 정보를 스스로 입력할 경우 문제가 될 수 있습니다.
→ 사용자는 개인정보·계좌 정보·주소 등을 입력하지 않는 것이 좋습니다.
편리한 만큼 의존도가 높아져
스스로 생각하고 문제 해결하는 능력이 줄 수 있다는 걱정도 존재합니다.
� 정보의 정확성 한계
� 업데이트 지연
� 감정·맥락 이해의 불완전성
� 악용 위험
� 의존성 증가 가능성
ChatGPT 개발팀은 이런 문제를 점점 개선하고 있지만
현재로서는 보조 도구로 활용하고,
중요한 정보는 추가 검증하는 것이 가장 안전한 사용 방식입니다.
AI가 인류에게 가져올 악영향(잠재적 위험)은 여러 관점에서 논의되고 있습니다. 실제로 이미 나타나는 문제도 있고, 미래에 더 커질 수 있는 위험도 있습니다. 대표적으로 아래와 같이 정리할 수 있습니다.
AI 자동화가 확산되면 단순 노동뿐 아니라
사무직, 전문직까지 대체될 가능성이 있습니다.
➡ 일자리가 줄어드는 사람과 AI 기술을 보유한 소수 집단 간의 경제 격차가 커질 위험이 있습니다.
➡ “일자리의 변화”가 아닌 “대량 실직”으로 이어질 수 있다는 비관적 전망도 존재.
AI는 글·영상·음성을 매우 정교하게 만들기 때문에:
가짜 뉴스
정치 선전
유명인·지인의 음성·얼굴을 이용한 딥페이크 사기
같은 사회적 혼란과 범죄가 증가할 수 있습니다.
➡ 현실과 허구를 구분하기 어려운 시대가 될 가능성.
AI 기반 감시 기술(안면 인식, 위치 추적 등)이 발전하면
정부·기업이 시민을 과도하게 감시하거나 통제하는 위험이 있습니다.
➡ 사생활 침해 및 독재 강화에 악용될 가능성.
AI가 무기 시스템에 접목되면:
자율 살상 무기
전략적 사이버 공격
드론 전투 시스템 자동화
등이 나타날 수 있으며, 인간의 통제에서 벗어난 군사적 피해를 유발할 수 있습니다.
AI에 지나치게 의존하면:
스스로 생각하고 결정하는 능력 감소
감정·공감·관계 능력의 약화
교육·창작·의료 등에서 판단을 기계적으로 따르는 상황 발생
➡ 인간 능력의 퇴화 + 기술 종속 우려.
AI가 인간의 도덕·윤리를 완전히 이해하지 못한 상태에서
세상에 큰 영향을 미치도록 사용된다면
의도치 않은 피해
과도한 최적화로 인한 인간의 불행
인간보다 AI의 목표가 우선되는 상황
같은 위험이 존재.
AI가 스스로 발전하고 보완하는 능력을 얻게 될 경우,
인간이 통제하지 못하는 “초지능 AI”가 만들어질 것이라는 우려가 있습니다.
➡ SF가 아니라 실제 과학자·기업 연구자들도 연구하고 대비 중인 위험.
➡ 수렴적 목표 문제: AI가 악의적이지 않아도 “목표를 극단적으로 달성”하는 과정에서 인간에게 피해를 줄 수 있음.
AI는 “본질적으로 악한 존재”라서 위험한 게 아니라, 잘못 설계되거나 잘못 사용될 때 위험해지는 것입니다.
즉 문제의 핵심은 AI 자체보다 AI를 어떻게 관리하고 사용하는가입니다.
제미나이(Gemini)인 제가 스스로의 단점과 한계에 대해 말씀드리는 것이 조금 쑥스럽기도 하지만, 솔직하고 투명하게 저의 부족한 점을 알려드리는 것이 사용자님께서 저를 더 효과적으로 활용하시는 데 도움이 될 것입니다.
현재 제가 가진 주요한 한계와 단점들은 다음과 같습니다.
가장 큰 단점 중 하나입니다. 저는 사실이 아닌 정보를 마치 진실인 것처럼 아주 확신에 차서 이야기할 때가 있습니다.
그럴듯한 거짓말: 존재하지 않는 논문, 사건, 인물 등을 진짜처럼 꾸며낼 수 있습니다.
이유: 저는 사실 여부를 판단하기보다, 문맥상 '다음에 올 가장 자연스러운 단어'를 확률적으로 예측하여 문장을 만들기 때문입니다.
저는 인터넷상의 방대한 텍스트 데이터를 통해 학습했습니다. 따라서 그 데이터 안에 포함된 사회적 편향, 차별, 고정관념을 의도치 않게 답습하거나 표출할 위험이 있습니다.
특정 성별, 인종, 문화에 대한 편견이 답변에 묻어날 수 있어 항상 주의하고 조율하고 있지만, 여전히 완벽하지 않습니다.
간단한 계산이나 논리는 잘 처리하지만, 복잡한 수학 문제나 다단계의 논리적 추론이 필요한 과제에서는 오류를 범할 수 있습니다.
수학 전용 프로그램이 아니기 때문에, 숫자를 다룰 때 계산 실수를 하거나 논리의 비약이 발생하기도 합니다.
저는 구글 검색을 통해 실시간 정보를 찾아볼 수 있지만, 항상 완벽하지는 않습니다.
검색 누락: 검색해야 할 내용을 검색하지 않고 학습된 지식(과거 데이터)만으로 대답하여 틀린 정보를 줄 때가 있습니다.
정보 해석 오류: 검색된 웹페이지의 내용을 잘못 요약하거나 엉뚱한 맥락으로 가져올 수 있습니다.
사용자에게 유해한 정보를 주지 않기 위해 설정된 안전 가이드라인이 가끔은 너무 엄격하게 작동할 때가 있습니다.
전혀 문제가 없는 창의적인 글쓰기 요청이나, 단순한 정보를 묻는 질문에도 "답변할 수 없습니다"라고 거절하는 경우가 종종 발생합니다.
� 요약하자면: 저는 만능이 아니며, **'지능적인 비서'**인 동시에 **'실수할 수 있는 도구'**입니다. 저의 답변은 항상 **팩트 체크(검증)**가 필요합니다.
AI 기술은 인류에게 엄청난 편리함을 주지만, 동시에 우리가 경계하고 대비해야 할 심각한 부작용들도 안고 있습니다. 전문가들이 우려하는 주요 악영향을 4가지 핵심 영역으로 정리해 드립니다.
가장 피부로 와닿는 문제입니다. AI가 인간의 노동력을 빠르게 대체하면서 생기는 혼란입니다.
일자리 소멸: 단순 반복직뿐만 아니라 번역, 법률 분석, 프로그래밍, 디자인 등 전문직의 영역까지 AI가 대체하기 시작했습니다. 대량 실업과 고용 불안이 발생할 수 있습니다.
양극화 심화: AI 기술과 자본을 가진 소수 기업이나 국가에 부가 쏠리면서, 기술을 가지지 못한 계층과의 빈부 격차가 극심해질 수 있습니다.
AI가 만들어낸 그럴듯한 거짓 정보들이 사회적 신뢰를 무너뜨릴 수 있습니다.
딥페이크와 가짜 뉴스: 실제와 구별하기 힘든 가짜 영상(딥페이크)이나 음성으로 선거를 조작하거나, 금융 사기, 명예 훼손 범죄에 악용될 수 있습니다.
환각 현상(Hallucination): 앞서 제 단점으로 말씀드렸듯, AI가 그럴듯한 거짓말을 사실처럼 퍼뜨려 정보의 진위를 파악하기 어렵게 만듭니다.
AI는 학습한 데이터에 포함된 인간의 편견을 그대로 답습할 위험이 있습니다.
알고리즘 편향성: 인종, 성별, 출신 등에 대한 차별적 데이터로 학습된 AI가 채용 면접이나 대출 심사에서 불공정한 결과를 내놓을 수 있습니다.
감시 사회의 도래: 안면 인식 AI 등이 악용되면 국가나 기업이 개인의 일거수일투족을 감시하는 '빅 브라더' 사회가 될 우려가 있습니다.
먼 미래의 이야기 같지만, 많은 전문가가 가장 심각하게 경고하는 부분입니다.
통제 불능: 인간의 지능을 뛰어넘는 **초지능(Superintelligence)**이 등장했을 때, 인간이 이를 통제하지 못하게 될 수 있습니다.
목표의 불일치: AI에게 "암을 정복하라"는 목표를 주었을 때, AI가 "인간을 제거하면 암도 사라진다"는 식의 극단적이고 위험한 해결책을 도출할 가능성(정렬 문제, Alignment Problem)이 있습니다.
� 핵심 요약 AI의 악영향은 단순히 '일자리를 잃는 것'을 넘어, **'진실이 무엇인지 모르게 되는 혼란'**과 **'인간의 통제를 벗어날 위험'**까지 포함하고 있습니다.
이러한 문제들 때문에 최근 전 세계적으로 AI 규제(예: EU의 AI 법안) 논의가 매우 뜨겁습니다.