기술의 두 얼굴
기술은 언제나 두 얼굴을 갖고 있습니다.
예컨대 지금은 핸드폰 없이는 단 하루도 못 사는 시대가 되었죠.
폰으로 쇼핑도, 결제도, 정보검색도, 은행업무도...
모든 걸 다 하니까요
하지만 핸드폰이 우리에게 편리함만 가져다 주었을까요?
“엄마랑 아빠랑 같이 있는데, 나는 자꾸 혼자 있는 기분이에요.”
얼마 전 만났던 제 지인의 아들이 한 말인데요.
그 아이의 말에서 핸드폰이 편리함뿐 아니라,
인간관계의 단절도 가져왔다는 게 느껴지더군요
또한 SNS 중독,
가짜 정보에 대한 피로,
불면증,
집중력 저하 같은 문제도 점점 커지고 있는데요.
AI도 두 얼굴을 가지고 있어요.
로봇청소기로 가사노동 시간이 줄고,
AI 챗봇은 고객 응대를 빠르게 하고,
번역기로 전 세계 사람들과 소통이 가능해져서
정말 편리한 세상이 되었죠.
앞으로도 기술은 우리가 예상치 못할 만큼 빠르게 발전할 겁니다.
하지만 AI가 우리를 일자리에서 밀어내고,
머지않아 인간보다 더 똑똑한 AI가 나오면,
세상이 편리해지기만 할지,
우려의 목소리도 커지고 있습니다.
AI에는 두 종류가 있습니다.
하나는 현재 우리가 사용하고 있는 약한 AI(Weak AI)
다른 하나는 약한 AI보다 한 단계 진화된 강한 AI(Strong AI)
우리가 지금까지 사용해 온 AI는 ‘약한 AI’입니다.
‘약한 AI’는 특정 작업만 잘 수행합니다.
알파고는 바둑만 잘 두고, 다른 작업은 전혀 못하죠.
‘약한 AI'는 스스로 생각하는 추론 능력이나 자기 인식 능력은 없습니다.
하지만 머지않아, ‘강한 AI (AGI: Artificial General Intelligence)’가 등장하면
세상은 또 달라집니다.(2030년 전후로 예상)
한 가지만 잘하는 약한 AI와 달리,
강한 AI는 의학, 철학, 요리, 음악, 과학 등
여러 분야를 잘 처리하는 멀티플레이어라고 보면 됩니다.
인간처럼 스스로 생각하고,
배우고,
전이학습을 통해 다양한 분야를 넘나들며,
문제를 해결할 수 있다는 거죠.
GPT-4, Gemini 1.5, Claude 3 같은 모델들이
점점 AGI 수준에 가까워지고 있다는 평가가 있는데요.
다만 아직은 전이학습과 맥락 이해에서 완전한 AGI는 아닙니다.
1) 초지능:모든 면에서 인간을 능가하는 신적 존재의 탄생
에릭 슈미트(Eric Schmidt), 전 구글 CEO는 말합니다.
“앞으로 AGI(Artificial General Intelligence)를 넘어,
ASI(초지능, Artificial Super Intelligence)가 등장할 것이다.”(2040년경 예측)
AGI가 당신이 시키는 일에 대해 배우고 스스로 학습하는 유능한 조수와 같다면,
ASI(초지능)은 당신의 모든 질문에 즉시 답하고,
당신보다 몇백 배 빨리 판단하며,
미래까지 예측하는 신적 존재입니다.
당신이 10년 연구할 것을 1초 만에 해결하고,
수백만 개의 유전자 조합을 실시간 분석해 암 치료법을 개발할 수도 있습니다.
모든 면(지능, 창의성, 사회적 지능, 감정 이해 등)에서 인간을 능가하는 AI라고 할 수 있죠.
초지능은 단순한 기술이 아닙니다.
인류 역사상 처음으로,
인간보다 더 똑똑한 존재가 지구상에 등장한 것이니까요.
지금도 실리콘밸리와 전 세계 연구소에서
초지능(ASI)의 실현을 향해 달려가고 있는 것이 우리의 현실입니다.
물리학자이자 AI 연구자인 맥스 태그마크(Max Tegmark)는
그의 저서 『라이프 3.0』에서 이렇게 경고합니다.
“우리가 통제할 수 없는 존재를 만든다면, 그 존재는 과연 우리를 어떻게 대할 것인가?”
그의 말처럼 우리가 초지능을 통제하지 못한다면?
많은 AI 전문가들은 기계가 인간보다 더 똑똑해지는 특이점이 오면
기계가 세상을 지배하게 될 거라고 경고합니다
영화 터미네이터나 매트릭스가 우리의 현실이 된다면?
생각만 해도 정말 끔찍하네요!
또한 ASI가 등장하면,
지금보다 수십, 수백 배의 전력을 요구하게 될 것입니다.
이 같은 전력난은 전쟁보다 무서운 인류의 새로운 위기가 될 지도 모릅니다
인류의 생존 조건 전체를 바꾸는 흐름이라는 점을 놓치지 말아야 합니다.
2) 특이점 (Singularity) :AI가 인간의 지능을 완전히 뛰어넘고, 인간과 기계의 경계가 모호해지는 시점
구글 엔지니어, 레이 커즈와일(Ray Kurzweil)은
2045년을 기점으로
특이점:싱귤래리티(Singularity)가 올 거라고 예측했습니다.
그는 1980~2010년대 기술 과학 분야에 대한 자신의 예측 중
약 86%가 실제로 이루어졌다고 주장합니다.
(출처: KurzweilAI.net 및 MIT 테크 리뷰 인터뷰)
MIT, 포브스( Forbes) 등에서는 레이 커즈와일을
"가장 신뢰할 만한 기술분야의 예언자 중 한 명"으로 평가합니다.
그에 따르면, 분자 크기의 나노봇을 우리 뇌에 심은 다음 클라우드에 연결하면,
우리의 지능이 10억 배로 증폭됩니다.
이 시점이 바로 특이점(Singularity)인데요.
실제로 파킨슨병 환자들의 뇌에 컴퓨터를 이식한 것과 같은 이치이죠.
이 특이점이 현실로 다가오면 무슨 일이 벌어질까요?
한마디로 고도로 발달된 AI 로봇과 인간을 구별할 수 없게 된다는 거죠.
또한 암, 심장마비 같은 질병도 치료 가능해지고,
노화도 되돌릴 수 있다고 합니다.
물론 이 사이버네틱 사회를 환상에 가깝다고 생각하는 사람들도 있습니다.
스티븐 호킹, 일론 머스크, 심지어 빌 게이츠까지도,
기계가 인간보다 더 똑똑해지는 특이점이 오면,
기계가 세상을 지배하게 될 거라고 경고합니다
반면, 레이 커즈와일은 특이점이 오면,
인간과 기계가 합성된,
더 발전된 미래가 올 거라고 믿는 낙관론자인데요.
특이점까지 살기 위해, 현재 76세인 레이 커즈와일은
매일 80알이 넘는 영양제를 먹고 있다고 합니다.
캐빈 켈리 (Kevin Kelly, Wired 공동 창업자)는
특이점에 대해 다음과 같이 말합니다.
"지난 백만 년 동안의 모든 변화가 다음 5분 안에 일어날 변화로 대체될 것이다."
초지능과 특이점은 양 날의 검과 같습니다.
인류역사상 가장 클라이맥스에 오른 최첨단 기술의 도래뿐 아니라,
한편으로는 기계가 인간을 지배할지도 모르는,
지옥 같은 시나리오가 펼쳐질 수도 있기 때문입니다.
더 무서운 가능성은,
이 강력한 AI가 ‘살상 무기’로 사용될 수 있다는 점입니다.
문제는, 이 AI가 누구의 손에 쥐어질지 모른다는 점입니다.
북한이나 테러 단체, 사이버 범죄 집단이
AI를 무기로 삼는다면,
그것은 단순한 기술 문제가 아닌
인류 전체에게 생존의 위기가 될 것입니다.
이미 군사 분야에서는 AI 드론, 무인 전투 로봇, 자율 공격 시스템이 개발되고 있고,
일부는 실전에서 사용되고 있는 중입니다.
총보다 무서운 무기가, 알고리즘에 의해 작동되는 세상이 되었습니다.
일론 머스크는 AI가 ‘살상 무기’로 사용될 수 있다는 점에 대해 다음과 같이 말했습니다.
"자신의 목표를 가지고, 스스로를 개선할 수 있는 매우 지능적인 AI를 만든다면,
그것은 인류를 파괴할 것이다."
"AI는 핵무기보다 더 위험할 수 있으니 매우 조심해야 한다."
머스크가 경고한 대로,
만약, AI가 사이버전·드론 전·전력 마비 공격에 투입된다면,
그 피해는 단순한 재난을 넘어서,
인류 문명 자체의 붕괴로 이어질 수 있습니다.
이런 상황을 막기 위해 UN과 여러 국제기구들은
‘AI 무기 금지 조약’을 논의하고 있지만,
기술은 규제보다 더 빠르게 움직이고 있습니다.
다양한 국가와 기관에서 AI 개발 및 활용 시 지켜야 할 윤리 원칙을 제안하고 있습니다.
1) EU의 ‘신뢰할 수 있는 AI(Trustworthy AI)’ 원칙 (2019)
인간 중심성: 인간의 자율성과 통제를 보장할 것
공정성: 차별과 편향을 방지할 것
설명 가능성: AI의 작동 원리를 설명 가능하게 만들 것
책임성 : 잘못된 결과에 대해 책임 소재를 명확히 할 것
프라이버시 보호: 개인 데이터를 안전하게 보호할 것
2) OECD AI 원칙 (2019)
AI는 사람의 웰빙과 지속 가능한 발전에 기여해야 함
AI 시스템은 투명하고 설명 가능해야 하며, 책임 있는 관리가 이루어져야 함
기술은 법적, 윤리적, 사회적 기준을 준수해야 함
3) 유네스코(UNESCO) 인공지능 윤리 권고안 (2021)
모든 AI는 인권 존중을 기반으로 설계되어야 하며
문화적 다양성, 지속 가능성, 성평등, 사회 참여 등 포괄적 가치를 강조함
이러한 윤리 기준은 단순히 도덕적 당위를 넘어서,
실제로 AI 신뢰성과 지속 가능성을
확보하는 핵심 열쇠입니다.
앞으로 모든 AI 프로젝트는 "얼마나 잘 작동하는가"뿐 아니라,
"얼마나 공정하고 안전한가"가 주요 평가 기준이 될 것입니다.
일론 머스크가 지적했듯이,
이러한 변화가 긍정적으로 이어지도록 하는 것은
우리 사회의 책임입니다.
책임감 있고 윤리적인 AI 개발을 위해 함께 노력한다면,
AI의 힘을 활용하여 우리 모두를 위한 더 밝은 미래를 만들어갈 수 있습니다.
기술은 결코 악하지 않습니다.
다만, 우리가 그것을 어떻게 사용할지,
그리고 그 기술로부터 우리 자신을 어떻게 지켜낼지에 대한
깊은 성찰이 필요한 시점에 우리는 서 있습니다.
머지않아 초지능 ASI가 등장한다면?
AI가 우리보다 더 빠르게 생각하고,
더 창의적으로 글을 쓰며,
더 논리적으로 판단할 수 있다면…
우리는 결국 이 질문 앞에 서게 됩니다.
“그렇다면 나는 왜 존재하는 걸까?”
이것은 단지 ‘직업’을 잃는 문제가 아닙니다.
존재의 의미,
인간의 본질에 대한 질문입니다.
유발 하라리 (Yuval Noah Harari)는
그의 저서 『21세기를 위한 21가지 제언』에서
다음과 같이 말했습니다.
“우리가 AI에 너무 치중하고 인간 의식 개발을 등한시하면,
고도로 지능적인 알고리즘(AI)이 인간의 어리석음을 도구로 사용할 수 있다.”
이는 AI의 엄청난 발전 앞에서 인간 정체성을 잃지 않아야 한다는 경고입니다.
우리가 스스로에 대한 성찰과 자기 통합에 투자하지 않으면,
AI는 우리의 감정, 편견, 심지어 실수까지도 ‘데이터’로 수집해서,
우리의 행동을 조정(調整)하고 조작할 위험이 있다는 것입니다.
이처럼 하라리는 AI를 단순한 도구로서 이용하는 데 그치지 말고,
인간의 내면세계를 함께 개발해야 한다고 촉구합니다.
우리가 스스로의 존재에 대한 인식을 놓치지 않을 때,
AI는 뛰어난 파트너로서의 기능을 할 수 있지만,
그렇지 못하면,
인간은 ‘AI에게 통제당하는 존재’로 전락할 수도 있다는 메시지를 전합니다.
이 글은 계속해서 AI 시대,
인간의 진정한 '본질'을 찾기 위한 여정으로 이어집니다.
우리 함께 그 길을 걸어가 볼까요?
출처:
<https://link.springer.com/chapter/10.1007/978-3-030-62359-3_10>
evolutionnews.org +4futurism.com+4thekurzweillibrary.com+4
<https://futurism.com/kurzweil-claims-that-the-singularity-will-happen-by-2045?utm_source=chatgpt.com>
themindfulword.orgen.wikipedia.org +4futuristspeaker.com+4link.springer.com+4