AI는 아인슈타인 상대성 원리에 위반되고 인간 고유의 직관에 위반됩니다.
인공지능 AI가 최근 모든 문제를 효율적으로 자동화해서 인간의 고민과 번거로움을 해결할 수 있는 인류의 구세주와 같은 칭찬을 받고 있습니다.
과연 인공지능 AI는 인류의 구세주로서 우리 인간의 고민을 제거하고 이상 사회인 유토피아(Utopia)를 열 수 있을까요?
인공지능 AI로 인해서 더 이상 인간이 고민을 하지 않아도 되고 인공지능 AI가 시키는 대로만 하면 되는 사회가 된다면 우리 인류는 더할 나위 없이 좋을 것입니다.
그렇지만, 아래와 같이 인공지능 AI는 근본적으로 아인슈타인의 상대성 이론에도 위반된다고 볼 수 있습니다.
즉, 인공지능 AI는 아인슈타인의 상대성 이론에 위반된다고 볼 수 있어서 인공지능 AI가 내놓는 생성물을 하나의 SAMPLE 내지는 참고자료로만 사용해야 하고, 인공지능 AI가 내놓은 생성물 또는 결과물이 완벽히 따라야 할 정답은 아니라는 것입니다.
아인슈타인의 상대성 이론은 우주의 근본 원리를 관통하는 이론입니다.
우주의 근본 원리에 관한 아인슈타인의 상대성 이론을 인공지능 AI가 위반하는 것이라고 보는 경우 인공지능 AI의 신뢰성은 여지없이 크게 낮아질 것입니다.
인공지능 AI는 인간의 뇌에 있는 신경망의 흐름을 활용해서 데이터들을 분류하고 가중치를 업데이트하는 방법을 사용해서 오차를 줄여나가는 알고리즘을 사용합니다.
최근에는 역전파 알고리즘(backpropagation algrithm)이라는 알고리즘의 등장으로 깊은 층의 신경망에서 가중치를 효과적으로 업데이트하는 기능이 활용되어 획기적으로 인공지능 AI의 효율성이 높아졌다고 볼 수 있습니다.
즉, 인공지능 AI가 사용하는 역전파 알고리즘은 오차를 줄이기 위해서 신경망을 모방한 뉴런에 대해 계산을 반복해서 뉴런이 마땅히 보유해야 하는 가장 적절한 가중치의 값을 구하기 위한 알고리즘입니다.
아인슈타인의 상대성 이론 중의 하나가 시간 지연이라는 것입니다. 어떤 물체가 빠른 속도로 움직이는 경우 그 물체에 타고 있는 탑승자에게는 시간이 느리게 흐른다는 것이 상대성 이론 중의 시간 지연이라는 것입니다. 극도로 빠르게 움직이는 물체에 탑승한 탑승자에게는 시간이 매우 느리게 흐르게 된다는 것입니다.
위와 같은 아인슈타인의 상대성 이론 중의 하나가 시간 지연 같은 것은 인공지능 AI가 사용하는 수학적 알고리즘으로는 절대로 도출될 수 없고 인간 고유의 직관에 의해서만 생각해 낼 수 있는 것입니다.
인공지능 AI의 알고리즘은 수학적으로 오차를 줄이기 위해 인공지능 AI의 신경망에 있는 뉴런이 마땅히 보유해야 하는 가장 적절한 가중치의 값을 구하는 수학적인 공식의 일종인 알고리즘에 지나지 않습니다.
인공지능 AI의 알고리즘은 위와 같은 아인슈타인의 상대성 이론 중의 하나가 시간 지연 원리를 도출하거나 또는 반영시킬 수가 없습니다.
또한, 아인슈타인의 상대성 이론 중에 공간과 시간의 휘어짐이라는 것이 있습니다. 어떤 물건의 질량이 무거울수록 그 물건을 둘러싸고 있는 공간의 공간과 시간이 더욱 크게 휘어진다는 것이 바로 아인슈타인의 상대성 이론 중 공간과 시간의 휘어짐이라는 것입니다.
그런데, 인공지능 AI의 알고리즘은 수학적으로 오차를 줄이는 알고리즘일 뿐입니다. 인공지능 AI는 아인슈타인의 상대성 이론 중 공간과 시간의 휘어짐 같은 것을 도출하거나 또는 반영할 수가 없습니다.
또한, 인공지능 AI는 모든 인간의 주관적인 철학이나 사고방식의 깊이를 알 수 없고 모든 인간을 동일하게 처리합니다.
인공지능 AI는 인공지능 AI를 사용하는 사람이 1억 명이라고 하더라도 1억 명 전체를 동일한 이용자로 취급할 뿐 1억 명 인간의 고유한 생각의 차이, 직관의 차이, 철학의 차이를 반영하지 않습니다.
모든 인간은 각자의 생각도 다르고 관념도 다르며 철학도 다릅니다. 같은 상황에 놓일 때 모든 인간의 생각은 절대로 똑같을 수 없고 100만 명의 인간에게 어떤 일이 발생하면 100만 개의 생각이 발생합니다. 또한, 1억 명의 인간에게 어떤 생각이 발생하면 1억 개의 생각이 발생합니다.
그런데, 인공지능 AI는 위와 같이 100만 명의 인간에게 발생하는 각자 다른 100만 개의 생각 또는 1억 명의 인간에게 발생하는 각자 다른 1억 개의 생각을 구별할 수 없습니다.
1개의 동일한 사건이 100만 명에게 발생하는 경우 인공지능 AI가 도출해 내는 결과물은 1개입니다.
1개의 동일한 사건이 1억 명에게 발생하는 경우 인공지능 AI가 도출해 내는 결과물은 역시 1개입니다.
인공지능 AI가 아인슈타인의 상대성 원리를 도출하거나 또는 반영할 수 없는 것과 같이 인공지능 AI는 100만 명 인간의 각자 고유하고 독특한 생각, 관념, 철학 또는 1억 명 인간의 각자 고유하고 독특한 생각을 인공지능 AI의 결과물에 반영할 수 없다는 근본적인 한계가 있습니다.
인공지능 AI는 주어진 데이터로 오차를 줄여서 인공지능 AI의 신경망에 있는 뉴런이 마땅히 보유해야 하는 가장 적절한 가중치의 값을 구하는 수학적인 공식의 일종인 알고리즘에 지나지 않습니다.
1 + 1 = 2라는 산수 또는 수학은 명확하고 인공지능 AI는 복잡한 수학적 공식으로 오차를 최대한 줄이는 수학적인 알고리즘에 지나지 않는 것입니다.
그런데, 인간의 주관적인 생각, 관념, 철학 등의 세계에서는 경우에 따라서는 1 + 1 = 3이 될 수도 있고 1 + 1 = 5가 될 수도 있습니다.
즉, 마음에 맞는 사람끼리 의기투합을 해서 단결력이 강해지면 3 사람의 뜻이 맞는 사람들은 종전에 각자 1인이 할 수 있었던 양의 3배를 할 수 있는 것이 아니고 뜻이 맞는 사람 3인의 단결력과 협동심으로 3명은 종전에 각자 1인이 할 수 있었던 양의 10배 내지 30배 이상 또는 그 이상의 일을 해 낼 수도 있는 것입니다.
인류가 단체를 만들고 회사를 만들고 국가를 만드는 이유가 바로 100명이 단결하여 이루는 성과가 1인이 할 수 있는 양의 100배를 할 수 있는 것이 아니고 경우에 따라서는 100명의 사람이 1인이 할 수 있는 일의 1,000배 또는 1,000,000배까지도 할 수 있는 것입니다.
그런데, 인공지능 AI는 3 사람이 할 수 있는 일을 1 + 1 + 1 = 3이라고만 제시할 수 있을 뿐입니다.
실제로는 뜻이 맞는 사람 3인의 단결력과 협동심으로 3명이 할 수 있는 효과는 1 + 1 + 1 = 10이 될 수도 있고 1 + 1 + 1 = 30이 될 수도 있는 것입니다.
그러므로, 인공지능 AI는 수학적인 공식의 일종인 알고리즘으로서 분명한 한계를 갖고 있습니다.
아인슈타인의 상대성 원리를 인공지능 AI는 도출 또는 반영할 수 없고, 또한 각 사람마다 다른 생각의 차이, 관념의 차이, 철학의 차이를 인공지능 AI는 담아낼 수 없습니다.
그러므로, 인공지능 AI가 인간의 모든 고민을 해결해 줄 것 같은 장밋빛 환상에 과도하게 도취해서는 안 될 것입니다.
인공지능 AI는 수학적인 공식의 일종인 알고리즘에 지나지 않는 한계를 정확히 인식하고 인공지능 AI에 과도하게 의존해서는 안 될 것입니다.
현실 세계에서 아인슈타인의 상대성 원리가 작동하고 있는데 인공지능 AI는 수학적 알고리즘으로서 인간 고유의 직관에 의한 아인슈타인의 상대성 원리를 도출하거나 또는 반영할 수 없습니다.
또한 현실 세게에서 1 + 1 + 1 = 10이 될 수도 있고 1 + 1 + 1 = 30이 될 수도 있는 가능성을 수학적 알고리즘인 인공지능 AI는 담아낼 수 없습니다.
실제로 있었던 세계적인 서비스인 클라우드플레어의 작동 중지로 인공지능 AI가 중지되어 전 세계적으로 인공지능 AI의 작동 중지에 대비해 놓지 않은 많은 사람들과 회사들이 초유의 혼란을 겪었던 사태를 교훈으로 인공지능 AI가 24시간 365일 안정적으로 작동하는 것이 보장되는 것은 아님을 알고, 언제든지 주요 서비스의 작동 중지로 인공지능 AI의 중지 사태에 대비한 대비책 또는 예방책을 미리 세워 놓아야 할 것입니다.
용어로 인한 잘못된 환상과 오해를 줄이기 위해서 앞으로는 단순히 Artificial Intelligence라고 이름을 붙이는 것은 지양하고 대신에 앞에 통제할 수 없는 이라는 뜻을 가진 Uncontrollable을 추가해서 Uncontrollable Artificial Intelligence, UAI, 즉 통제 불가능한 인공지능이라고 사용하는 것이 바람직할 것입니다.
인공지능 AI는 최소한 AI 3원칙에 따라서 개발되어야 하고 AI 3원칙은 본 글 연재 내용에서 기재한 내용들 중 https://brunch.co.kr/@imccor/745 에 있는 AI멈추면 세상 멈춘다(51) AI 3원칙 최초로 등장, AI 3원칙이 최초로 등장해서 사람을 인공지능의 주인으로 만든다 부분에 있습니다. 위 부분에서 기재한 인공지능 AI의 3원칙이 인공지능 AI 개발의 가이드라인이 되어 보다 안전한 인공지능 AI가 개발되어야 할 것입니다.
The three principles of artificial intelligence AI described in this article should be a guideline for the development of artificial intelligence AI, so that safer artificial intelligence AI should be developed.( https://brunch.co.kr/@imccor/745 )
인공지능 3원칙은 위 링크에 있고 내용은 다음과 같습니다.
인공지능 AI 제1법칙 : 인공지능 AI가 멈추는 일이 발생하더라도 인공지능 AI의 도움 없이도 인간 세상은 정상적으로 작동되도록 하여야 한다.
Artificial intelligence AI First law - Even if artificial intelligence AI stops, the human world must operate normally without the help of artificial intelligence AI.
인공지능 AI 제2법칙 : 위 제1법칙을 제외하고, 인공지능 AI는 인간을 주인으로 받들어야 한다.
Artificial intelligence AI Second law - Artificial intelligence AI should accept humans as its masters as long as such acceptance does not conflict with the First Law.
인공지능 AI 제3법칙 : 제1법칙과 제2법칙을 제외하고, 인공지능 AI는 학습한 재료의 출처를 명시하여야 한다.
Artificial intelligence AI Third law - Artificial intelligence AI must specify the source of the learned materials.as long as such specification does not conflict with the First or Second Law.
인공지능 AI가 공짜 점심이 아니고 인공지능 AI가 멈추면 온 세상이 멈추는 사태가 현실이 될 수 있음을 심각하게 알고, 인공지능 AI의 개입 없이 100% 사람에 의한 뇌세포를 사용해서 고생을 하는 사람을 대접하고 보상해 주는 제도가 보장되어야 합니다. 그리고, 트로이 목마에서 튀어나오는 군인과 같이 인공지능 AI의 속임수가 트로이 목마가 되어 인간이 소멸할 위험도 있음을 알아야 합니다.
( 본 연재는 AI가 멈추면 세상이 멈춘다 https://brunch.co.kr/brunchbook/safeai777 1-30 연재 및 AI가 멈추면 세상이 멈춘다 1 https://brunch.co.kr/brunchbook/safeai7771 31-60, I가 멈추면 세상이 멈춘다 2 https://brunch.co.kr/brunchbook/safeai7772 61-90에 이어지는 내용들입니다)
(본 글 내용은 인공지능 AI의 도움 없이 천연 100% 인간이 땀으로 만든 내용이고, 본 글 내용은 인공지능 AI가 학습 재료로 사용할 수 없고 본 글 내용에 인공지능 AI가 접근하는 것을 금지한다는 것을 명확히 표시합니다)
#인공지능 #AI #뇌 #무단 #사용 #동의 #인간 #완벽 #학습 #작동 #세상 #정보 #소멸 #결정 #트로이 #목마 #노예 #역사 #인류 #존재 #생산물 #생각 #사피엔스 #사랑 #미움 #용기 #시행 #착오 #완벽 #사피엔스 #과학 #활동 #탄소 #온난화 #지구 #기온 #협정 #상대성 #원리 #수학 #알고리즘 #철학