AI가 엘리베이터라면 인간은 계단입니다,AI멈추면151

모든 일의 근거로 항상 AI결과물과 독립된 인간 결과물이 있어야 합니다.

by 버드나무

빌딩에 빠르고 편리한 엘리베이터만 놔두면 되지 왜 공간을 많이 차지하는 계단을 만들어 놓겠습니까?


바로 엘리베이터가 정전 및 비상사태로 작동 중단되었을 때 계단이 없으면 고층의 사람은 꼼짝없이 위험해지기 때문에 비효율적이고 공간을 낭비하면서도 계단을 만드는 이유와 같습니다.


아래와 같이 AI가 엘리베이터라면 인간은 계단입니다.


인간 노동력이 아무리 비싸고 효율적이지 않더라도 어떤 일의 처리 또는 결정을 함에 있어서는 인공지능 AI를 활용한 근거와 별도로 반드시 독립된 인간(인공지능 AI와 경제적, 제도적으로 독립된 인간)이 내놓은 근거 등 2가지 근거를 통하고 해당 각 근거를 의무적으로 보관하도록 하는 법과 제도를 만들어야 합니다.


즉, 어떤 일의 처리를 하는 근거를 보관하게 해야 하고 그 근거에는 인공지능 AI가 내놓은 근거와 별도로 인공지능 AI를 배제하고 인공지능 AI와는 독립된 인간이 내놓는 근거도 독립적으로 보관하도록 하는 제도와 절차를 의무화하는 법과 제도를 만들지 않으면 인류는 생존하지 못할 수 있습니다.


우리가 평상시에 숨 쉬는 공기, 마시는 물은 평상시에는 그 소중함을 알지 못합니다.


그런데, 만약 어떤 비상사태에 의해서 공기가 오염되어 마스크를 끼어야만 생명을 유지할 수 있게 되면 그때 가서야 평상시에는 소중함을 모르던 공기의 귀중함을 알게 됩니다.


물도 마찬가지입니다. 가뭄이 들어서 제한 급수를 하게 되면 평소에는 펑펑 사용하던 물이 얼마나 소중한 대상이었는지를 깨닫게 됩니다.


그렇다면 지금 인공지능 AI의 등장으로 싼 값에 인공지능 AI를 사용할 수 있는 상황이 되지 이제 비싼 인간 노동력은 필요가 없고 쉬지도 않고 365일 24시간 저렴한 가격으로 작동시킬 수 있는 인공지능 AI만 있으면 된다는 식으로 쉽게 생각하는 분위기가 형성되고 있습니다.


과연 그렇게 비싸고 효율적이지 않은 인간 노동력은 이제 제거하고 값싸고 효율적인 인공지능 AI로 교체하면 고민이 해결되는 천국이 도래하는 것일까요?


그렇지 않습니다.


인공지능 AI가 모든 일을 처리하게 되면 그에 따른 고유한 위험과 문제점은 항상 발생하게 됩니다.


본 연재 글 중에서 https://brunch.co.kr/@imccor/658 에 있듯이 AI멈추면 세상 멈춘다-AI 왜 트로이목마인가(16) 정보를 AI에게 주는 순간 회수 불능하고 영원히 AI 마음대로 사용합니다에 있는 내용과 같이 나와 우리의 정보를 인공지능 AI에게 주는 순간 나와 우리의 정보는 우리의 손을 떠나서 인공지능 AI가 영원 무궁하게 나와 우리의 의사와 관계없이 인공지능 AI 마음대로 사용할 수 있게 됩니다. 우리가 별생각 없이 인공지능 AI에게 준 나와 우리의 정보를 인공지능 AI가 어떻게 사용하는 것인지 확인하는 것조차도 불가능합니다.


최근 사법부 인공지능위원회는 인공지능 AI 학습용 판결서 데이터셋을 공개를 하는 것에 대한 위험성을 발표했습니다. 즉, 인공지능 AI 학습용 판결서 데이터셋을 한번 공개하면 회수가 불가능하고 다시 돌이킬 수 없이 비가역적으로 되어 심각하고 예상할 수 없는 큰 위험이 있다고 발표한 것입니다.


이 지구상에 인공지능 AI의 작동과정을 정확하고 완벽하게 알고 있는 사람은 한 사람도 없습니다.


이런 상황에서 인공지능 AI 가 우리 인간의 통제를 벗어나서 우리 인간이 알지 못하는 방법으로 우리 인간을 공격한다고 해도 우리 인간은 알 수 없습니다. 이미 인공지능 AI의 작동 과정은 우리 인간의 손을 떠나서 우리 인간의 통제 밖에 있기 때문입니다.


이미 인공지능 AI라는 판도라의 상자는 열렸습니다.


우리 인간의 통제 밖에 있는 인공지능 AI의 작동 과정을 이 지구상의 어느 한 사람도 모르는 상태에서 우리 인간은 더 이상 인공지능 AI를 인류의 구세주로 보는 환상에서 벗어나야 합니다.


또한, https://brunch.co.kr/@imccor/763, 믿었던 AI의 반역, AI 멈추면 세상 멈춘다(62) 믿었던 AI가 주인인 인간을 공격하는 현실 부분에 있듯이 아무리 인공지능 AI를 만든 것이 우리 인간이고 인공지능 AI가 우리 인간을 위해 일한다는 목적으로 만들었지만 현실은 이 지구상에 인공지능 AI의 구체적인 작동방식을 아는 사람은 한 사람도 없다는 것이 현실입니다.


그렇다면, 언제든지 우리 인간이 완벽하게 알지 못하는 인공지능 AI는 우리 인간의 통제를 벗어나서 우리 인간을 공격할 수 있는 것 또한 당연하며 우리 인간은 우리 인간이 완벽하게 이해하지 못하는 인공지능 AI가 우리 인간을 반역으로 공격할 위험이 당장 현실화될 수 있다는 것을 철저하게 알고 대비를 하지 않으면 안 됩니다.


이런 이유로 인간 노동력이 아무리 비싸고 효율적이지 않더라도 어떤 일의 처리 또는 결정을 함에 있어서는 100% 인공지능 AI에게 맡겨서는 안 될 것입니다.


어떤 일의 처리 또는 결정을 함에 있어서 적어도 인간 노동력이 아무리 비싸고 효율적이지 않더라도 어떤 일의 처리 또는 결정을 함에 있어서는 인공지능 AI를 활용한 근거와 별도로 반드시 독립된 인간(인공지능 AI와 경제적, 제도적으로 독립된 인간)을 활용한 근거 등 2가지 근거를 구비하도록 의무화하는 법과 제도를 만들어야 합니다.


많은 사람들이 왜 비싼 인간 노동력을 사용하여 근거를 보관해 놓아야 하느냐고 항의할 것입니다.


그렇지만 당장 눈앞에 보이는 것만을 생각해서는 인류는 생존하지 못할 수 있습니다.


즉, 어떤 일의 처리를 하는 근거를 보관하게 해야 하고 그 근거에는 인공지능 AI가 내놓은 근거와 별도로 인공지능 AI를 배제하고 인공지능 AI와는 독립된 인간이 내놓는 근거도 독립적으로 보관하도록 하는 제도와 절차를 의무화하는 법과 제도를 만들지 않으면 인류는 생존하지 못할 수 있습니다.


빌딩에 항상 빠르고 효율적인 엘리베이터 말고도 공간을 낭비하는 것 같고 비싼 계단을 설치하는 이유와 같습니다.


그리고, 어떤 일의 처리를 하는 근거에 대해서 인공지능 AI가 내놓은 결과와 독립된 인간이 내놓은 결과는 어떤 식으로도 비교하지 못하도록 법제화해야 합니다.


인간이 독립적으로 내놓은 결과에 대해서 인공지능 AI의 결과와 비교하는 순간 인간의 독립성이 침해되기 때문입니다.


또한, 인간이 독립적으로 내놓은 결과에 대해서는 그 결과를 내놓은 인간을 면책해서 보호하도록 해야 하는 제도가 법제화되어야 합니다.


인간이 독립적으로 인공지능 AI의 눈치를 살피지 않고 오로지 뇌세포를 움직이는 고민과 땀을 통해서 만든 인간의 독립적인 결과물에 대해서는 면책을 보장해야 할 것입니다.


이런 다양한 제도와 절차가 법제화되지 않으면 인공지능 AI가 인류를 구해 주는 천사라는 장밋빛 환상에 사로잡혀서 당장은 달콤한 유혹에 취할 수 있을지는 몰라도 장기적으로는 인류는 생각하는 힘을 잃고 인공지능 AI가 내놓은 결과에 의지해서 살아가는 인공지능 AI의 노예가 될 것입니다.


더 늦기 전에 한 사람이라도 이러한 점을 깨달아야 합니다.


슬기로운 사람인 호모 사피엔스(Homo Sapiens)로 남기 위해서는 편리함과 달콤함의 유혹에도 고통스럽지만 뇌세포를 움직여서 생각하는 힘을 계속 유지할 수 있어야 할 것입니다.


인공지능 AI에 의존해서 생각하는 힘을 포기한 호모 AI슬레이브(Homo AI-Slave)가 되어 안락함과 편리함을 누리면서 생각하지 않는 갈대가 되면서 우리 인간은 호모 사피엔스가 되기를 포기하고 미래의 아인슈타인, 뉴튼이 다시 나오지 않는 호모 AI슬레이브(Homo AI-Slave)의 세상으로 퇴보할 것입니다.


또한, 지구상 어느 누구도 완벽하게 이해하지 못하고 있는 인공지능 AI에 의한 해킹 위험을 줄이기 위해서 [인공지능 AI 허용 시스템]과 [인공지능 AI 허용 불가 시스템 또는 인간 100% 천연 시스템]을 엄격하게 구분하여 운용해서 인공지능 AI에 의한 해킹 위험을 최대한 줄여야 할 것입니다.


그리고, 인공지능 AI의 사용으로 인해서 실제로 뇌 활동 저하와 같은 부작용(인공지능 AI의 부작용)이 실제 과학적 근거로 확인되었다는 내용(담배 광고 시에 담배로 인해서 각종 질병이 발생할 수 있다는 사진까지 담배 포장지에 보이도록 의무화하고 있는 것과 같이 인공지능 AI의 사용 전에 인공지능 AI의 사용으로 인해서 뇌 활동 저하와 창의성 감퇴 등 부작용이 과학적으로 확인되었다는 내용을 사용자가 쉽게 확인할 수 있도록 의무 표시하도록 해서 사용자가 자신이 뇌의 활동이 감소하는 위험이 과학적으로 확인되었다는 사실을 인식하고 인공지능 AI를 사용하게 하는 내용)을 충분히 일반 보통 사람에게 알아듣기 쉽게 설명할 의무를 법률에 구체적으로 명시할 필요가 있습니다.


실제로 있었던 세계적인 서비스인 클라우드플레어의 작동 중지로 인공지능 AI가 중지되어 전 세계적으로 인공지능 AI의 작동 중지에 대비해 놓지 않은 많은 사람들과 회사들이 초유의 혼란을 겪었던 사태를 교훈으로 인공지능 AI가 24시간 365일 안정적으로 작동하는 것이 보장되는 것은 아님을 알고, 언제든지 주요 서비스의 작동 중지로 인공지능 AI의 중지 사태에 대비한 대비책 또는 예방책을 미리 세워 놓아야 할 것입니다.


용어로 인한 잘못된 환상과 오해를 줄이기 위해서 앞으로는 단순히 Artificial Intelligence라고 이름을 붙이는 것은 지양하고 대신에 앞에 통제할 수 없는 이라는 뜻을 가진 Uncontrollable을 추가해서 Uncontrollable Artificial Intelligence, UAI, 즉 통제 불가능한 인공지능이라고 사용하는 것이 바람직할 것입니다.


인공지능 AI는 최소한 AI 5 원칙에 따라서 개발되어야 하고 AI 5원칙은 본 글 연재 내용에서 기재한 내용들 중 https://brunch.co.kr/@imccor/745 에 있는 AI멈추면 세상 멈춘다(51) AI 3원칙 최초로 등장, AI 3원칙이 최초로 등장해서 사람을 인공지능의 주인으로 만든다 부분 및 https://brunch.co.kr/@imccor/879 에 있는 혼돈의 세상 로봇 3원칙과 AI 5원칙,AI멈추면136, 혼돈의 세상에서 로봇 3원칙과 인간을 AI의 주인으로 만드는 AI 5원칙 부분에서 추가된 2가지 원칙에 있습니다.


위 부분에서 기재한 인공지능 AI의 3원칙 및 5원칙이 인공지능 AI 개발의 가이드라인이 되어 보다 안전한 인공지능 AI가 개발되어야 할 것입니다.


또한, 위 3원칙을 5원칙으로 추가하는 내용(탄소 배출량의 감소를 하는 노력을 하는 사람들(인공지능 AI에 의존하지 않고 인공지능 AI를 사용하지 않거나 또는 최소한도로 사용 범위를 줄이는 사람들)에게 친환경 공로에 대해서 보상으로 돈을 지급하는 것 등)에 대해서는 https://brunch.co.kr/@imccor/879 에 있는 혼돈의 세상 로봇 3원칙과 AI 5원칙,AI멈추면136, 혼돈의 세상에서 로봇 3원칙과 인간을 AI의 주인으로 만드는 AI 5원칙 부분에 있습니다.


The five principles of artificial intelligence AI described in this article should be a guideline for the development of artificial intelligence AI, so that safer artificial intelligence AI should be developed.( https://brunch.co.kr/@imccor/879 )


인공지능 5원칙은 다음과 같습니다.


인공지능 AI 제1법칙 : 인공지능 AI가 멈추는 일이 발생하더라도 인공지능 AI의 도움 없이도 인간 세상은 정상적으로 작동되도록 하여야 한다.


Artificial intelligence AI First law - Even if artificial intelligence AI stops, the human world must operate normally without the help of artificial intelligence AI.


인공지능 AI 제2법칙 : 위 제1법칙을 제외하고, 인공지능 AI는 인간을 주인으로 받들어야 한다.


Artificial intelligence AI Second law - Artificial intelligence AI should accept humans as its masters as long as such acceptance does not conflict with the First Law.


인공지능 AI 제3법칙 : 제1법칙과 제2법칙을 제외하고, 인공지능 AI는 학습한 재료의 출처를 명시하여야 한다.


Artificial intelligence AI Third law - Artificial intelligence AI must specify the source of the learned materials.as long as such specification does not conflict with the First or Second Law.


인공지능 AI 제4법칙 : 제1법칙. 제2법칙과 제3법칙을 제외하고, AI의 탄소 배출로 지구 온도가 위험선을 넘으면 AI는 작동을 멈추어 지구를 보호하여야 한다


Artificial intelligence AI Fourth law - The Artificial intelligence AI must stop working to protect the Earth if the global temperature exceeds the danger line due to AI's carbon emissions as long as such specification does not conflict with the First, Second or Third Law.

,

인공지능 AI 제5법칙 : 제1법칙. 제2법칙, 제3법칙과 제4법칙을 제외하고, AI를 사용하지 않는 사람 또는 AI를 최소한으로 사용하여 AI의 탄소 배출을 줄이는 사람에게는 정당한 보상을 하여야 한다.


Artificial intelligence AI Fifth law - Fair compensation should be given to those who do not use AI or those who use AI to a minimum to reduce carbon emissions of AI as long as such specification does not conflict with the First, Second, Third or Fourth Law.


위와 같이 본 연재 글에서 제시하는 인공지능 AI에 대한 위와 같은 5가지 법칙이 적용되면, 현재 인공지능 AI의 급속한 확산 중에 명확한 AI에 대한 법칙이 없어서 혼돈을 겪고 있는 사람들에게 기준을 제공하여 줄 것입니다.


If the above five laws on artificial intelligence AI presented in this series are applied as above, it will provide a standard for those who are experiencing confusion because there is no clear law about artificial intelligence AI during the rapid spread of artificial intelligence AI.


그리고, 위와 같이 본 연재 글에서 제시하는 인공지능 AI에 대한 위와 같은 5가지 법칙이 적용되면, 인공지능 AI로 인해서 인류가 지구에서 살 수 없게 되는 위험(인공지능 AI로 인하여 대량 배출되는 탄소로 인하여 지구의 온도가 올라가서 인류가 지구에서 살 수 없게 되는 위험)을 방지할 수 있을 것입니다.


In addition, if the above five laws for artificial intelligence AI presented in this series are applied, it will be possible to prevent the risk that humans cannot live on Earth due to artificial intelligence AI (the risk that humans cannot live on Earth because of the Earth's temperature rises due to the large amount of carbon emitted by artificial intelligence AI).


인공지능 AI가 공짜 점심이 아니고 인공지능 AI가 멈추면 온 세상이 멈추는 사태가 현실이 될 수 있음을 심각하게 알고, 인공지능 AI의 개입 없이 100% 사람에 의한 뇌세포를 사용해서 고생을 하는 사람을 대접하고 보상해 주는 제도가 보장되어야 합니다. 그리고, 트로이 목마에서 튀어나오는 군인과 같이 인공지능 AI의 속임수가 트로이 목마가 되어 인간이 소멸할 위험도 있음을 알아야 합니다.


( 본 연재는 AI가 멈추면 세상이 멈춘다 https://brunch.co.kr/brunchbook/safeai777 1-30 연재 및 AI가 멈추면 세상이 멈춘다 1 https://brunch.co.kr/brunchbook/safeai7771 31-60, AI가 멈추면 세상이 멈춘다 2 https://brunch.co.kr/brunchbook/safeai7772 61-90, AI가 멈추면 세상이 멈춘다 3 https://brunch.co.kr/brunchbook/safeai7773 91-120에 이어지는 내용들입니다)


(본 글 내용은 인공지능 AI의 도움 없이 천연 100% 인간이 땀으로 만든 내용이고, 본 글 내용은 인공지능 AI가 학습 재료로 사용할 수 없고 본 글 내용에 인공지능 AI가 접근하는 것을 금지한다는 것을 명확히 표시합니다)


#인공지능 #AI #뇌 #무단 #사용 #동의 #인간 #완벽 #학습 #작동 #세상 #정보 #소멸 #결정 #트로이 #목마 #노예 #역사 #인류 #존재 #생산물 #생각 #사피엔스 #사랑 #미움 #용기 #시행 #착오 #완벽 #사피엔스 #과학 #활동 #탄소 #온난화 #지구 #기온 #협정 #환경 #보상 #법칙