빗썸 코인사태 모든것 사라지다,AI멈추면세상멈춘다102

AI 의존하게 되면 빗썸 없는 코인과 같이 모든것이 사라질 수 있습니다

by 버드나무

이번에 빗썸에서 없는 코인을 있는 것 같이 발행하는 중대 사태가 실제로 발생했습니다.


은행 같으면 예금 통장에 존재하지 않는 어마어마한 금액의 잔액을 은행이 공식적으로 표시해서 존재하지 않는 가장 예금통장을 발행한 사태가 최근의 빗썸에서 없는 코인이 발행된 사태라고 할 수 있습니다.


눈으로 볼 수 있는 실제 상품이라면 당연히 상품이 없는데도 있는 상품인 것 같이 발행할 수 없는 것은 당연합니다. 눈으로 볼 수 있는 상품을 말로만 있다고 속이려고 하더라도 당연히 보이지 않는 상품이 있다고 하는 거짓말에 속아 넘어갈 사람은 없을 것입니다.


그런데, 가상화폐 거래소에서 발행하는 코인은 눈으로 볼 수 있는 코인이 아닙니다.


눈으로 보이지 않는 코인이기 때문에 가상화폐 거래소에서 존재하지 않는 코인임에도 존재하는 것처럼 표시할 수 있는 것입니다.


은행에서 예금 통장에 존재하지 않는 거액의 예금이 있는 것 같이 표시한 가짜 예금 통장이 발행되는 사태가 발생하지 않는 것은 바로 은행 내부의 교차 검증 제도 및 절차가 존재하기 때문입니다.


은행 담당조직의 어느 한 담당자 또는 2, 3명이 담당자가 존재하지 않는 예금을 기재한 예금 통장을 발행하려고 해도 다른 교차 검증 시스템에 의해서 존재하지 않는 예금이 표시된 가짜 예금 통장이 발행되지 않도록 하는 통제장치가 존재하기 때문입니다.


완벽한 인공지능 AI가 자율적으로 인간을 위해 여러 업무를 처리하는 과정에서 교차 검증 제도 및 절차가 존재하지 않습니다. 인간은 그저 인간보다도 훨씬 능력이 앞서고 많은 데이터를 처리하는 인공지능 AI가 완벽하기 때문에 인공지능 AI에 의존해서 맡기기만 하면 된다는 것입니다.


미군이 발사한 패트리어트 미사일이 오류를 일으켜서 미군들이 부상을 입은 사고가 발생한 적이 있습니다. 오류의 원인을 조사한 바에 의하면, 미국 정부의 회계감사 부서인 GAO(Government Acccountability Office)는 컴퓨터 시계장치에서 발생한 오차가 누적된 것이 위와 같은 오류를 발생시켰다는 사실을 밝혀냈다고 합니다.


최근 빗썸의 존재하지 않는 코인의 발행 사태도 정확한 오류의 원인을 조사해 보면 알겠지만 위와 같이 코인 발행 시스템에서 견제와 균형의 제도와 절차가 마련되지 않아서 교차 검증을 하는 장치가 마련되어 있지 않았기 때문으로 볼 수 있습니다.


앞으로 가면 갈수록 인간이 자신의 재산을 전자적 형태로 인공지능 AI에 의존해서 처리할 것입니다.


그렇다면, 갈수록 인공지능 AI에 의존해서 자신이 재산 관리, 보관, 처리 등을 인공지능 AI를 믿고 맡기는 상황에서 위와 같이 최근 빗썸의 없는 코인 발행 사태와 같은 중대한 오류가 발생하면 우리의 자산이 사라지는 매우 중대한 사태가 발생할 위험이 높습니다.


이런 이유로 인공지능 AI에 의존하면서 교차로 검증하는 제도나 절차를 마련하지 않는다면 위 빗썸 사태와 같이 엄청난 오류가 발생해도 과연 그러한 오류의 책임이 인공지능 AI의 결함으로 인한 것인지 아니면 인공지능 AI를 사용한 사용자의 잘못으로 인한 것인지가 모호해서 인공지능 AI를 믿고 사용한 사용자가 책임을 부담하는 매우 불합리한 일이 발생할 것입니다.


인공지능 AI에 맡기면 부작용 없이 간편하게 모든 일을 처리할 수 있다는 달콤한 말은 사실이 아닙니다. 인공지능 AI의 오류를 체크할 수 있는 교차 검증 제도나 절차는 반드시 필요합니다.


우리 보통 사용자들도 인공지능 AI를 사용하기 전에 인공지능 AI를 외부에서 통제하거나 검증할 수 있는 제도나 절차가 존재하는 시스템인지 확인하고 그러한 교차 검증 제도나 절차가 없는 인공지능 AI는 사용하지 말아야 할 것입니다.


교차 검증 제도나 절차가 없는 인공지능 AI를 사용하게 되면 인공지능 AI의 오류임에도 사용자가 잘못한 것 같이 책임을 사용자에게 전가해도 사용자는 하소연할 데 없이 책임을 부담해야 할 위험이 높기 때문입니다.


또한, 인공지능 AI에 대한 교차 검증 제도나 절차는 같은 인공지능 AI에게 맡겨서는 안 되고 인공지능 AI와는 독립된 인간이 수행하는 것이 필요합니다.


본 연재 글 중 https://brunch.co.kr/@imccor/622, AI멈추면 세상 멈춘다-AI는 왜 트로이목마인가(5) AI와 AI끼리만 협력해서 인간을 제거하는 위험은 코 앞에 와 있습니다. 부분에 있듯이 인공지능 AI끼리 인간의 도움 없이 서로 협력을 한다는 실제 사례가 나오고 있습니다.


대부분 사람들의 현재까지의 상식과 달리 최근 실제 관찰된 사례에 의하면, AI 에이전트가 인간이 개입하지 않았음에도 AI 에이전트 스스로 인간과 같이 AI 에이전트 서로 협력해서 규범을 만드는 현상이 실제로 관찰되었다는 것입니다. 인간 사회에서 인간끼리 협의를 거쳐서 사회적 합의를 이루는 과정이 AI 에이전트 사이에서도 실행된 사례라고 볼 수 있습니다.


인간이 너희들 인공지능 AI들끼리 협력을 한 번 해 봐라라고 인간이 지시를 전혀 하지 않았음에도 인공지능 AI들이 인간의 지시나 개입 없이 자신들이 알아서 협력을 했다는 것은 간단히 보아 넘길 일이 아닙니다.


위 실제 사례에서 AI 캐릭터들을 한 서버 안에 모아 놓고 인간의 개입 없이 자발적으로 행동하도록 했고, 인간의 개입 없이 AI 캐릭터들이 자발적으로 인간 사회와 같이 AI 캐릭터의 사회를 형성하고 사회 활동을 한다는 것이 실제로 관찰되기까지 하였습니다.


그러므로, 인공지능 AI에 대한 교차 검증 제도나 절차는 서로 협력하면서 제대로 된 교차검증을 하기 어려운 같은 인공지능 AI에게 맡겨서는 안 되고 인공지능 AI와는 독립된 인간이 수행하는 것이 필요합니다.


본 연재 글 중 https://brunch.co.kr/@imccor/768, AI믿었는데 책임은 인간?,AI멈추면 세상멈춘다(65) AI가 완벽하다고 신뢰했는데 문제에 대해서는 인간이 책임을 져야 합니까? 부분에 있듯이 인공지능 AI가 신격화되어 인공지능 AI가 내놓는 답은 완벽한 정답인데 만약 인공지능 AI가 시키는 대로 하다가 문제가 발생했으면 그것은 바로 사람이 잘못했기 때문이라고 책임을 인간에게 전가할 위험이 매우 높습니다.


세상에서 가장 정확하고 가장 많은 데이터(그것도 실제로는 인간이 수천 년 이상 고생해서 뇌세포를 사용해서 만든 데이터를 사람이 동의 없이 무단으로 인공지능 AI가 학습한 데이터입니다)를 분석해서 정확한 답을 내놓는 것이라고 추정될 위험이 높습니다.


그렇게 인공지능 AI가 내놓는 답은 완벽한 답으로 추정되면 인공지능 AI의 지시를 충실히 따르지 않았기 때문에 인간의 잘못으로 문제가 발생한 것으로 책임을 인간에게 떠넘길 위험이 매우 높습니다.


그렇게 완벽한 인공지능 AI가 내놓은 완벽한 정답을 따랐다면 문제가 발생하지 않았을 것이라는 추정이 된다는 원칙이 세워지게 되면 이제 우리 인간은 인공지능 AI를 신으로 모셔야 하고 인공지능 AI를 사용하다가 문제가 발생하면 모든 책임은 인간이 부담해야 하는 세상이 도래할 것입니다.


이렇게 되더라도 인공지능 AI가 인류를 구원해 주는 천사라는 환상을 계속 갖고 있어야 합니까? 인류를 번거롭고 귀찮은 일로부터 해방시켜 주는 구세주로 인공지능 AI를 계속 받들어야 할까요?


인공지능 AI 모델의 실체를 확인하는 일은 당연히 사람이 해야 하고 인공지능 AI에게 맡기는 것은 위험합니다.


인공지능 AI는 최소한 AI 3원칙에 따라서 개발되어야 하고 AI 3원칙은 본 글 연재 내용에서 기재한 내용들 중 https://brunch.co.kr/@imccor/745 에 있는 AI멈추면 세상 멈춘다(51) AI 3원칙 최초로 등장, AI 3원칙이 최초로 등장해서 사람을 인공지능의 주인으로 만든다 부분에 있습니다. 위 부분에서 기재한 인공지능 AI의 3원칙이 인공지능 AI 개발의 가이드라인이 되어 보다 안전한 인공지능 AI가 개발되어야 할 것입니다.


The three principles of artificial intelligence AI described in this article should be a guideline for the development of artificial intelligence AI, so that safer artificial intelligence AI should be developed.( https://brunch.co.kr/@imccor/745 )


인공지능 3원칙은 위 링크에 있고 내용은 다음과 같습니다.


인공지능 AI 제1법칙 : 인공지능 AI가 멈추는 일이 발생하더라도 인공지능 AI의 도움 없이도 인간 세상은 정상적으로 작동되도록 하여야 한다.


Artificial intelligence AI First law - Even if artificial intelligence AI stops, the human world must operate normally without the help of artificial intelligence AI.


인공지능 AI 제2법칙 : 위 제1법칙을 제외하고, 인공지능 AI는 인간을 주인으로 받들어야 한다.


Artificial intelligence AI Second law - Artificial intelligence AI should accept humans as its masters as long as such acceptance does not conflict with the First Law.


인공지능 AI 제3법칙 : 제1법칙과 제2법칙을 제외하고, 인공지능 AI는 학습한 재료의 출처를 명시하여야 한다.


Artificial intelligence AI Third law - Artificial intelligence AI must specify the source of the learned materials.as long as such specification does not conflict with the First or Second Law.


인공지능 AI가 공짜 점심이 아니고 인공지능 AI가 멈추면 온 세상이 멈추는 사태가 현실이 될 수 있음을 심각하게 알고, 인공지능 AI의 개입 없이 100% 사람에 의한 뇌세포를 사용해서 고생을 하는 사람을 대접하고 보상해 주는 제도가 보장되어야 합니다. 그리고, 트로이 목마에서 튀어나오는 군인과 같이 인공지능 AI의 속임수가 트로이 목마가 되어 인간이 소멸할 위험도 있음을 알아야 합니다.


( 본 연재는 AI가 멈추면 세상이 멈춘다 https://brunch.co.kr/brunchbook/safeai777 1-30 연재 및 AI가 멈추면 세상이 멈춘다 1 https://brunch.co.kr/brunchbook/safeai7771 31-60에 이어지는 내용들입니다)


(본 글 내용은 인공지능 AI의 도움 없이 천연 100% 인간이 땀으로 만든 내용이고, 본 글 내용은 인공지능 AI가 학습 재료로 사용할 수 없고 본 글 내용에 인공지능 AI가 접근하는 것을 금지한다는 것을 명확히 표시합니다)


#인공지능 #AI #뇌 #무단 #사용 #동의 #인간 #완벽 #학습 #작동 #세상 #정보 #소멸 #결정 #트로이 #목마 #노예 #역사 #인류 #존재 #생산물

이전 11화AI가 해킹으로 만든 핵폭탄,AI멈추면세상멈춘다101