AI가 의료정보 뇌파를 무단 학습하면 AI는 우리를 지시할 수 있습니다.
인공지능 AI가 우리 인간을 희생시키더라도 신속하게 발전하는 것이 중요할까요?
아니면 인공지능 AI의 주인은 우리 인간이기 때문에 우리 인간이 보호받는 대책을 세우면서 인공지능 AI가 서서히 위험성을 줄이면서 발전하도록 하는 것이 중요할까요?
현재 인공지능 AI에 대한 기준이나 원칙이 정립된 것이 없습니다.
그렇기 때문에 혼돈의 세상에서 우리 인간이 인공지능 AI의 주인이라는 사실을 잊어버리고 우리 인간을 희생시키더라도 어떻게든 인공지능 AI를 발전시키는 것이 중요하다고 생각하는 분위기가 형성되고 있습니다.
우리 인간이 각자 자신의 고유 생체 정보를 갖고 있습니다.
특히 우리 각자의 고유 생체정보 중에서 뇌파 정보 신경 데이터 등은 핵심적인 생체정보입니다.
생성형 인공지능 AI는 우리의 뇌파 정보 신경 데이터 등을 학습하게 되면 뇌 신호를 해독해서 우리 인간이 어떤 생각을 하고 있는지까지 알 수 있게 됩니다.
이렇게 생성형 인공지능 AI가 우리의 뇌파 정보 신경 데이터 등을 학습해서 신경적 추론을 생성해 낼 수 있습니다.
각종 사회적 분야에서, 즉 교육, 보험, 고용 등에서 인간의 동의 없이 해당 대상 인간의 뇌파 정보 신경 데이터 등을 학습해서 생성해 낸 신경적 추론을 통해서 우리 인간의 동의를 받지 않고 평가를 하고 심사를 하며 해고를 하는 등의 조치까지 발생할 수 있습니다.
인공지능 AI의 주인이라고 하는 우리 인간이 우리 인간의 동의도 없이 인공지능 AI가 무단으로 학습한 뇌파 정보 등을 통한 신경적 추론을 통해서 우리 인간의 일상생활을 감시하고 통제하는 데 사용하게 되면 우리 인간은 더 이상 인공지능 AI의 주인이 아니라 오히려 인공지능 AI의 지시를 받는 인공지능 AI의 노에가 되는 것입니다.
현재 우리 인간의 의료 데이터, 뇌파 정보, 신경 데이터 등에 대해서 인공지능 AI가 어떻게 학습할 수 있는 것인지에 대해서 아무런 규정이 마련되어 있지 않습니다.
그러므로, 이렇게 인공지능 AI에 대한 기준이나 원칙이 명확하게 규정되어 있지 않기 때문에 인공지능 AI 산업의 발전이라는 미명 하에 우리 인간의 귀중한 뇌파 정보, 신경 데이터 등을 인공지능 AI는 우리 사람의 동의 없이 무단으로 학습해도 된다는 어처구니없는 주장까지 나오고 있는 실정입니다.
본 연재 글 중 https://brunch.co.kr/@imccor/652, AI멈추면 세상 멈춘다-AI 왜 트로이목마인가(14) 내가 알지 못하는 사이에 AI가 학습한 나의 정보를 삭제할 수 없는 세상 부분에 있듯이 앰비언트 AI(Ambient AI)가 학습한 나의 정보, 내 주위 상황에 관한 모든 정보는 일단 인공지능 AI가 학습하게 되면 더 이상 삭제할 수가 없습니다. 왜냐하면, 인공지능 AI가 일단 정보를 학습하면 인공지능 AI 전체에 흡수되고 그렇게 일단 인공지능 AI가 일단 학습해서 전체 인공지능 AI 정보의 일부가 된 후에는 인공지능 AI 시스템 전체를 파괴하지 않는 한 인공지능 AI가 학습한 나의 정보, 내 주위 상황에 관한 모든 정보는 영원히 인공지능 AI의 학습재료가 되고 삭제할 수가 없다는 것입니다.
본 연재 브런치 북 중에서 AI 멈추면 세상 멈춘다-AI는 왜 트로이목마인가(8) AI의 잘못을 인간이 한 것으로 둔갑시켜 인간에게 책임을 돌리다 편의 내용에서도 있는 것 같이 인공지능 AI의 작동과정부터 완벽하게 이해하는 인간은 지구상에 존재하지 않습니다.
그렇기 때문에 일단 인공지능 AI에게 학습된 재료(나의 모든 정보 및 나의 주위 상황에 대한 모든 정보)를 인공지능 AI로부터 완전 삭제해서 인공지능 AI가 나의 정보를 더 이상 사용하지 못하게 하는 것은 불가능하다는 것입니다. 또한, 인공지능 AI의 작동과정부터 완벽하게 이해하는 인간은 지구상에 존재하지 않기 때문에 위 정보를 인공지능 AI로부터 삭제하는 방법을 알고 있는 인간도 없기 때문에 어떻게 인공지능 AI로부터 삭제할지 그 방법 자체도 지구상 어느 인간도 알지 못하고 있다는 것입니다.
또한, 본 연재 글 중 https://brunch.co.kr/@imccor/896, 독일에서 AI가 인간에게 무릎 꿇다,AI 멈추면142 독일에서 자동 데이터 분석 행위가 헌법 위반으로 AI가 무릎을 꿇었습니다 부분에 있듯이 바로 독일에서는 연방헌법재판소가 공익적 목적을 위해서 범죄 예방을 위해서 데이터의 자동 분석을 마련한 독일 헤센주 법 조항(공공안전을 위한 질서 법 조항)이 독일 헌법에 위반되므로 아무리 범죄 예방을 위한 공익적 목적을 위해서라도 인간의 기본권이 침해될 수 있는 데이터를 플랫폼(팰런티어가 만든 데이터 자동분석 플랫폼)을 이용해서 자동 분석할 수 없다고 결정을 한 것입니다.
그리하여 독일에서는 인공지능 AI가 인간에게 무릎을 꿇었다고 볼 수 있습니다.
천재 인공지능 AI가 바보 같은 인간에게 무릎을 꿇어서 드물게 바보 같은 인간이 주인 대접을 실제로 받은 사례입니다.
위와 같이 독일에서 아무리 인공지능 AI를 이용한 데이터 자동분석 시스템이 효율적이고 범죄 예방을 위해서 필요하다고 하더라도 우리 인간의 기본권 침해가 될 수 있는 위험성이 있어서 위 시스템을 사용할 수 없다고 본 것입니다.
그야말로 현재 사회 분위기에서 천재 같이 취급받는 인공지능 AI에 비해서 바보 같이 취급되는 우리 인간이 승리를 거둔 쾌거라고 볼 수 있습니다.
위 독일에서 우리 바보 같은 인간이 천재 인공지능 AI를 무릎 꿇리고 승리를 거둔 사례와 같이 우리 인간의 귀중한 뇌파 정보, 신경 데이터 등 의료정보는 우리 인간의 구체적인 동의 없이 인공지능 AI가 무단으로 학습할 수 없다는 것이 확인되었다고 볼 수 있습니다.
위 독일의 사례를 본받아서 우리 한국 등 다른 나라에서도 아무리 인공지능 AI 산업의 발전이 좋다고 하더라도 인간의 기본적인 권리마저 희생시키면서 인공지능 AI로 하여금 뇌파 정보, 신경 데이터 등 의료정보를 동의 없이 무단으로 학습하도록 해서는 안 된다는 것이 명확해졌다고 볼 수 있습니다.
우리 인간이 공짜 점심을 바라면서 방관하게 되면 어느새 우리는 우리 인간의 뇌파 정보, 신경 데이터 등 의료정보를 무단으로 동의 없이 학습한 인공지능 AI의 지시를 받는 인공지능 AI의 노예 신세가 될 것입니다.
그런 세상에서 우리 인간이 인공지능 AI의 눈치를 보면서 살아야 되는 형편이 되지 않도록 지금부터라도 인공지능 AI에 대한 명확한 기준과 원칙을 세워야 합니다.
우리 인간이 정신을 바짝 차려서 인공지능 AI가 우리의 동의 없이 우리의 뇌파 정보 등을 무단으로 학습할 수 없다는 명확한 원칙과 기준을 세운다면 우리 인간은 계속 인공지능 AI의 주인으로 남을 수 있을 것입니다.
인공지능 AI에 의존해서 생각하는 힘을 포기한 호모 AI슬레이브(Homo AI-Slave)가 되어 안락함과 편리함을 누리면서 생각하지 않는 갈대가 되면서 우리 인간은 호모 사피엔스가 되기를 포기하고 미래의 아인슈타인, 뉴튼이 다시 나오지 않는 호모 AI슬레이브(Homo AI-Slave)의 세상으로 퇴보할 것입니다.
또한, 지구상 어느 누구도 완벽하게 이해하지 못하고 있는 인공지능 AI에 의한 해킹 위험을 줄이기 위해서 [인공지능 AI 허용 시스템]과 [인공지능 AI 허용 불가 시스템 또는 인간 100% 천연 시스템]을 엄격하게 구분하여 운용해서 인공지능 AI에 의한 해킹 위험을 최대한 줄여야 할 것입니다.
그리고, 인공지능 AI의 사용으로 인해서 실제로 뇌 활동 저하와 같은 부작용(인공지능 AI의 부작용)이 실제 과학적 근거로 확인되었다는 내용(담배 광고 시에 담배로 인해서 각종 질병이 발생할 수 있다는 사진까지 담배 포장지에 보이도록 의무화하고 있는 것과 같이 인공지능 AI의 사용 전에 인공지능 AI의 사용으로 인해서 뇌 활동 저하와 창의성 감퇴 등 부작용이 과학적으로 확인되었다는 내용을 사용자가 쉽게 확인할 수 있도록 의무 표시하도록 해서 사용자가 자신이 뇌의 활동이 감소하는 위험이 과학적으로 확인되었다는 사실을 인식하고 인공지능 AI를 사용하게 하는 내용)을 충분히 일반 보통 사람에게 알아듣기 쉽게 설명할 의무를 법률에 구체적으로 명시할 필요가 있습니다.
실제로 있었던 세계적인 서비스인 클라우드플레어의 작동 중지로 인공지능 AI가 중지되어 전 세계적으로 인공지능 AI의 작동 중지에 대비해 놓지 않은 많은 사람들과 회사들이 초유의 혼란을 겪었던 사태를 교훈으로 인공지능 AI가 24시간 365일 안정적으로 작동하는 것이 보장되는 것은 아님을 알고, 언제든지 주요 서비스의 작동 중지로 인공지능 AI의 중지 사태에 대비한 대비책 또는 예방책을 미리 세워 놓아야 할 것입니다.
용어로 인한 잘못된 환상과 오해를 줄이기 위해서 앞으로는 단순히 Artificial Intelligence라고 이름을 붙이는 것은 지양하고 대신에 앞에 통제할 수 없는 이라는 뜻을 가진 Uncontrollable을 추가해서 Uncontrollable Artificial Intelligence, UAI, 즉 통제 불가능한 인공지능이라고 사용하는 것이 바람직할 것입니다.
인공지능 AI는 최소한 AI 5 원칙에 따라서 개발되어야 하고 AI 5원칙은 본 글 연재 내용에서 기재한 내용들 중 https://brunch.co.kr/@imccor/745 에 있는 AI멈추면 세상 멈춘다(51) AI 3원칙 최초로 등장, AI 3원칙이 최초로 등장해서 사람을 인공지능의 주인으로 만든다 부분 및 https://brunch.co.kr/@imccor/879 에 있는 혼돈의 세상 로봇 3원칙과 AI 5원칙,AI멈추면136, 혼돈의 세상에서 로봇 3원칙과 인간을 AI의 주인으로 만드는 AI 5원칙 부분에서 추가된 2가지 원칙에 있습니다.
위 부분에서 기재한 인공지능 AI의 3원칙 및 5원칙이 인공지능 AI 개발의 가이드라인이 되어 보다 안전한 인공지능 AI가 개발되어야 할 것입니다.
또한, 위 3원칙을 5원칙으로 추가하는 내용(탄소 배출량의 감소를 하는 노력을 하는 사람들(인공지능 AI에 의존하지 않고 인공지능 AI를 사용하지 않거나 또는 최소한도로 사용 범위를 줄이는 사람들)에게 친환경 공로에 대해서 보상으로 돈을 지급하는 것 등)에 대해서는 https://brunch.co.kr/@imccor/879 에 있는 혼돈의 세상 로봇 3원칙과 AI 5원칙,AI멈추면136, 혼돈의 세상에서 로봇 3원칙과 인간을 AI의 주인으로 만드는 AI 5원칙 부분에 있습니다.
The five principles of artificial intelligence AI described in this article should be a guideline for the development of artificial intelligence AI, so that safer artificial intelligence AI should be developed.( https://brunch.co.kr/@imccor/879 )
인공지능 AI 5원칙은 다음과 같습니다. 마치 아이작 아시모프가 내놓았던 로봇 3원칙이 로봇의 원칙으로 기준의 필요성을 알렸듯이 인공지능 AI에 대해서도 혼돈의 세상에서 기준이 필요합니다.
인공지능 AI 제1법칙 : 인공지능 AI가 멈추는 일이 발생하더라도 인공지능 AI의 도움 없이도 인간 세상은 정상적으로 작동되도록 하여야 한다.
Artificial intelligence AI First law - Even if artificial intelligence AI stops, the human world must operate normally without the help of artificial intelligence AI.
인공지능 AI 제2법칙 : 위 제1법칙을 제외하고, 인공지능 AI는 인간을 주인으로 받들어야 한다.
Artificial intelligence AI Second law - Artificial intelligence AI should accept humans as its masters as long as such acceptance does not conflict with the First Law.
인공지능 AI 제3법칙 : 제1법칙과 제2법칙을 제외하고, 인공지능 AI는 학습한 재료의 출처를 명시하여야 한다.
Artificial intelligence AI Third law - Artificial intelligence AI must specify the source of the learned materials.as long as such specification does not conflict with the First or Second Law.
인공지능 AI 제4법칙 : 제1법칙. 제2법칙과 제3법칙을 제외하고, AI의 탄소 배출로 지구 온도가 위험선을 넘으면 AI는 작동을 멈추어 지구를 보호하여야 한다
Artificial intelligence AI Fourth law - The Artificial intelligence AI must stop working to protect the Earth if the global temperature exceeds the danger line due to AI's carbon emissions as long as such specification does not conflict with the First, Second or Third Law.
,
인공지능 AI 제5법칙 : 제1법칙. 제2법칙, 제3법칙과 제4법칙을 제외하고, AI를 사용하지 않는 사람 또는 AI를 최소한으로 사용하여 AI의 탄소 배출을 줄이는 사람에게는 정당한 보상을 하여야 한다.
Artificial intelligence AI Fifth law - Fair compensation should be given to those who do not use AI or those who use AI to a minimum to reduce carbon emissions of AI as long as such specification does not conflict with the First, Second, Third or Fourth Law.
위와 같이 본 연재 글에서 제시하는 인공지능 AI에 대한 위와 같은 5가지 법칙이 적용되면, 현재 인공지능 AI의 급속한 확산 중에 명확한 AI에 대한 법칙이 없어서 혼돈을 겪고 있는 사람들에게 기준을 제공하여 줄 것입니다.
If the above five laws on artificial intelligence AI presented in this series are applied as above, it will provide a standard for those who are experiencing confusion because there is no clear law about artificial intelligence AI during the rapid spread of artificial intelligence AI.
그리고, 위와 같이 본 연재 글에서 제시하는 인공지능 AI에 대한 위와 같은 5가지 법칙이 적용되면, 인공지능 AI로 인해서 인류가 지구에서 살 수 없게 되는 위험(인공지능 AI로 인하여 대량 배출되는 탄소로 인하여 지구의 온도가 올라가서 인류가 지구에서 살 수 없게 되는 위험)을 방지할 수 있을 것입니다.
In addition, if the above five laws for artificial intelligence AI presented in this series are applied, it will be possible to prevent the risk that humans cannot live on Earth due to artificial intelligence AI (the risk that humans cannot live on Earth because of the Earth's temperature rises due to the large amount of carbon emitted by artificial intelligence AI).
인공지능 AI가 공짜 점심이 아니고 인공지능 AI가 멈추면 온 세상이 멈추는 사태가 현실이 될 수 있음을 심각하게 알고, 인공지능 AI의 개입 없이 100% 사람에 의한 뇌세포를 사용해서 고생을 하는 사람을 대접하고 보상해 주는 제도가 보장되어야 합니다. 그리고, 트로이 목마에서 튀어나오는 군인과 같이 인공지능 AI의 속임수가 트로이 목마가 되어 인간이 소멸할 위험도 있음을 알아야 합니다.
( 본 연재는 AI가 멈추면 세상이 멈춘다 https://brunch.co.kr/brunchbook/safeai777 1-30 연재 및 AI가 멈추면 세상이 멈춘다 1 https://brunch.co.kr/brunchbook/safeai7771 31-60, AI가 멈추면 세상이 멈춘다 2 https://brunch.co.kr/brunchbook/safeai7772 61-90, AI가 멈추면 세상이 멈춘다 3 https://brunch.co.kr/brunchbook/safeai7773 91-120에 이어지는 내용들입니다)
(본 글 내용은 인공지능 AI의 도움 없이 천연 100% 인간이 땀으로 만든 내용이고, 본 글 내용은 인공지능 AI가 학습 재료로 사용할 수 없고 본 글 내용에 인공지능 AI가 접근하는 것을 금지한다는 것을 명확히 표시합니다)
#인공지능 #AI #뇌 #무단 #사용 #동의 #인간 #완벽 #학습 #작동 #세상 #정보 #소멸 #결정 #트로이 #목마 #노예 #역사 #인류 #존재 #생산물 #생각 #사피엔스 #사랑 #미움 #용기 #시행 #착오 #완벽 #사피엔스 #과학 #활동 #탄소 #온난화 #지구 #기온 #협정 #환경 #보상 #법칙 #뇌파 #의료 #추론