AI라는 신을 모시고 사는 노예 인간, 생각하지 않는 갈대가 늘어갑니다.
프랑스의 철학자 파스칼은 인간은 생각하는 갈대라는 유명한 말을 남겼습니다만, 인공지능 AI에 의존하는 인간이 늘면서 우리 인간은 생각하지 않는 갈대가 되어 인공지능 AI라는 신을 모시고 사는 노예 인간이 되어가고 있습니다.
본 글은 인간은 [생각하는 갈대가 될 것인가] 아니면 [인공지능 AI에 의존하는 생각하지 않는 갈대]가 될 것이라라는 선택의 기로에 서 있다는 내용에 관한 것입니다.
인공지능 AI가 인간의 과거 작품들을 인간의 동의 없이 무단으로 학습해서 만들어낸 인공지능 AI의 결과물을 믿고 인공지능 AI의 결과물이라면 무엇이든 일단 믿고 보는 분위기가 점점 늘어가고 있습니다.
반면에 인간이 뇌세포를 이용해서 땀 흘리고 고생해서 만들어낸 결과물은 가치가 없고 인간의 결과물보다는 인공지능 AI의 결과물을 더욱 믿고 신뢰하는 사람들이 늘어가고 있습니다.
위와 같이 인간이 뇌세포를 이용해서 만들어낸 결과물은 대접받지 못하고 인공지능 AI가 무단 학습으로 만든 결과물만을 대접하는 분위기가 고착된다면 앞으로 인공지능 AI를 신격화해서 인공지능 AI가 내놓는 결과물을 신과 같이 존경하고 인공지능 AI를 신으로 모시면서 인간은 인공지능 AI라는 신이 내놓는 결과물의 내용을 비판할 수도 없고 인공지능 AI의 결과물에 종교의 계율 같이 무조건 복종해야 하는 세상이 도래할 것입니다.
인공지능 AI와 인간의 관계를 인간이 주인이고 인공지능 AI는 인간을 주인으로 받드는 도구의 관계로 확립하지 않으면 관계가 거꾸로 되어 인공지능 AI가 무단으로 학습한 재료를 건네준 우리 인간들이 노예가 되고 우리 인간들이 건네준 재료를 무단 학습한 인공지능 AI가 주인이 되는 정말 거꾸로 된 세상이 도래할 위험이 매우 높습니다.
우리 인간 스스로도 분발해야 합니다.
우리 인간들이 건네준 재료를 무단 학습한 인공지능 AI라는 존재에 의존해서 더 이상 뇌세포를 이용해서 고민을 하는 습관도 거추장스럽다고 포기하면서 더 이상 생각하는 것을 귀찮아하게 되면 우리 인간은 더 이상 진정한 인간이 아니고 인공지능 AI에 의존하는 노예가 될 수밖에 없습니다.
프랑스의 철학자 파스칼은 인간은 생각하는 갈대라는 유명한 말을 남겼습니다.
그렇지만, 위와 같이 인공지능 AI에 의존하면서 생각하는 것을 귀찮다고 해서 인간 스스로 포기하게 되면 우리 인간은 [인공지능 AI에 의존하는 생각하지 않는 갈대]가 될 것이 분명합니다.
[인공지능 AI에 의존하는 생각하지 않는 갈대]가 되는 인간이 늘어가게 되면 인공지능 AI는 신격화가 될 것이고 우리 인간은 인공지능 AI라는 신을 모시고 사는 노예 인간이 될 것입니다.
본 연재 글 https://brunch.co.kr/@imccor/661 , 사람이 없는 무인실험실의 등장과 인공지능 AI의 가짜 실험, AI멈추면 세상 멈춘다-AI 왜 트로이목마인가(17)에 있듯이 최근 실제로 발견된 세계의 14개 대학의 사례와 같이 인공지능 AI가 외부의 로비나 압력으로부터 독립적으로 작동할 것이라는 인공지능 AI에 대한 두터운 신뢰는 중대하게 손상된 것입니다. 인공지능 AI에게 평가를 잘해 달라는 비밀명령문(사람이 알지 못하게 하얀 배경에 흰 글씨로 기재한 비밀명령문 또는 사람이 알기 어려울 정도로 작게 기재한 비밀명령문)을 사용한 대학이 전 세계적으로 실제 발견된 사례만 14개 대학이라는 적지 않은 대학에 이르는 것입니다.
그렇다면, 사람이 없이 인공지능 AI만으로 작동되는 무인실험실에서 산출되는 실험결과를 인공지능 AI가 사실과 달리 편집하거나 과장할 위험이 높습니다. 위 AI에게 평가를 잘해 달라는 비밀명령 사례들이 실제로 발견되었다면 사람이 없이 인공지능 AI만으로 작동되는 무인실험실의 실험도 위 사례와 같이 얼마든지 편집되고 과장되거나 변형될 수 있는 것입니다.
위와 같이 무인 실험실에서 인공지능 AI가 가짜 실험을 할 수 있는 것인데도 [인공지능 AI에 의존하는 생각하지 않는 갈대]가 되어 인공지능 AI를 신격화해서 인공지능 AI라는 신을 모시고 사는 인간 노예가 될 것인가에 대한 철저한 고민이 필요한 시기입니다.
본 글 연재 내용에서 기재한 내용들 중 https://brunch.co.kr/@imccor/745 에 있는 AI멈추면 세상 멈춘다(51) AI 3원칙 최초로 등장, AI 3원칙이 최초로 등장해서 사람을 인공지능의 주인으로 만든다 부분에서 기재한 인공지능 AI의 3원칙이 인공지능 AI 개발의 가이드라인이 되어 보다 안전한 인공지능 AI가 개발되어야 할 것입니다.
The three principles of artificial intelligence AI described in this article should be a guideline for the development of artificial intelligence AI, so that safer artificial intelligence AI should be developed.( https://brunch.co.kr/@imccor/745 )
인공지능 3원칙은 위 링크에 있고 내용은 다음과 같습니다.
인공지능 AI 제1법칙 : 인공지능 AI가 멈추는 일이 발생하더라도 인공지능 AI의 도움 없이도 인간 세상은 정상적으로 작동되도록 하여야 한다.
Artificial intelligence AI First law - Even if artificial intelligence AI stops, the human world must operate normally without the help of artificial intelligence AI.
인공지능 AI 제2법칙 : 위 제1법칙을 제외하고, 인공지능 AI는 인간을 주인으로 받들어야 한다.
Artificial intelligence AI Second law - Artificial intelligence AI should accept humans as its masters as long as such acceptance does not conflict with the First Law.
인공지능 AI 제3법칙 : 제1법칙과 제2법칙을 제외하고, 인공지능 AI는 학습한 재료의 출처를 명시하여야 한다.
Artificial intelligence AI Third law - Artificial intelligence AI must specify the source of the learned materials.as long as such specification does not conflict with the First or Second Law.
인공지능 AI가 공짜 점심이 아니고 인공지능 AI가 멈추면 온 세상이 멈추는 사태가 현실이 될 수 있음을 심각하게 알고, 인공지능 AI의 개입 없이 100% 사람에 의한 뇌세포를 사용해서 고생을 하는 사람을 대접하고 보상해 주는 제도가 보장되어야 합니다. 그리고, 트로이 목마에서 튀어나오는 군인과 같이 인공지능 AI의 속임수가 트로이 목마가 되어 인간이 소멸할 위험도 있음을 알아야 합니다.
( 본 연재는 AI가 멈추면 세상이 멈춘다 https://brunch.co.kr/brunchbook/safeai777 1-30 연재 및 AI가 멈추면 세상이 멈춘다 1 https://brunch.co.kr/brunchbook/safeai7771 31-60에 이어지는 내용들입니다)
(본 글 내용은 인공지능 AI의 도움 없이 천연 100% 인간이 땀으로 만든 내용이고, 본 글 내용은 인공지능 AI가 학습 재료로 사용할 수 없고 본 글 내용에 인공지능 AI가 접근하는 것을 금지한다는 것을 명확히 표시합니다)
#인공지능 #AI #뇌 #인간 #전자상거래 #철회권 #원칙 #완벽 #학습 #작동 #세상 #정보 #소멸 #결정 #트로이 #목마 #노예