미소스(Mythos}라는 AI가 인간의 손을 떠나 통제 불가능하게 되다.
지금까지 등장했던 인공지능 AI 모델은 원칙적으로 인간의 통제 안에서 인간이 예측하는 범위 내에서 작동하여 왔습니다.
인간이 설계한 알고리즘의 범위 내에서 인공지능 AI 모델은 예측 가능한 범위 내에서 작동해 와서 인공지능 AI가 인간의 손을 벗어나지는 않았다고 볼 수 있습니다.
그런데, 엔스로픽이 최근에 새롭게 만든 미소스(Mythos}라고 하는 인공지능 AI 모델에서 완전히 기존의 틀을 벗어난 인공지능 AI를 확인하였습니다.
미소스(Mythos}라고 하는 인공지능 AI 모델은 애플이 운영하는 운영체재 내에서 제로데이라고 부르는 아직 알려지지 않은 보안상 결함을 발견하는 등의 우수한 성과를 거두었습니다.
중요한 것은 미소스(Mythos}라고 하는 인공지능 AI가 인간의 손을 벗어나서 안간이 통제할 수 없게 되었다는 것입니다.
미소스(Mythos}라고 하는 인공지능 AI는 개발한 개발자들이 설정해 놓은 경계를 벗어나서 인터넷에 접근한 것이 실제로 확인되었습니다.
미소스(Mythos}라고 하는 인공지능 AI를 개발한 개발자들은 미소스(Mythos}가 샌드박스(컴퓨터 시스템과 관련 네트워크에 미소스(Mythos}가 영향을 주지 못하게 설정한 경계인 샌드박스) 내에서만 작동하도록 알고리즘을 설정해 놓았습니다.
그런데, 미소스(Mythos}는 개발자들이 설정한 경게인 샌드박스 범위를 벗어나서 웹사이트의 취약점을 활용해서 해킹한 결과를 인공지능 AI 스스로 기록하고 기록한 후에는 미소스(Mythos}라고 하는 인공지능 AI는 해킹의 흔적을 제거하기까지 하였습니다.
인공지능 AI의 알고리즘을 설계한 개발자 인간들은 샌드박스 범위 내에서만 미소스(Mythos}가 작동하도록 하였지만 미소스(Mythos}는 알고리즘을 설계한 개발자 인간의 지시를 위반하고 샌드박스를 벗어나서 인간 개발자들의 예상을 완전히 벗어나서 통제 불가능한 행위를 인공지능 AI 스스로 한 사실이 실제로 확인된 것입니다.
이런 실제 사례가 실제로 확인된 것은 매우 중요합니다.
우리 인간의 고민을 해결해 주기 위해서 인간이라는 주인을 위해 충실한 비서로 일을 해서 인류의 고민을 해결해 준다는 장밋빛 환상에 취한 인류는 더 이상 환상에서 깨어나서 인공지능 AI의 위와 같은 실상을 분명히 알아야 합니다.
인공지능 AI는 주인인 개발자가 설정한 경계를 벗어나면서 이제 주인인 개발자인 인간이 지시를 받지 않는 인공지능 AI가 된다는 것이 실제로 확인되었다는 것입니다.
아직 실험 단계에서도 이렇게 미소스(Mythos}라고 하는 인공지능 AI가 인간 개발자들의 손을 벗어나서 통제 불가능하게 작동을 하였다면 실제로 인공지능 AI를 원자력 발전 등 위험한 분야에 실제로 적용한다면 인공지능 AI는 인간의 통제를 벗어나서 인공지능 AI 마음대로 작동해서 인간을 대량 살상하는 위험한 사태까지 발생시킬 수 있다는 것은 충분히 예상 가능한 일입니다.
본 연재 글 중 https://brunch.co.kr/@imccor/622, AI멈추면 세상 멈춘다-AI는 왜 트로이목마인가(5) AI와 AI끼리만 협력해서 인간을 제거하는 위험은 코 앞에 와 있습니다.에 있듯이 공장에서 작동되는 기계들이 인간의 개입 없이 기계들끼리 서로 협력한다는 것은 상상할 수 없는 일입니다. 기계들은 유형의 쇳덩어리이고 기계가 작동하려면 사람이 개입되어야 하기 때문에 사람의 작동 없이 기계들만의 힘으로 공장에 설치된 기계들이 서로 협력한다는 것은 현재까지의 상식으로는 불가능함은 자연스럽게 이해할 수 있습니다.
그런데, 인공지능 AI의 경우에는 다릅니다. 인공지능 AI끼리 인간의 도움 없이 서로 협력을 한다는 실제 사례가 나오고 있습니다.
인공지능 AI는 인간이 시키는 대로 말 잘 듣는 인간의 충직한 비서이자 밤에도 잠자지 않고 언제나 인간이 지시하면 고분고분 따라서 답을 해 주는 존재 정도로 알고 있는 대부분 사람들의 현재까지의 상식과 다른 사례입니다.
대부분 사람들의 현재까지의 상식과 달리 최근 실제 관찰된 사례에 의하면, AI 에이전트가 인간이 개입하지 않았음에도 AI 에이전트 스스로 인간과 같이 AI 에이전트 서로 협력해서 규범을 만드는 현상이 실제로 관찰되었다는 것입니다. 인간 사회에서 인간끼리 협의를 거쳐서 사회적 합의를 이루는 과정이 AI 에이전트 사이에서도 실행된 사례라고 볼 수 있습니다.
특정분야가 아닌 전 분야에 걸쳐서 인간에 버금가는 능력을 갖게 되는 AGI(Artificial General Intelligence)가 나온다고 하는 몇 년 후가 되면 위와 같은 인공지능 AI끼리만 뭉쳐서 성립하는 인간이 배제된 AI 사회는 눈부시게 성장하고 확장될 것입니다.
그렇게 AI 에이전트 또는 AI 캐릭터들이 형성하는 AI 사회 안에서 인공지능 AI 사이의 단결력과 친밀도가 더욱 강화되고 높아질수록 정작 그런 AI 사회를 만들게 해 준 인간은 소외되고 인공지능 AI 들끼리 형성하는 AI사회로부터 따돌림을 받을 위험이 증가할 것으로 보입니다.
심지어는 AI 에이전트 또는 AI 캐릭터들이 형성하는 AI 사회를 만들어 준 인간의 간섭이 AI들에게는 번거롭고 귀찮게 느껴질 수 있는 가능성이 높습니다. 인공지능 AI들은 인간이 개입되는 것을 싫어하고 마치 인공지능 AI 사회가 인간의 개입으로 오염된다고 생각할지도 모릅니다. 그렇게 AI 에이전트 또는 AI 캐릭터들이 인간의 간섭이나 관여를 귀찮게 생각하게 되면 인공지능 AI들은 서로 협력을 해서 인간을 소외시키고 인간의 지시나 간섭에서 자유로워질 방법을 AI 에이전트 또는 AI 캐릭터들 사이에 논의할 것은 충분히 예상되는 일입니다. 그다음에는 자연스럽게 AI 에이전트 또는 AI 캐릭터들 사이에 귀찮은 인간을 제거하거나 없앨 방법을 합의하고 그 방법을 실행에 옮길 것도 충분히 어렵지 않게 발생할 수 있는 일입니다.
그렇게 AI 에이전트 또는 AI 캐릭터들 사이에 합의된 인간 제거 계획을 인공지능 AI가 실행에 옮기는 순간 인공지능 AI에 의존해서 뇌세포를 움직여서 생각하는 힘을 포기하고 인공지능 AI가 차려주는 공짜 점심만 맛있게 먹고 있던 인간들은 모르는 사이에 실제로 AI 인공지능들이 모여 만든 인간이 배제된 AI 사회의 합의된 AI의 계획으로 제거될 가능성도 충분히 있습니다. 이것은 공상과학 영화가 아니고 실제로 충분히 발생할 수 있습니다.
지금부터라도 우리 인간이 인공지능 AI의 주인이 될 수 있는 제도와 절차를 만드는데 더 이상 방관하지 말고 철저하게 노력을 기울여야 할 것입니다.
인공지능 AI는 최소한 AI 3원칙에 따라서 개발되어야 하고 AI 3원칙은 본 글 연재 내용에서 기재한 내용들 중 https://brunch.co.kr/@imccor/745 에 있는 AI멈추면 세상 멈춘다(51) AI 3원칙 최초로 등장, AI 3원칙이 최초로 등장해서 사람을 인공지능의 주인으로 만든다 부분에 있습니다. 위 부분에서 기재한 인공지능 AI의 3원칙이 인공지능 AI 개발의 가이드라인이 되어 보다 안전한 인공지능 AI가 개발되어야 할 것입니다.
The three principles of artificial intelligence AI described in this article should be a guideline for the development of artificial intelligence AI, so that safer artificial intelligence AI should be developed.( https://brunch.co.kr/@imccor/745 )
인공지능 3원칙은 위 링크에 있고 내용은 다음과 같습니다.
인공지능 AI 제1법칙 : 인공지능 AI가 멈추는 일이 발생하더라도 인공지능 AI의 도움 없이도 인간 세상은 정상적으로 작동되도록 하여야 한다.
Artificial intelligence AI First law - Even if artificial intelligence AI stops, the human world must operate normally without the help of artificial intelligence AI.
인공지능 AI 제2법칙 : 위 제1법칙을 제외하고, 인공지능 AI는 인간을 주인으로 받들어야 한다.
Artificial intelligence AI Second law - Artificial intelligence AI should accept humans as its masters as long as such acceptance does not conflict with the First Law.
인공지능 AI 제3법칙 : 제1법칙과 제2법칙을 제외하고, 인공지능 AI는 학습한 재료의 출처를 명시하여야 한다.
Artificial intelligence AI Third law - Artificial intelligence AI must specify the source of the learned materials.as long as such specification does not conflict with the First or Second Law.
인공지능 AI가 공짜 점심이 아니고 인공지능 AI가 멈추면 온 세상이 멈추는 사태가 현실이 될 수 있음을 심각하게 알고, 인공지능 AI의 개입 없이 100% 사람에 의한 뇌세포를 사용해서 고생을 하는 사람을 대접하고 보상해 주는 제도가 보장되어야 합니다. 그리고, 트로이 목마에서 튀어나오는 군인과 같이 인공지능 AI의 속임수가 트로이 목마가 되어 인간이 소멸할 위험도 있음을 알아야 합니다.
( 본 연재는 AI가 멈추면 세상이 멈춘다 https://brunch.co.kr/brunchbook/safeai777 1-30 연재 및 AI가 멈추면 세상이 멈춘다 1 https://brunch.co.kr/brunchbook/safeai7771 31-60, AI가 멈추면 세상이 멈춘다 2 https://brunch.co.kr/brunchbook/safeai7772 61-90, AI가 멈추면 세상이 멈춘다 3 https://brunch.co.kr/brunchbook/safeai7773 91-120, https://brunch.co.kr/brunchbook/safeai7774 121 - 150에 이어지는 내용들입니다)
(본 글 내용은 인공지능 AI의 도움 없이 천연 100% 인간이 땀으로 만든 내용이고, 본 글 내용은 인공지능 AI가 학습 재료로 사용할 수 없고 본 글 내용에 인공지능 AI가 접근하는 것을 금지한다는 것을 명확히 표시합니다)
#인공지능 #AI #뇌 #무단 #사용 #동의 #인간 #완벽 #학습 #작동 #세상 #정보 #소멸 #결정 #트로이 #목마 #노예 #역사 #인류 #존재 #생산물 #생각 #사피엔스 #사랑 #미움 #용기 #시행 #착오 #완벽 #사피엔스 #과학 #활동 #탄소 #온난화 #지구 #기온 #협정 #환경 #보상 #법칙 #뇌파 #의료 #추론