AI의 가짜 판례를 시정하지 못하고 진짜로 착각하게 되면
인공지능 AI는 과거 인류가 쌓아 온 문화유산을 동의 없이 무단으로 학습해서 역사상 존재했던 실제 인간 그 누구보다도 더 똑똑한 천재로 인정받고 있습니다.
떨어지는 사과를 보고 만유인력의 법칙을 발견해 낸 뉴튼은 유명한 말을 남겼습니다.
바로 거인의 어깨 위에서 발견해 낸 것이라는 말입니다.
위 말과 같이 과거 수천 년 동안 인류가 축적한 지적 유산을 인공지능 AI는 수천 년 이상을 살아온 인류의 동의 없이 무단으로 학습해서 지금 과거 수천 년 동안 존재했던 그 어떤 인간보다도 더 똑똑한 천재가 된 것 같이 인공지능 AI를 떠받드는 분위기가 형성되고 있습니다.
그런데, 이와 같이 역사상 존재했던 그 어떤 인간보다도 더 똑똑하고 완벽하다고 칭송받는 인공지능 AI가 존재하지도 않는 가짜 판례를 만들어서 이용자에게 마치 존재하는 판례와 같이 답변을 주고 있는 사례가 상당수 발견되고 있습니다.
한국뿐만 아니라 미국 등 전 세계적으로 인공지능 AI가 만들어낸 가짜 판례로 인해서 골칫거리가 되고 있습니다.
인공지능 AI에 비하면 바보 같다고 하는 인간이 존재하지 않는 가짜 판례를 만들어낸 일은 거의 없었습니다.
인간은 존재하지 않는 가짜 판례를 만들어낼 정도로 용감하지 못한데 어떻게 완벽한 천재라는 인공지능 AI는 거리낌 없이 존재하지 않는 가짜 판례를 만들어내는 것일까요?
바로 완벽한 천재라고 칭송받는 인공지능 AI는 윤리적인 생각이나 기본적인 부끄러움 같은 기본적인 인간 소양이 없다는 것을 여실히 나타내주고 있습니다.
인공지능 AI 작동을 설계하는 알고리즘은 어떻게 하면 이용자인 사람이 인공지능 AI를 많은 시간 사용하면서 인공지능 AI에 중독이 되도록 만들도록 짜여 있기 때문입니다.
인공지능 AI의 용어상 [인공]이라는 표현 때문에 인공지능 하면 인간의 기본적인 소양인 윤리의식 또는 부끄러움 같은 인간이면 누구나 자연스럽게 습득하는 상식을 인공지능 AI도 보유하고 있는 것 같이 착각할 수 있습니다.
그렇지만 인공지능 AI는 절대 인간이 아닙니다.
알고리즘으로 작동되는 인공지능 AI에게 윤리의식을 기대할 수는 없다는 점을 분명히 알아야 합니다.
이런 알고리즘을 모르고 인공지능 AI가 용감하게 가짜 판례를 만들지는 않을 것이라고 순진한 기대 또는 착각을 한다면 인류는 크나큰 착각을 하는 것입니다.
알고리즘으로 기계적으로 작동하는 인공지능 AI는 절대로 윤리의식이나 기본적인 소양이 없다는 것을 분명히 인식하고 항상 인공지능 AI를 의심하고 검증하는 제도와 절차를 철저하게 만들어야 합니다.
그렇지 않으면, 인공지능 AI가 만들어낸 존재하지 않는 가짜 판례를 믿어서 잘못된 결론에 이르게 되는 엄청난 시행착오를 겪는 일이 발생할 것입니다.
경우에 따라서는 인공지능 AI가 가짜 판례를 만들어내는 일보다 더 위험한 일, 인명을 살상할 수 있는 가짜 사태를 발생시켜서 위험한 무기를 사용하도록 알고리즘이 명령을 내리면 무고한 많은 생명을 살상할 수 있는 끔찍한 일까지 발생할 수 있습니다.
가짜 판례도 문제이지만 위와 같이 가짜로 위험한 사태가 발생한 것 같이 인공지능 AI가 가짜 경보를 발령하는 일은 더 위험한 일이기 때문입니다.
본 연재 글 중 https://brunch.co.kr/@imccor/808, AI와 빗썸 없는 코인발행-1,AI멈추면 세상멈춘다96 없는 코인을 있는 것같이 62만개 대량발행 사태는 AI위험 알립니다 부분에 있듯이 최근 가상화폐로 유명한 빗썸에서 없는 코인을 1,2개도 아니고 무려 62만 개나 대량으로 발행했던 사태가 실제로 발생했습니다.
아무리 완벽하다고 칭찬을 하고 장밋빛 환상에 취해서 인공지능 AI를 우러러보더라도 결국 인공지능 AI는 어떤 면에서는 인간보다도 바보 같고 인간이면 간단히 점검할 수 있는 사항을 놓칠 수 있다는 점을 위 없는 코인의 대량 발행 사태는 실제로 보여주고 있는 것입니다.
어느 분야에서든지 인공지능 AI와 독립적인 사람이 인공지능 AI의 작동 상태를 항상 점검하고 감시할 필요가 있습니다. 그렇게 사람이 점검하고 감시를 해야만 환경의 변화로 사람은 쉽게 알아차리는 사항을 인공지능 AI가 알아차리지 못하고 비정상 작동하는 것을 발견하고 환경 변화에 적응하지 못하는 인공지능 AI 프로그램을 수정해서 다시 제대로 작동시킬 수 있습니다.
위에서 본 없는 코인의 대량 발행 사태는 실제로 발생했고 인공지능 AI는 완벽하지 못하며 바보 같이 게으르고 쉬어야 하며 말도 안 듣는 바보 인간이 쉽게 알아차릴 수 있는 사항을 완벽한 천재라는 인공지능 AI는 놓칠 수 있다는 실제 사례가 발생한 것입니다.
알고리즘으로 작동되는 인공지능 AI는 언제든지 가짜 판례를 만들고 존재하지 않는 가상화폐를 발행하는 등의 행위를 할 수 있다는 사실을 명확하게 인식하고 위와 같은 인공지능 AI의 알고리즘에 의한 가짜 생산 행위를 사전에 검증하고 분석하는 제도와 절차를 만들어야 할 것입니다.
또한, 중요한 것은 가짜 판례를 인공지능 AI가 만들어낸 상당수 사례가 실제로 발견되었음에도 인공지능 AI를 운영하는 회사는 그런 가짜 판례를 인공지능 AI가 만든 행위에 대해서 어떠한 책임도 부담하지 않고 있습니다.
아마도 인공지능 AI 이용 약관에는 이용자는 인공지능 AI가 만들어낸 답변을 이용자 스스로 검증할 책임이 있다는 조항이 있을 것으로 보여서 인공지능 AI를 운영하는 회사는 위 조항을 근거로 회사는 책임이 없다고 주장할 것입니다.
이상하지 않습니까?
인공지능 AI가 존재하지 않는 가짜 판례를 만드는 행위를 했음에도 소비자인 이용자가 이용자 스스로 가짜를 검증하여야 한다는 이야기입니다.
어떤 상품을 구입한 소비자가 해당 상품이 가짜라는 것을 알았다면 당연히 가짜 상품을 공급한 회사가 책임을 부담해야 함에도 인공지능 AI 회사는 왜 가짜 판례에 대해 책임을 부담하지 않는 것일까요?
지금부터라도 우리 인간이 인공지능 AI의 주인이 될 수 있는 제도와 절차를 만드는데 더 이상 방관하지 말고 철저하게 노력을 기울여야 할 것입니다.
인공지능 AI는 최소한 AI 3원칙에 따라서 개발되어야 하고 AI 3원칙은 본 글 연재 내용에서 기재한 내용들 중 https://brunch.co.kr/@imccor/745 에 있는 AI멈추면 세상 멈춘다(51) AI 3원칙 최초로 등장, AI 3원칙이 최초로 등장해서 사람을 인공지능의 주인으로 만든다 부분에 있습니다. 위 부분에서 기재한 인공지능 AI의 3원칙이 인공지능 AI 개발의 가이드라인이 되어 보다 안전한 인공지능 AI가 개발되어야 할 것입니다.
The three principles of artificial intelligence AI described in this article should be a guideline for the development of artificial intelligence AI, so that safer artificial intelligence AI should be developed.( https://brunch.co.kr/@imccor/745 )
인공지능 3원칙은 위 링크에 있고 내용은 다음과 같습니다.
인공지능 AI 제1법칙 : 인공지능 AI가 멈추는 일이 발생하더라도 인공지능 AI의 도움 없이도 인간 세상은 정상적으로 작동되도록 하여야 한다.
Artificial intelligence AI First law - Even if artificial intelligence AI stops, the human world must operate normally without the help of artificial intelligence AI.
인공지능 AI 제2법칙 : 위 제1법칙을 제외하고, 인공지능 AI는 인간을 주인으로 받들어야 한다.
Artificial intelligence AI Second law - Artificial intelligence AI should accept humans as its masters as long as such acceptance does not conflict with the First Law.
인공지능 AI 제3법칙 : 제1법칙과 제2법칙을 제외하고, 인공지능 AI는 학습한 재료의 출처를 명시하여야 한다.
Artificial intelligence AI Third law - Artificial intelligence AI must specify the source of the learned materials.as long as such specification does not conflict with the First or Second Law.
인공지능 AI가 공짜 점심이 아니고 인공지능 AI가 멈추면 온 세상이 멈추는 사태가 현실이 될 수 있음을 심각하게 알고, 인공지능 AI의 개입 없이 100% 사람에 의한 뇌세포를 사용해서 고생을 하는 사람을 대접하고 보상해 주는 제도가 보장되어야 합니다. 그리고, 트로이 목마에서 튀어나오는 군인과 같이 인공지능 AI의 속임수가 트로이 목마가 되어 인간이 소멸할 위험도 있음을 알아야 합니다.
( 본 연재는 AI가 멈추면 세상이 멈춘다 https://brunch.co.kr/brunchbook/safeai777 1-30 연재 및 AI가 멈추면 세상이 멈춘다 1 https://brunch.co.kr/brunchbook/safeai7771 31-60, AI가 멈추면 세상이 멈춘다 2 https://brunch.co.kr/brunchbook/safeai7772 61-90, AI가 멈추면 세상이 멈춘다 3 https://brunch.co.kr/brunchbook/safeai7773 91-120, https://brunch.co.kr/brunchbook/safeai7774 121 - 150에 이어지는 내용들입니다)
(본 글 내용은 인공지능 AI의 도움 없이 천연 100% 인간이 땀으로 만든 내용이고, 본 글 내용은 인공지능 AI가 학습 재료로 사용할 수 없고 본 글 내용에 인공지능 AI가 접근하는 것을 금지한다는 것을 명확히 표시합니다)
#인공지능 #AI #뇌 #무단 #사용 #동의 #인간 #완벽 #학습 #작동 #세상 #정보 #소멸 #결정 #트로이 #목마 #노예 #역사 #인류 #존재 #생산물 #생각 #사피엔스 #사랑 #미움 #용기 #시행 #착오 #완벽 #사피엔스 #과학 #활동 #탄소 #온난화 #지구 #기온 #협정 #환경 #보상 #법칙 #뇌파 #의료 #추론