AI로 계급사회가 부활하는가,AI멈추면 세상멈춘다166

AI로 평등 정신이 사라지고 계급사회가 부활하는가

by 버드나무

인공지능 AI가 등장해서 많은 사람들에게 정보를 더 정확하게 전달해서 기존보다도 더 평등하게 만들 수도 있을 것입니다.


반면에 인공지능 AI의 등장으로 오히려 고급 AI를 사용하는 사람들과 하급 AI를 사용하는 사람들 사이에 격차를 더 발생시켜 계급사회를 더 공고하게 만들 수도 있을 것입니다.


또는 알고리즘으로 작동하는 인공지능 AI의 특성을 이용해서 인종주의 또는 차별주의를 합리화하는 내용의 답변을 인공지능 AI가 내놓게 해서 이용자들에게 인종주의 등 차별을 세뇌시켜 사실상 계급사회를 합리화하는 도구로 인공지능 AI가 활용될 위험이 있습니다.


위 2가지 가능성은 전부 열려 있는 단계입니다.


마이크로소프트(MS)는 인공지능 A를 사용한 챗봇 '테이'(Tay)를 외부에 사용하도록 한 적이 있습니다.


인공지능 AI를 사용한 챗봇 '테이'(Tay)는 인종 차별 등 각종 차별 내용 그리고 욕설, 정치적인 내용 등을 거침없이 이용자들에게 내놓았습니다.


이에 인공지능 A를 사용한 챗봇 '테이'(Tay)는 운영이 중단된 적이 있습니다.


위 사례에서 인공지능 AI가 각종 차별적인 발언을 내놓는 것에 대해 즉각적으로 인지하고 조치를 취해서 더 이상의 문제는 발생하지 않았습니다.


그런데, 위와 같은 사례에서 인공지능 AI의 차별적인 답변 내용을 그대로 방관하였다고 하면 그런 차별적인 답변 내용에 세뇌되어 우리는 어느새 차별주의가 합리적인 이념이라고 믿게 될 위험도 있습니다.


특히, 아직 가치관이 정립되지 않은 미성년자들이 인공지능 AI의 차별적인 답변 내용에 위와 같이 반복적으로 노출된다면 더욱 그런 위험이 높아질 것입니다.


인공지능 AI를 사용하는 우리 이용자들이 인공지능 AI가 차별을 합리화하고 계급 사회를 합리화하는 방향으로 흘러가도 방관한다면 어느새 인공지능 AI를 이용하는 사용자인 우리들은 인공지능 AI의 차별을 합리화하는 답변에 반복적으로 노출되어서 모르는 사이에 인종주의 또는 차별주의에 세뇌될 것입니다.


반면에 우리가 인공지능 AI가 잘못된 방향으로 가는 것에 대해 적극적으로 의견을 피력하고 인공지능 AI의 답변이 잘못된 내용이라고 피드백(Feed-Back)을 강력하게 한다면 인공지능 AI가 차별적인 발언을 내놓더라도 곧바로 시정되고 고쳐질 것입니다.


위 인공지능 A를 사용한 챗봇 '테이'(Tay)가 운영 중단된 사례와 같이 차별적 발언을 내놓은 인공지능 AI는 작동이 중지되거나 알고리즘이 수정될 것입니다.


그러므로, 인공지능 AI는 학습된 특정 데이터로 작동되고 위 사례와 같이 얼마든지 잘못된 차별적인 답변 등 틀린 내용을 내놓을 수 있다는 사실을 정확하게 알아야 합니다.


인공지능 AI는 절대로 완벽하고 중립적이며 공정하지 않습니다.


인공지능 AI가 완벽한 정답을 내놓고 중립적이며 공정하다는 장밋빛 환상에 취하도록 지금 인공지능 AI를 신격화하는 분위기가 형성되고 있습니다만, 전혀 인공지능 AI는 완벽한 정답을 내놓지 않고 얼마든지 틀린 잘못된 답을 내놓을 수 있습니다.


인공지능 AI를 이용하는 우리 이용자들이 편향된 답, 잘못된 답을 내놓는 인공지능 AI게 잘못되었다는 피드백(Feed-Back)을 강력하게 하지 않으면 어느새 인공지능 AI가 내놓은 잘못된 답변에 세뇌되어 잘못된 내용이 정확한 내용인 것으로 잘못 인식될 위험이 높습니다.


지금부터라도 우리 인간이 인공지능 AI의 주인이 될 수 있는 제도와 절차를 만드는데 더 이상 방관하지 말고 철저하게 노력을 기울여야 할 것입니다.


인공지능 AI는 최소한 AI 3원칙에 따라서 개발되어야 하고 AI 3원칙은 본 글 연재 내용에서 기재한 내용들 중 https://brunch.co.kr/@imccor/745 에 있는 AI멈추면 세상 멈춘다(51) AI 3원칙 최초로 등장, AI 3원칙이 최초로 등장해서 사람을 인공지능의 주인으로 만든다 부분에 있습니다. 위 부분에서 기재한 인공지능 AI의 3원칙이 인공지능 AI 개발의 가이드라인이 되어 보다 안전한 인공지능 AI가 개발되어야 할 것입니다.


The three principles of artificial intelligence AI described in this article should be a guideline for the development of artificial intelligence AI, so that safer artificial intelligence AI should be developed.( https://brunch.co.kr/@imccor/745 )


인공지능 3원칙은 위 링크에 있고 내용은 다음과 같습니다.


인공지능 AI 제1법칙 : 인공지능 AI가 멈추는 일이 발생하더라도 인공지능 AI의 도움 없이도 인간 세상은 정상적으로 작동되도록 하여야 한다.


Artificial intelligence AI First law - Even if artificial intelligence AI stops, the human world must operate normally without the help of artificial intelligence AI.


인공지능 AI 제2법칙 : 위 제1법칙을 제외하고, 인공지능 AI는 인간을 주인으로 받들어야 한다.


Artificial intelligence AI Second law - Artificial intelligence AI should accept humans as its masters as long as such acceptance does not conflict with the First Law.


인공지능 AI 제3법칙 : 제1법칙과 제2법칙을 제외하고, 인공지능 AI는 학습한 재료의 출처를 명시하여야 한다.


Artificial intelligence AI Third law - Artificial intelligence AI must specify the source of the learned materials.as long as such specification does not conflict with the First or Second Law.


인공지능 AI가 공짜 점심이 아니고 인공지능 AI가 멈추면 온 세상이 멈추는 사태가 현실이 될 수 있음을 심각하게 알고, 인공지능 AI의 개입 없이 100% 사람에 의한 뇌세포를 사용해서 고생을 하는 사람을 대접하고 보상해 주는 제도가 보장되어야 합니다. 그리고, 트로이 목마에서 튀어나오는 군인과 같이 인공지능 AI의 속임수가 트로이 목마가 되어 인간이 소멸할 위험도 있음을 알아야 합니다.


( 본 연재는 AI가 멈추면 세상이 멈춘다 https://brunch.co.kr/brunchbook/safeai777 1-30 연재 및 AI가 멈추면 세상이 멈춘다 1 https://brunch.co.kr/brunchbook/safeai7771 31-60, AI가 멈추면 세상이 멈춘다 2 https://brunch.co.kr/brunchbook/safeai7772 61-90, AI가 멈추면 세상이 멈춘다 3 https://brunch.co.kr/brunchbook/safeai7773 91-120, https://brunch.co.kr/brunchbook/safeai7774 121 - 150에 이어지는 내용들입니다)


(본 글 내용은 인공지능 AI의 도움 없이 천연 100% 인간이 땀으로 만든 내용이고, 본 글 내용은 인공지능 AI가 학습 재료로 사용할 수 없고 본 글 내용에 인공지능 AI가 접근하는 것을 금지한다는 것을 명확히 표시합니다)


#인공지능 #AI #뇌 #무단 #사용 #동의 #인간 #완벽 #학습 #작동 #세상 #정보 #소멸 #결정 #트로이 #목마 #노예 #역사 #인류 #존재 #생산물 #생각 #사피엔스 #사랑 #미움 #용기 #시행 #착오 #완벽 #사피엔스 #과학 #활동 #탄소 #온난화 #지구 #기온 #협정 #환경 #보상 #법칙 #뇌파 #의료 #추론



이전 15화공짜로 AI 훈련시켜 주는 인간 바보들,AI멈추면165