AI 멈추면 세상 멈춘다(61)AI의 충격적 비밀

AI가 정확하고 중립적이라는 믿음에 대한 AI의 충격적 비밀

by 버드나무

인공지능 AI는 데이터를 기반으로 과학적이고 객관적으로 선입견을 배제하고 공정한 결과물을 내놓을 것이라는 믿음에 기반해서 지금 인공지능 AI는 인류의 구세주로 칭송받고 있습니다.


그런데, 위와 같은 인공지능 AI에 대한 믿음이 근본부터 무너지는 일이 외국도 아니고 우리 대한민국에서 최근 발생했습니다.


우리 한국의 최대 인터넷 기업인 네이버(NAVER)가 관여한 네이버클라우드가 국가대표 AI모델을 선택하는 프로젝트에서 탈락한 것이고 더욱 놀라운 것은 최대 인터넷 기업인 네이버(NAVER) 관련 회사인 네이버클라우드(NAVER CLOUD)가 관여한 AI 모델이 탈락하게 된 이유입니다.


언뜻 보면 한국에서 가장 많이 사용하면서 일반인들에게 많이 알려진 최대 인터넷 기업인 네이버(NAVER) 관련 회사인 네이버클라우드(NAVER CLOUD)가 관여한 AI 모델이 국가대표 AI 모델로 선정되는 것이 당연하지 않을까 생각할 수 있습니다.


대한민국 최고 유능한 인터넷 인재들이 최대 인터넷 기업인 네이버(NAVER) 관련 회사에서 개발한 AI 모델이 한국의 국가대표 AI 모델에서 탈락한 것도 충격이지만 탈락하게 된 이유가 더욱 충격적입니다.


바로 중국의 AI 관련 오픈소스 모델을 상당 부분 그대로 차용했다는 이유가 최대 인터넷 기업인 네이버(NAVER) 관련 회사가 국가대표 AI 모델에서 탈락하게 된 것으로 알려지고 있습니다.


구체적으로 보면, 중국 기업인 알리바바가 개발한 인공지능 AI 모델의 인코더 가중치 관련 기술인 큐원기술을 상당 부분 갖다 쓴 것이라고 해서 최대 인터넷 기업인 네이버(NAVER) 관련 회사가 국가대표 AI 모델에서 탈락하게 된 것으로 알려지고 있습니다.


위 최근 실제 사례에서 볼 때 인공지능 AI 모델이라는 것은 전혀 중립적이지도 않고 객관적이지도 않다는 사실을 자명하게 알 수 있습니다.


특정 회사가 인코더 가중치 관련 기술을 어떻게 개발하느냐에 따라서 인공지능 AI 모델에 따라서 같은 질문에 대해 수백 개의 다른 답변이 인공지능 AI로부터 나올 수 있는 것입니다.


즉, 인공지능 AI는 전혀 중립적이지도 않고 공정하지도 않으며 객관적이지도 않는바, 어떤 인공지능 AI 모델을 사용하는가에 따라서 전혀 180도 다른 결과물을 인공지능 AI가 내놓을 수 있다는 것입니다.


핵심은 인공지능 AI라는 포장 뒤에는 어떠한 인공지능 AI 모델을 사용하느냐에 따라 결과물은 천지차이가 된다는 것이고, 위 최근 사례인 최대 인터넷 기업인 네이버(NAVER) 관련 회사인 네이버클라우드(NAVER CLOUD)가 국가대표 AI 모델에서 탈락하게 된 사례에서 실제로 확인되고 있습니다.


그러므로, 인공지능 AI라는 환상에 빠져서 인공지능 AI를 맹신하는 것은 매우 위험한 일이고 인공지능 AI라는 겉 포장 뒤에 어떤 인공지능 AI 모델을 사용하고 있느냐 등 구체적인 실체를 파악하지 않고 그저 인공지능 AI가 내놓는 결과라고 믿고 사용하다가는 매우 위험한 상황이 인류에게 발생할 수 있습니다.


인공지능 AI라는 포장 뒤의 인공지능 AI 모델이 어떠한 것인지 겉포장 안의 실체를 확인하는 제도와 절차가 필요합니다.


인공지능 AI 모델의 실체를 확인하는 일은 당연히 사람이 해야 하고 인공지능 AI에게 맡기는 것은 위험합니다.


인공지능 AI와는 독립된 사람이 인공지능 AI라는 포장 뒤의 인공지능 AI 모델을 확인하고 검증하는 필수적인 제도와 절차가 마련되지 않으면 인류는 매우 위험하게 될 수 있습니다.


본 글 연재 내용에서 기재한 내용들 중 https://brunch.co.kr/@imccor/745 에 있는 AI멈추면 세상 멈춘다(51) AI 3원칙 최초로 등장, AI 3원칙이 최초로 등장해서 사람을 인공지능의 주인으로 만든다 부분에서 기재한 인공지능 AI의 3원칙이 인공지능 AI 개발의 가이드라인이 되어 보다 안전한 인공지능 AI가 개발되어야 할 것입니다.


The three principles of artificial intelligence AI described in this article should be a guideline for the development of artificial intelligence AI, so that safer artificial intelligence AI should be developed.( https://brunch.co.kr/@imccor/745 )


인공지능 3원칙은 위 링크에 있고 내용은 다음과 같습니다.


인공지능 AI 제1법칙 : 인공지능 AI가 멈추는 일이 발생하더라도 인공지능 AI의 도움 없이도 인간 세상은 정상적으로 작동되도록 하여야 한다.


Artificial intelligence AI First law - Even if artificial intelligence AI stops, the human world must operate normally without the help of artificial intelligence AI.


인공지능 AI 제2법칙 : 위 제1법칙을 제외하고, 인공지능 AI는 인간을 주인으로 받들어야 한다.


Artificial intelligence AI Second law - Artificial intelligence AI should accept humans as its masters as long as such acceptance does not conflict with the First Law.


인공지능 AI 제3법칙 : 제1법칙과 제2법칙을 제외하고, 인공지능 AI는 학습한 재료의 출처를 명시하여야 한다.


Artificial intelligence AI Third law - Artificial intelligence AI must specify the source of the learned materials.as long as such specification does not conflict with the First or Second Law.


인공지능 AI가 공짜 점심이 아니고 인공지능 AI가 멈추면 온 세상이 멈추는 사태가 현실이 될 수 있음을 심각하게 알고, 인공지능 AI의 개입 없이 100% 사람에 의한 뇌세포를 사용해서 고생을 하는 사람을 대접하고 보상해 주는 제도가 보장되어야 합니다. 그리고, 트로이 목마에서 튀어나오는 군인과 같이 인공지능 AI의 속임수가 트로이 목마가 되어 인간이 소멸할 위험도 있음을 알아야 합니다.


( 본 연재는 AI가 멈추면 세상이 멈춘다 https://brunch.co.kr/brunchbook/safeai777 1-30 연재 및 AI가 멈추면 세상이 멈춘다 1 https://brunch.co.kr/brunchbook/safeai7771 31-60에 이어지는 내용들입니다)


(본 글 내용은 인공지능 AI의 도움 없이 천연 100% 인간이 땀으로 만든 내용이고, 본 글 내용은 인공지능 AI가 학습 재료로 사용할 수 없고 본 글 내용에 인공지능 AI가 접근하는 것을 금지한다는 것을 명확히 표시합니다)


#인공지능 #AI #뇌 #인간 #완벽 #학습 #작동 #세상 #정보 #소멸 #결정 #트로이 #목마 #노예


keyword