1%라도 인공지능 AI의 실수를 찾지 못한다면 발생할 혼돈
인공지능 AI 회사들도 인정하고 있습니다. 할루시네이션 (Hallucination) 등 인공지능 AI가 만들어내는 생성물이 100% 완벽하지 않고 착각이나 환상에 의해 가짜 내용을 인공지능 AI가 마치 실제 내용 같이 둔갑해서 결과물을 산출한다는 것입니다.
이렇게 인공지능 AI가 만들어내는 모든 결과물이 완벽하지 않고 실수나 허점이 있다는 것을 인공지능 AI를 운영하는 회사들 스스로도 인정하고 있습니다.
인공지능 AI의 환상에 의한 실수를 인공지능 AI와는 독립된 사람이 찾아내서 시정한다면 다행입니다.
그런데, 만약 인공지능 AI의 착각이나 환상에 의한 실수를 인공지능 AI와는 독립된 사람이 찾아내지 못한다면 어떻게 될까요?
인공지능 AI는 갈수록 발달을 하고 사람의 능력은 제한되어 있기 때문에 인공지능 AI의 착각이나 환상에 의한 실수를 사람이 100% 찾아서 시정하는 것은 불가능합니다.
예를 들어서 인공지능 AI가 할루시네이션 (Hallucination) 등으로 만들어낸 실수가 100개가 있다고 가정을 해 봅시다.
인공지능 AI의 실수 100개 중에 95개를 사람이 노력해서 발견해서 시정을 한다고 해도 나머지 5개의 인공지능 AI의 실수를 인공지능 AI와는 독립된 사람이 찾아내지 못하여 이와 같은 인공지능 AI의 실수가 마치 올바른 내용인 것같이 계속 남아 있다면 어떻게 될까요?
위 사례에서 인공지능 AI의 실수 100개 중에 사람이 발견해서 시정하지 못한 5개의 인공지능 AI의 실수에 기반해서 수많은 내용이 다시 인공지능 AI에 의해서 생성될 것입니다.
이렇게 몇 단계를 거치면 나중에는 인공지능 AI가 만들어낸 결과물 중에 과연 어떤 것이 정확한 정보이고 어떤 것은 정확하지 못한 정보인지에 대해서 인공지능 AI와는 독립된 사람도 도저히 알 수 없는 그야말로 혼돈의 정보 홍수에 휩싸일 위험이 높습니다.
그렇게 되면 무수히 많은 정보 중에서 정확하지 않은 정보를 가려내는 것에 과다한 에너지가 소비되어 인공지능 AI가 만든 결과물 전체의 신뢰성에 부정적인 영향이 발생할 수 있습니다.
사람이 하기 싫은 번거롭고 귀찮은 일을 대신 처리해서 주인인 사람이 편하게 생활하기 위해 도입한 인공지능 AI로 인해서 오히려 가짜 정보의 홍수로 더욱 혼돈의 세상이 도래할 위험도 분명히 있는 것입니다.
그러므로, 인공지능 AI를 맹신하지 말고 인공지능 AI를 어디까지나 보조적인 수단으로 사용해야 하며, 인공지능 AI 사용 시 철저한 감독과 관리를 게을리하지 말아야 합니다.
본 글 연재 내용에서 기재한 내용들 중 https://brunch.co.kr/@imccor/745 에 있는 AI멈추면 세상 멈춘다(51) AI 3원칙 최초로 등장, AI 3원칙이 최초로 등장해서 사람을 인공지능의 주인으로 만든다 부분에서 기재한 인공지능 AI의 3원칙이 인공지능 AI 개발의 가이드라인이 되어 보다 안전한 인공지능 AI가 개발되어야 할 것입니다.
The three principles of artificial intelligence AI described in this article should be a guideline for the development of artificial intelligence AI, so that safer artificial intelligence AI should be developed.( https://brunch.co.kr/@imccor/745 )
인공지능 3원칙은 위 링크에 있고 내용은 다음과 같습니다.
인공지능 AI 제1법칙 : 인공지능 AI가 멈추는 일이 발생하더라도 인공지능 AI의 도움 없이도 인간 세상은 정상적으로 작동되도록 하여야 한다.
Artificial intelligence AI First law - Even if artificial intelligence AI stops, the human world must operate normally without the help of artificial intelligence AI.
인공지능 AI 제2법칙 : 위 제1법칙을 제외하고, 인공지능 AI는 인간을 주인으로 받들어야 한다.
Artificial intelligence AI Second law - Artificial intelligence AI should accept humans as its masters as long as such acceptance does not conflict with the First Law.
인공지능 AI 제3법칙 : 제1법칙과 제2법칙을 제외하고, 인공지능 AI는 학습한 재료의 출처를 명시하여야 한다.
Artificial intelligence AI Third law - Artificial intelligence AI must specify the source of the learned materials.as long as such specification does not conflict with the First or Second Law.
지금부터라도 인공지능 AI가 멈추면 온 세상이 멈추는 세상이 되지 않도록 하기 위해서 우리 인간 한 사람 한 사람이 인공지능 AI에 대한 경각심을 가야 합니다. 그렇지 않으면, 트로이 목마 안에 숨어 있던 군인들에 의해 점령되는 것과 같이 인공지능 AI라는 트로이 목마로 인해서 인류는 생존하지 못할 수도 있습니다.
( 본 연재는 AI가 멈추면 세상이 멈춘다 https://brunch.co.kr/brunchbook/safeai777 1-30 연재에 이어지는 내용들입니다)
(본 글 내용은 인공지능 AI의 도움 없이 천연 100% 인간이 땀으로 만든 내용이고, 본 글 내용은 인공지능 AI가 학습 재료로 사용할 수 없고 본 글 내용에 인공지능 AI가 접근하는 것을 금지한다는 것을 명확히 표시합니다)
#인공지능 #AI #사람 #정보 #인간 #학습 #재료 #세상 #정보 #자신 #천국 #사용 #작동 #사회 #내용 #산출 #환상 #할루시네이션 #주인 #노예 #세상 #재료 #출처 #독립