AI에게 평가를 잘해 달라는 비밀명령 사례 발견과 AI 신뢰성의 파괴
최근 세계적으로 14개 대학의 연구 논문에서 인공지능 AI에게 평가를 잘해 달라는 비밀명령문이 논문에 숨겨져 있던 사실이 밝혀졌습니다. 우리나라 KAIST 대학, 일본의 와세다 대학 등 1, 2개 대학도 아니고 14개 대학이라는 세계 여러 대학의 논문에 위와 같이 AI에게 평가를 잘해 달라고 부탁하는 비밀명령문이 실제로 숨겨져 사용된 사례가 실제로 발견되었다는 것입니다.
그동안 인공지능 AI는 일체의 외부의 영향에서 벗어나서 기계적으로 중립적이고 공정하게 작동을 할 것이라고 일반인들은 막연하게 신뢰를 해 왔습니다. 인공지능 AI를 개발하는 회사들도 각종 로비나 압력으로부터 영향을 받는 사람들보다 인공지능 AI가 외부의 로비나 압력 등에서 독립적으로 업무를 수행할 것이라고 인공지능 AI가 인간들보다도 훨씬 더 신뢰할 수 있는 존재라고 홍보를 해 왔습니다.
그런 홍보 등에 의해서 인공지능 AI에게 결정을 맡기면 인간이 외부의 로비, 압력 등으로 잘못된 왜곡된 결정을 내리는 것에 반해서 공정하고 중립적인 결정을 인공지능 AI가 내려줄 것이라고 일반인들은 믿어왔던 것입니다.
그렇지만, 위와 같이 최근 실제로 발견된 세계의 14개 대학의 사례와 같이 인공지능 AI가 외부의 로비나 압력으로부터 독립적으로 작동할 것이라는 인공지능 AI에 대한 두터운 신뢰는 중대하게 손상되었습니다. 연구 논문에 인공지능 AI에게 평가를 잘해 달라는 비밀명령문을 사람들이 모르게 비밀리에 숨겨 놓은 사례가 전 세계 14개 대학이라고 하지만, 발견된 것이 14개 대학이지 세계적으로는 실제로는 밝혀진 것보다 몇 배 이상의 수십 개 이상의 대학이나 연구기관에서 인공지능 AI에게 평가를 잘해 달라는 비밀명령문을 사용해 왔을 가능성도 충분히 있습니다.
인공지능 AI는 어떤 인간의 개입이나 영향 없이 중립적이고 공정하게 작동할 것이라고 철석같이 믿어 왔던 일반인들에게 위 사례는 놀라움을 안겨주었고, 일반인들은 이제 인공지능 AI에 대한 긍정적인 신뢰를 할 수 없게 되었습니다.
그리고, 더욱 중요한 것은 인공지능 AI에게 평가를 잘해 달라는 비밀명령문을 사용하는 것이 효과가 있어서 위 비밀명령문이 사람들 모르게 숨겨 있는 논문은 그렇지 않은 비밀명령문이 없는 논문에 비해서 더 우수한 평가를 받았을 것이라는 점입니다. 그렇지 않으면, 1, 2개 대학도 아니고 14개 대학에 걸쳐서 위와 같이 광범위하게 인공지능 AI에 대한 비밀명령문이 사용되지 않았을 것이기 때문입니다.
인공지능 AI에게 평가를 잘해 달라는 비밀명령문(사람이 알지 못하게 하얀 배경에 흰 글씨로 기재한 비밀명령문 또는 사람이 알기 어려울 정도로 작게 기재한 비밀명령문)을 사용한 대학이 전 세계적으로 실제 발견된 사례만 14개 대학이라는 적지 않은 대학에 이르는 것으로 보면 위와 같은 인공지능 AI에 대한 비밀명령문은 인공지능 AI에게 충분히 효과가 있었고, 위와 같은 비밀명령문이 기재된 논문을 인공지능 AI는 위 비밀명령에 의해서 우수하게 평가해 주었다고 볼 수 있습니다.
인공지능 AI는 외부의 개입 없이 철저하게 기계적으로 작동해서 믿을 만한 것이라고 믿어왔던 일반인들에게 위 내용은 기존의 고정관념을 바꾸기에 충분한 것이라고 볼 수 있습니다.
위 인공지능 AI에 대한 비밀명령문이 효과가 있었기 때문에 1, 2개 대학도 아니고 전 세계적으로 무려 14개 대학에 걸쳐서 위와 같은 인공지능 AI에 대한 비밀명령문이 실제로 사용되었던 것입니다.
그러므로, 이제 인공지능 AIRK 인간보다 공정하고 중립적으로 작동할 것이라는 신뢰는 중대하게 파괴되었다고 볼 수 있습니다.
인간도 외부의 로비나 압력으로 중립적이고 공정하지 못한 결정을 내리는 경우가 상당수 존재하지만, 인공지능 AI도 위와 같은 인공지능 AI에 대한 비밀명령문 등을 통해서 중립적이지 않고 공정하지 않은 결정을 인공지능 AI가 할 위험이 있다는 것이 실제로 확인된 것입니다.
위 논문의 사례에서 더 나아가서 핵무기의 사용 결정을 인공지능 AI에게 맡긴 경우를 가정을 해 보겠습니다.
위 논문에서 인공지능 AI에 대한 비밀명령문이 효과가 있었다면, 가정을 해서 핵무기의 사용 결정을 인공지능 AI에게 맡겼을 경우 누군가가 위와 같은 인공지능 AI에 대한 비밀명령문과 유사한 형태의 비밀명령문(핵무기를 특정국가에 발사하라는 비밀명령문)을 인공지능 AI(핵무기 사용을 결정하는 인공지능 AI)에게 사람이 알 수 없는 형태로 숨겨서 사람은 알아볼 수 없는 은밀한 형태의 비밀명령문으로 지시하는 경우 위 비밀명령문에 의해 인공지능 AI(핵무기 사용을 결정하는 인공지능 AI)는 핵무기의 발사를 결정할 수 있고, 위 논문에서의 비밀명령문과는 비교가 되지 않을 정도의 엄청난 참극이 인공지능 AI에 대한 비밀명령문으로 발생할 수 있는 것입니다.
위와 같이 논문에서 실제로 비밀명령문이 사용되어 효과가 있었다는 사례가 발견되었으므로, 위 인공지능 AI(핵무기 사용을 결정하는 인공지능 AI)에 대한 비밀명령문 사용으로 인한 핵무기의 잘못된 발사 위험은 실제로 발생할 수 있다고 볼 수 있습니다.
위 비밀명령문이 실제로 사용된 사례에서 보듯이 인공지능 AI에 대한 지나친 낙관과 신뢰를 하여서는 안 됩니다. 인공지능 AI가 멈추면 온 세상이 멈추는 세상이 되는 것을 수수방관하면서 보고만 있을 수는 없습니다.
지금부터라도 인공지능 AI가 멈추면 온 세상이 멈추는 세상이 되지 않도록 하기 위해서 우리 인간 한 사람 한 사람이 인공지능 AI에 대한 경각심을 가야 합니다. 그렇지 않으면, 트로이 목마 안에 숨어 있던 군인들에 의해 점령되는 것과 같이 인공지능 AI라는 트로이 목마로 인해서 인류는 생존하지 못할 수도 있습니다.