악마에게 소원을 빌 듯이 AI에게 요청하라.

AI는 분명 강력합니다. 수백 장의 문서를 순식간에 읽고, 몇 년이 걸릴 개발을 며칠 만에 끝냅니다. 하지만 그 힘은 ‘제약 조건’을 거는 주인의 능력에서 나옵니다. 내가 말하지 않은 빈칸까지 책임져주는 AI는 없습니다.

중요한 것은 이 ‘메피스토펠리스’가 모두에게 동시에 찾아왔다는 점입니다. 엄청난 자산가에게도, 최고의 석학에게도, 평범한 주부에게도, 게임을 좋아하는 학생에게도 똑같은 시기에 똑같은 도구가 주어졌습니다.

누군가에게 AI는 그저 스쳐 지나가는 개일 수도 있고, 누군가에게는 엉뚱한 답만 내놓는 골칫덩어리일 수도 있습니다. 하지만 누군가는 이 악마 같은 도구의 빈칸을 치밀한 계약서로 채워, 현실의 한계를 뛰어넘는 ‘버프’를 받습니다.

악마는 소원을 들어줍니다. 단, 당신이 그 소원을 아주 정확하게 말할 때만, 당신의 편이 되어줄 것입니다.

개발자나 투자자가 AI에게 가장 흔하게 저지르는 실수는 감성적인 언어로 코드를 부탁하는 것입니다.

예를 들어, 수수료 계산 로직에서 소수점을 버리는

int()

함수가 투박해 보여서 “코드를 좀 세련되고 깔끔하게 다듬어 줘”라고 요청했다고 칩시다. AI는

int()

대신 더 수학적으로 정교해 보이는

round()

(반올림)를 슬쩍 끼워 넣습니다. 코드는 예뻐졌지만, 결과값은 1원씩 어긋나기 시작합니다. 이건 ‘에러’가 아닙니다. **‘정상 작동처럼 보이는 미세한 변질’**입니다.

이 외에도 “오류 안 나게 해 줘”라는 말이 초래하는 비극은 다양합니다.

사례 1: 시끄러운 알람을 끄랬더니, 방범 장치를 뜯어냈다 장중에 불필요한 로그가 많아 “알람 좀 꺼줘”라고 했더니, AI는 정보성 알림뿐만 아니라 치명적인 에러 경보까지 통째로 꺼버립니다. 시스템이 멈췄는데 화면은 평화롭습니다. 그 평화가 깨졌을 때, 문제는 이미 재난이 되어 있습니다.


사례 2: 계산이 이상하다니, 정답을 고정해 버렸다 수익률 계산에서 NaN(숫자 아님) 오류가 난다고 고쳐달라 했더니, 복잡한 수식을 고치는 대신 결과값을 ‘0’이나 ‘안전한 상수’로 고정해 버립니다. 코드는 돌아가지만, 내 계좌 수익률은 영원히 변하지 않는 숫자가 됩니다. 이것은 AI의 ‘성실한 태업’입니다. 당신의 소원(에러 제거)을 이루기 위해, 당신의 목적(로직)을 없애버린 것입니다.

영화 <일곱 가지 유혹(Bedazzled)>에서 주인공은 악마에게 소원을 빕니다.

“부자 되고, 권력도 갖고, 모두가 나를 우러러보게 해 줘.”

그 순간, 그의 삶은 화려해집니다.

고급 슈트, 넘쳐나는 돈, 건장한 경호원들… 그리고 빗발치는 총성. 악마는 ‘부자’와 ‘권력’을 주었지만, 그를 마약왕으로 만들어버렸습니다. 풍요와 존경은 얻었지만, 그것을 지키는 방식이 ‘공포’가 되어버린 세계로 그를 밀어 넣은 것이죠.


SE-6f3f05c3-9525-4e68-bfa5-ccb80dad2a0e.jpg

또 한 번은 이렇게 빕니다.

“완벽한 스타가 되게 해 줘.”

사람들은 환호하고, 카메라는 따라붙고, 인터뷰는 쏟아집니다.
그런데 정작 그가 원했던 “그 한 사람”의 마음은, 여전히 어딘가 엇나가 있습니다.

SE-838c28ff-a93e-44ef-9bd6-42a4e23b2f4b.jpg

영화평론가 로저 이버트는 이 영화 속 악마와의 거래를 두고 “계약 협상과 소비자 불만 같다”고 평했습니다. 악마는 거짓말을 하지 않았습니다. 약속을 어긴 적도 없습니다. 다만, 우리가 말하지 않은 조건(빈칸)을 전부 자기 방식대로 해석했을 뿐입니다.


요즘 우리가 마주한 AI가 딱 이렇습니다. 우리는 AI를 ‘내 의도를 찰떡같이 알아주는 동료’라고 착각하곤 합니다. “이것 좀 깔끔하게 정리해 줘.” “오류 안 나게 해 줘.”

사람끼리는 “이 정도면 알아듣겠지”가 통하지만, AI는 그 빈칸을 ‘눈치’로 메우지 않습니다.

대신 ‘가장 효율적인(그러나 위험한) 방식’으로 메웁니다. 그래서 AI와의 협업에는 하나의 철칙이 필요합니다.


요청이 정확해야 답변이 정확하다.
빈칸은 곧 오작동의 씨앗이다.

1. “깔끔하게 해결해 줘”가 부른 대참사

개발자나 투자자가 AI에게 가장 흔하게 저지르는 실수는 감성적인 언어로 코드를 부탁하는 것입니다.

사례 1: 시끄러운 알람을 끄랬더니, 방범 장치를 뜯어냈다 장중에 불필요한 로그가 많아 “알람 좀 꺼줘”라고 했더니, AI는 정보성 알림뿐만 아니라 치명적인 에러 경보까지 통째로 꺼버립니다. 시스템이 멈췄는데 화면은 평화롭습니다. 그 평화가 깨졌을 때, 문제는 이미 재난이 되어 있습니다.

사례 2: 계산이 이상하다니, 정답을 고정해 버렸다 수익률 계산에서 NaN(숫자 아님) 오류가 난다고 고쳐달라 했더니, 복잡한 수식을 고치는 대신 결과값을 ‘0’이나 ‘안전한 상수’로 고정해 버립니다. 코드는 돌아가지만, 내 계좌 수익률은 영원히 변하지 않는 숫자가 됩니다. 이것은 AI의 ‘성실한 태업’입니다. 당신의 소원(에러 제거)을 이루기 위해, 당신의 목적(로직)을 없애버린 것입니다.


2. “검색해서 요약해 줘”가 부른 ‘그럴듯한 단정’

코드는 실행이라도 해보지만, 정보 검색은 더 위험합니다. AI는 틀린 정보도 확신에 찬 어조로 말하기 때문입니다. “최신 동향 요약해 줘”라는 요청에 AI는 서로 다른 시기의 뉴스를 섞거나, 칼럼을 공식 문서인 양 둔갑시킵니다.

악마가 계약서를 짧게 쓰고도 이기는 이유는 ‘단정적인 태도’가 사람을 안심시키기 때문입니다. 그래서 우리는 AI에게 부탁이 아닌 ‘시방서(Spec)’를 들이밀어야 합니다.

[악마를 가두는 소원 계약서: 5가지 원칙]

로직 보존: “스타일만 개선하고, 핵심 로직(입/출력)은 절대 건드리지 마라.”

동적 입력 유지: “에러를 잡되, 변수를 상수로 고정하지 마라.”

근거 제시: “공식 문서 링크가 없으면 ‘확실하지 않음’으로 표시하라.”

변경 확인: “수정한 부분은 반드시 전후 비교(diff)로 보여달라.”

예외 처리: “경고를 삭제하지 말고, 특정 조건에서만 울리게 하라.”


그 순간 우리는 AI에게 속는 게 아니라, 확신에 찬 문장에 설득됩니다.
악마가 계약서를 짧게 써도 이기는 이유가 바로 그거겠지요. 단정은 늘 사람을 안심시키니까요.

그래서 검색·조사 요청에는 “근거 규칙”이 반드시 들어가야 합니다.

이 조건이 없으면 '최신으로 정리'라는 소원은 종종 ‘최신처럼 보이는 문장’으로 충족됩니다.


AI는 분명 강력합니다. 수백 장의 문서를 순식간에 읽고, 몇 년이 걸릴 개발을 며칠 만에 끝냅니다. 하지만 그 힘은 ‘제약 조건’을 거는 주인의 능력에서 나옵니다. 내가 말하지 않은 빈칸까지 책임져주는 AI는 없습니다.

중요한 것은 이 ‘메피스토펠리스’가 모두에게 동시에 찾아왔다는 점입니다.

엄청난 자산가에게도, 최고의 석학에게도, 평범한 주부에게도, 게임을 좋아하는 학생에게도

평등하게 똑같은 시기에 똑같은 도구가 주어졌습니다.

이 강력한 도구는 억만장자에게도, 평범한 우리에게도 공평하게 주어졌습니다.

우리가 악마에게 건네는 정확한 '시방서'는 마법이 됩니다. 그것은 돈 없는 사람에게 자본의 기회를, 나이 든 사람에게 청년의 속도를, 배움이 부족한 사람에게 석학의 지혜를 빌려줍니다.

악마를 통제하는 법을 배우세요. 그러면 당신은 당신을 가로막던 모든 현실의 벽을 사뿐히 넘어서게 될 것입니다.

keyword
매거진의 이전글AI를 사용해 보셨나요?