AI는 왜 자꾸 틀릴까?

지능의 한계가 아닌 입력값(Input)의 해상도

by 담윤

"브랜드의 철학이 담긴 세련된 문구 하나만 작성해 줘."


내가 AI에게 던졌던 질문이다.

결과는 예상보다 훨씬 평범했다.

'혁신적인 가치', '미래를 향한 도약',

'함께 만드는 변화' 같은,

어디서나 볼 수 있는 기성품 문구들만 돌아왔다.

나는 실망하며 생각했다.

역시 AI는 아직 인간의 감성을 따라오지 못한다고.


하지만 그것은 착각이었다.

AI는 내 기대를 저버린 것이 아니라,

내가 준 입력값에 충실하게 반응했을 뿐이다.


관찰: '모호함'이 낳은 평균의 함정

내가 던진 질문의 키워드를 다시 뜯어보았다.

'브랜드 철학', '세련된', '문구'.

이 단어들은 언뜻 명확해 보이지만,

시스템 관점에서는 무수히 많은 확률의 집합체다.

특히 '세련된'이라는 형용사는 데이터베이스 안에서

수백만 개의 서로 다른 결과값과 연결되어 있다.

제약 조건이 없는 상태에서 AI가 선택할 수 있는

가장 안전한 전략은

'가장 높은 확률을 가진 평이한 답변'을 내놓는 것이다.


내가 질문에 감성적인 형용사를 섞을수록

AI의 답변은 점점 더 평균치에 수렴했다.

그것은 지능의 문제가 아니라,

입력값이 가진 '해상도(Resolution)'의 문제였다.


분석: 해석의 범위를 좁히지 못한 결과

AI는 의미를 이해하기보다 확률을 계산한다.

내가 "세련된 문구를 써달라"고 요청했을 때,

'세련된'이라는 단어는 시스템이 해석해야 할

데이터의 범위를 급격히 넓혔다.

내가 의도한 세련됨이 '미니멀리즘'인지,

'화려함'인지 정의하지 않았기에 AI는 길을 잃고

가장 흔한 데이터, 즉 클리셰를 선택한 것이다.


결국 AI의 무능함은, 질문자가 설계하지 못한 논리의

빈틈을 시스템이 확률로 메우려다 발생하는

부작용에 가깝다.


재설계: 형용사를 빼고 '조건'을 넣다

나는 사고의 방식을 바꿨다. 화면 속 질문에서

모든 형용사를 지우고, 명사와 제약만 남겼다.

느낌을 묻지 않고, 결과의 조건을 정의하기로 한 것이다.

변경 전: 세련된 브랜드 문구 작성해 줘.

변경 후: * 대상: 20대 후반의 1인 가구.

: 감성적 비유 배제, 간결한 명사형 종결문.

핵심 가치: '불필요한 시간을 줄여주는 도구'.

금지어: 혁신, 미래, 가치, 도약.

나는 AI에게 '분위기'를 구걸하는 대신,

결과값이 지켜야 할 '경계선(Boundary)'을

그려주었다.


변화: 도구의 주도권을 되찾다

변화는 선명했다. AI는 더 이상 "미래를 향한 혁신"을

말하지 않았다. 대신 "당신의 10분을 위해

불필요한 동선을 지웠습니다"라는 식의,

내가 설계한 구조 안에서 정교하게

정제된 답변을 내놓았다.

질문에서 감정을 덜어내고 구조를 이식하자,

AI는 비로소 날카로운 도구가 되었다.


나는 더 이상 AI의 답변을 보며 실망하지 않는다.

답변이 모호하다면 그것은 AI의 지능이 부족해서가

아니라, 내 설계도의 '해상도'가 낮기 때문임을

알기 때문이다.

설계도가 모호하면, 결과도 모호해질 수밖에 없다.


3줄 요약

• AI의 뻔한 답변은 질문의 '해상도'가 낮기 때문에 발생한다.

• 형용사는 시스템에게 해석의 혼란을 주는 데이터 노이즈다.

• 정확한 결과값은 질문자의 '감정'이 아니라 명확한 '제약 조건'에서 나온다.

화, 목, 토 연재
이전 01화나는 왜 AI의 답변이 불편했을까?