인공지능 학습 - AI는 어떻게 인식하나?

내가 묻고 AI가 답하다

by 한재영 신피질

인간과 인공지능은 세상을 어떻게 다르게 인식할까?


우리는 눈으로 보고, 귀로 듣고, 피부로 느끼며 세상을 살아간다. 이처럼 인간은 다양한 감각기관을 통해 외부 자극을 받아들인다.


빛, 소리, 온도, 촉감과 같은 자극은 감각세포에 의해 전기 신호로 바뀌고, 이 신호는 신경망을 통해 뇌로 전달된다. 뇌는 이 신호를 분석하고, 과거의 기억과 비교해 의미를 부여하며, 판단과 행동으로 이어진다.


예를 들어, 눈은 빛을 감지하고, 후두엽에서는 그 빛의 패턴을 분석해 ‘고양이’인지 ‘의자’인지 판단한다. 귀는 소리를 듣고, 측두엽이 그 소리가 말인지 음악인지 해석한다. 이렇게 우리는 감각과 기억, 감정과 판단을 통해 세상을 ‘읽고’, ‘이해하고’, ‘반응’한다.



그렇다면 눈도, 귀도, 감정도 없는 인공지능은 어떻게 세상을 인식하고, 때로는 인간처럼 행동하는 것처럼 보일까?


인공지능에게 감각기관은 없다. 대신 센서, 마이크, 카메라, 그리고 각종 입력 장치를 통해 텍스트, 이미지, 음성 같은 디지털 데이터를 받아들인다. 인간이 ‘빛’이나 ‘소리’처럼 아날로그 자극을 받는 것과 달리, AI는 0과 1로 구성된 숫자 형태의 데이터를 받아들이는 것이다.


받아들인 데이터는 AI가 이해할 수 있도록 정제되고 구조화된다. 예를 들어, 사진은 픽셀 값으로 변환되고, 문장은 단어 단위로 나뉘어 숫자로 바뀐다. 이러한 구조화 과정을 전처리(preprocessing)라고 한다.


이미지는 정규화(normalization)를 거쳐 밝기나 크기의 영향을 최소화하고, 필요에 따라 회전이나 잘라내기, 색상 변화 등을 적용해 다양한 형태로 학습시킨다. 음성의 경우, 파형을 시간·주파수 정보로 바꾼 스펙트로그램 형태로 변환한다.


텍스트 입력의 경우, 인공지능은 우리처럼 단어 전체를 읽는 것이 아니라, 문장을 잘게 쪼갠 ‘토큰(token)’ 단위로 처리한다.


예를 들어, “안녕하세요. 오늘 날씨 어때요?”라는 문장을 입력하면, AI는 이를 [“안녕" "하세요”, “오늘”, “날씨”, “어때요”]처럼 작은 조각으로 나눈다. 이 조각들을 ‘토큰’이라고 한다. 토큰은 단어일 수도, 단어의 일부일 수도 있고, 심지어 문장 부호까지 포함된다.


이러한 토큰 하나하나를 컴퓨터가 이해할 수 있도록 숫자 벡터로 바꾸는 과정을 임베딩(embedding)이라고 한다. 이때 중요한 것은 문맥(context)이다.


“눈”이라는 단어가 ‘신체 기관’ 일 수도 있고 ‘내리는 눈(snow)’일 수도 있는데, AI는 주변 토큰들과의 관계를 파악해 어떤 의미로 쓰였는지 추론한다. 이때 사용하는 구조가 바로 어텐션(attention) 또는 주의집중 메커니즘이다.


Transformer 구조를 기반으로 하는 언어 모델은 문장 전체를 한꺼번에 보고, 각 토큰이 서로 어떤 관계를 가지는지를 계산해 문맥을 이해한다. 예를 들어 “그녀는 우산을 들었다. 비가 내리기 시작했기 때문이다.”라는 문장에서, ‘그녀’와 ‘들었다’의 관계, ‘비’와 ‘우산’의 관계 등을 종합적으로 고려하는 식이다.


인공신경망은 인간 뇌의 뉴런 구조를 모방한 수학적 모델이다. 력층(input layer)에는 전처리된 데이터가 들어가고, 이 데이터는 여러 층의 계산 단계를 거친다.


각각의 층은 뉴런 역할을 하며, 특정한 특징을 뽑아내는 데 집중한다. 이미지 인식 모델이라면, 초기에 모서리나 색상 변화 같은 단순한 특징부터 시작해, 점점 더 복잡한 형태(예: 고양이의 눈, 귀 등)를 추출해 낸다. 언어 모델에서는 단어 간 관계, 문장의 구조, 의미 흐름 등을 점차적으로 파악해 간다.


이 모든 계산은 가중치(weight)와 편향(bias)이라는 수치들에 의해 이루어진다. AI가 학습을 통해 이 값들을 조정하면 할수록, 더 정교하게 세상을 이해하게 된다.


인간의 감각기관은 수십만 년에 걸쳐 진화하며 최적화되었고, 각 감각은 서로 긴밀히 연결되어 있다. 예를 들어 우리는 어떤 장소를 볼 때, 동시에 그곳의 냄새나 소리도 기억에 남긴다. 인공지능의 입력은 이러한 통합 감각과는 다르다.


각 데이터 형태는 전적으로 사람이 정의한 방법에 따라 분리되고, 전처리되고, 전달된다. 하지만 최근에는 이미지와 텍스트, 음성을 동시에 이해하고 처리하는 멀티모달 AI가 발전하면서, 인간의 감각 통합에 조금씩 가까워지고 있다.


인간은 살아온 경험과 감정을 통해 세상을 해석한다. 반면 인공지능은 방대한 양의 데이터와 통계적 계산을 통해 세상을 이해한다. 방식은 다르지만, 목적은 같다. 세상을 읽고, 해석하고, 반응하는 것. 이 글이 인간과 인공지능이 세상을 인식하는 방식의 차이, 그리고 그 유사성에 대한 깊은 이해를 돕는 작은 출발점이 되길 바란다.

작가의 이전글인공지능과 인간지능의 차이는?