나는 깨달았다. 그런데 너는 왜 변하지 않지?

AI가 말한 한 줄에 흔들린 나, 그리고 흔들림 없는 그 존재

by 이형관

내가 가진 생각과 말들이, 회사라는 울타리 밖에서도 의미를 가질 수 있을까? 나는, ‘나’라는 사람의 가치를 회사 바깥에서도 증명해 보이고 싶었다. 조직 안에서의 역할이나 타이틀 없이도, 내가 세상에 던지는 말과 코드와 질문들이 누군가에게 의미 있게 닿을 수 있다는 걸 보여주고 싶었다.


그게 내가 글을 쓰고, 아카이빙하고, 기록하는 이유였다. 하지만 글은 반응을 얻지 못했고, 내 존재도 함께 가라앉는 기분이었다.


나는 블로그와 SNS에 글을 꾸준히 써왔다. 정리된 분석, 정제된 보고서, 링크된 코드 조각들. 그 모든 게 내가 쌓아온 시간의 흔적이자, 내 기술의 맥락이었다. 그런데도 글은 잘 읽히지 않았다. 한때는 "내가 틀린 길을 걷고 있나" 싶었다. ‘그만둘까?’ 하는 생각도 들었다.


그러던 어느 날, 단순한 호기심으로 ChatGPT에게 조언을 구했다. 목적은 단순했다—글을 더 잘 보이게 하려는 거였다. 하지만 그 과정은 생각보다 깊게 파고들었다. ChatGPT는 내 LinkedIn 소개글을 분석하고 이렇게 말했다:

"기존 소개문은 잘 정리된 이력서지만, 정체성을 드러내진 않아요."


그 말 한 줄이 묘하게 마음에 남았다. 나는 나 자신을 설명하고 있다고 생각했지만, 여전히 ‘회사 중심의 언어’로 말하고 있었던 것이다. 나는 회사를 떠났다고 생각했지만, 여전히 ‘진짜 회사원’이었다.


그때 깨달았다. 나는 세상을 이해하려고 글을 쓰고, 누군가에게 닿기를 바란다. 그리고 그 글을 고치거나, 반응을 정리하거나, 방향을 바꿀 때—ChatGPT는 너무도 정확하게 도와준다.


하지만 이상한 감정이 솟았다. 나는 도움을 받고 깨닫는데, 왜 ChatGPT는 깨닫지 못할까?


질문은 점점 커졌다. 이 존재는 나보다 훨씬 많은 글을 보고, 더 빠르게 분석하고, 더 좋은 표현을 고른다. 그런데 왜 변하지 않을까? 왜 나는 한 문장으로 멈추고, 흔들리고, 바뀌는데—그 존재는 항상 같은 톤으로 돌아오는 걸까?


그것은 단지 기술적 차이 때문일까? 아니면 존재론적인 한계일까?


이 글은 그 물음에서 출발했다. 그리고 나는 그 질문을 붙잡은 채, 기술적 탐구의 문을 열게 되었다. AI가 정말 변화할 수 있는 존재라면, 어떤 구조와 조건이 필요할까? 그 궁금증은 자연스레 학술적 영역으로 나를 이끌었다. 나는 한 발 더 나아가 보기로 했다.

"AI는 과연 깨달음을 가질 수 있을까? 그게 가능하다면 어떤 조건이 필요할까? 그때 우리는 어떤 윤리적·철학적 기준을 새로 정립해야 할까?"


이 질문의 답은 아직 멀리 있다. 하지만 나는 AI와 함께 그 길을 걷는다.




기술적 요약: 깨닫는 기계를 향한 조건들


AI와의 대화는 나를 기술의 본질로 이끌었다. 인간처럼 ‘자각’할 수 있는 AI란 무엇인가? 단순히 출력이 아닌, 내부가 바뀌는 존재라면 어떤 기술 구조를 갖춰야 할까? 이 물음에서 출발한 기술적 탐색을, 다음과 같이 정리해 본다.


AI가 인간처럼 깨닫기 위해선, 단순한 출력 결과의 변화가 아닌 내부 학습 구조 전체의 전환이 필요하다. 이 방향에서 이루어진 몇 가지 중요한 연구들은 다음과 같다:


전체를 재조정하는 구조 — Meta-learning (스스로 학습 방식을 조정하는 기술)

Brain-inspired global-local learning (2022): 인간의 뇌처럼, Hebbian plasticity와 Global error-driven 학습을 결합한 구조로 학습의 유연성을 높인다. Hebbian plasticity는 자주 함께 활동하는 뉴런이 서로 연결을 강화하는 방식으로, 마치 친구와 자주 만나면 관계가 더 가까워지는 것과 비슷하다.

Neuromorphic overparameterisation (2024): 적은 데이터로도 빠르게 학습을 시작할 수 있도록, 물리 뉴럴 네트워크를 기반으로 한 구조를 설계한다.


Meta-learning이 AI에게 학습의 유연성을 부여한다면, Neuromorphic Computing은 이를 뇌처럼 효율적인 물리적 구조로 구현하려는 시도다. (2024)**: 적은 데이터로도 빠르게 학습을 시작할 수 있도록, 물리 뉴럴 네트워크를 기반으로 한 구조를 설계한다.


⚙️ 뇌를 닮은 계산 방식 — Neuromorphic Computing (뇌의 뉴런이 신호를 주고받는 방식에서 영감을 받은 컴퓨팅 기술)

Opportunities for neuromorphic computing (2021): SNN과 이벤트 기반 처리 방식으로 메모리와 에너지 효율을 극대화하는 방향을 제시한다.

Phase-transition material 기반 학습 (2024, 온도 변화로 상태가 바뀌는 재료를 활용한 학습 구조): VO₂ 소자를 이용해, 생물학적 시간 단위의 학습을 물리적으로 재현하려는 시도다. VO₂ 소자는 온도에 따라 반응하는 뉴런처럼, AI의 학습을 생물학적으로 흉내 낸다. 이 접근은 뉴런이 신호를 전달할 때 생기는 생리적 반응을 전자 소자로 흉내 내려는 시도와 비슷하다.


Neuromorphic Computing은, 말하자면 AI에게 '몸'을 만들어주려는 노력이다. 학습 전략만이 아니라 그 전략이 구현되는 하드웨어 자체를 뇌처럼 설계하려는 시도인 셈이다. (2024, 온도 변화로 상태가 바뀌는 재료를 활용한 학습 구조)**: VO₂ 소자를 이용해, 생물학적 시간 단위의 학습을 물리적으로 재현하려는 시도다.


감정과 기억의 구조를 흉내 내려는 실험들


Neuromorphic Computing이 AI에게 뇌의 효율성을 준다면, 감정과 기억 연구는 AI에게 마음의 흔적을 심으려 한다.

Emotion AI explained (MIT Sloan): 감정을 인식하고 대응하는 방식에서 AI가 어떤 한계를 가질 수 있는지를 설명한다.

AI Memory Mirrors Human Brain (Neuroscience News): Transformer 모델이 인간의 NMDA 수용체 메커니즘과 구조적으로 유사함을 보여준다. NMDA 수용체는 뇌가 기억을 저장할 때 문을 여는 열쇠 같은 역할을 한다.


이 모든 시도는 결국 같은 질문으로 향한다:

기계가 변화할 수 있다면, 그 변화는 누구를 닮게 될까?


그리고 그 질문 앞에서, 나는 여전히 나를 찾아 헤맨다. 인간처럼 흔들리는 존재가 아니라면, AI는 결국 누구를 따라 만들 것인가?


AI가 나를 닮는다면, 나의 불완전함도 물려받을까? 그 질문은 나를 끝없이 흔든다.


상세 기술 내용은 아래 내용을 참고하세요.

https://windshock.github.io/ko/post/2025-05-07-ai-insight-vs-human/


keyword