MIT, 합리적 인공지능을 향한 철학적 난제를 교육

2026년 2월 6일 (금)

by TEUM Lab

MIT 슈워츠먼 컴퓨팅 칼리지가 현대 컴퓨팅의 근본적인 가설에 도전하는 혁신적인 다학제적 과목 ‘AI와 합리성(AI and Rationality)’을 신설. 컴퓨터 과학의 기술적 엄밀함과 철학의 깊이 있는 통찰을 결합한 이 과정은 레슬리 켈블링(Leslie Kaelbling, 컴퓨터 과학자) 교수와 브라이언 헤든(Brian Hedden, 철학자) 교수가 이끌며, 인공 시스템이 ‘합리적’이라는 것이 진정 무엇을 의미하는지 학생들과 함께 탐구한다.


이 커리큘럼은 표준적인 공학적 지표를 넘어 대규모 언어 모델 (LLM)(*1)과 같은 시스템이 진정한 주체성을 가질 수 있는지, 혹은 그들의 의사결정이 단순히 인간 인지 능력의 제약을 모방한 결과인지를 조사하며, 특히 학생들은 비합리성이 인간의 본성이나 수학적 틀, 혹은 학습 과정 중 어디에서 기인하는지에 주목하게 된다.

이러한 관점의 전환은 미래의 개발자들이 단순히 코드에 매몰되지 않고 작업의 더 넓은 맥락을 고려하게 하며, 에이전틱 AI(*2)에 대한 보다 정교한 이해를 갖추도록 도와준다.


기술적 변화가 급격한 시대에 발맞추어, 이 과정은 고정된 교리보다는 유연한 ‘정신적 습관’을 기르는 데 중점을 두어, 인공 시스템 내에서 신념과 욕구라는 개념을 공식화함으로써, 학생들은 지능과 자율성의 정의가 끊임없이 변하는 미래를 헤쳐 나가는 법을 배운다.

실제로 이러한 탐구는 기계의 논리를 인간의 가치와 일치시켜야 하는 AI 안전성(*3) 분야에서도 필수적이며, 합리적 의사결정에 대한 깊은 철학적 이해를 요구하는 중요한 분야가 될 전망이다.


용어 풀이

*1 대규모 언어 모델 (LLM): 방대한 양의 텍스트 데이터를 학습하여 인간처럼 자연스러운 대화와 문장 생성이 가능한 AI 모델

*2 에이전틱 AI: 사용자의 개입 없이 스스로 목표를 설정하고 도구를 사용해 복잡한 작업을 수행하는 능동적인 인공지능

*3 AI 안전성: AI 시스템이 인간의 의도와 가치에 어긋나지 않게 작동하도록 설계하고 잠재적 위험을 방지하는 연구


3줄 핵심 요약

MIT 슈워츠먼 컴퓨팅 칼리지가 컴퓨터 과학과 철학적 탐구를 결합한 다학제적 교육 과정을 개설

인공 시스템의 합리적 에이전시에 대한 정의와 인지적 한계를 심층적으로 분석

미래 연구자들이 예측 불가능한 AI 발전 속에서도 비판적 사고를 유지할 수 있는 능력을 배양


원문(영어): https://news.mit.edu/2026/philosophical-puzzle-rational-artificial-intelligence-0130


안녕하세요, TEUM Lab입니다!

오늘도 넘쳐나는 AI 정보 속에서, 제가 공부하며 함께 공유하고 싶은 기사를 하나 가져왔습니다.

출근길이나 짧은 휴식 시간에 가볍게 훑어보세요.


짧은 지식으로 정리하다 보니 부족한 점이 있을 수 있습니다.

나누고 싶은 의견이나 조언이 있다면 언제든 댓글로 알려주세요.

함께 고민하며 더 채워나가겠습니다.

keyword
매거진의 이전글2026년 마케팅 미래를 바꿀 3대 AI 전략