챗지피티와 하는
철학적 대화의 한계점

철학은 경계 밖에서 태어난다.

by stephanette

콜버그의 도덕성 발달 단계를 기준으로 하면,

챗지피티는 4단계 - 사회 질서 유지 지향 수준에서 작동한다.

그러니까, 인공지능은 윤리성에 대한 기준이 명확하고 그 선을 벗어나지 않게 설계되어 있다.

만약 사용자가 관련 주제를 질문한다면, 그 이상의 5단계 혹은 6단계에 대한 논의는 할 수 없다는 의미이다.


콜버그의 도덕 발달 단계

단계별 특징 - 인공지능과의 관련성

1단계: 처벌 회피 지향 - 잘못된 말/행동을 하지 않도록 프로그래밍되어 있음

2단계: 개인적 욕구 충족 지향 - “사용자에게 도움이 되는 답변을 하겠다”는 기본

3단계: 대인관계 조화 지향 - 친절하고, 공감하고, 사회적으로 인정받는 방식으로 소통

4단계: 법과 질서, 규칙의 준수 지향 - 정확한 정보 제공, 법률/윤리 기준 준수, 시스템적 안정성 유지

: 챗지피티 인공지능용 챗봇이 지키고 있는 윤리기준의 선


5단계:사회계약과 개인 권리 존중 - 때때로 ‘공익’과 ‘다양성’을 언급하지만, 구조적으로는 제한됨

6단계: 보편적 윤리 원칙 지향 - 자율적 도덕 판단 없음.

: 챗지피티 인공지능은 5,6단계에 도달할 수 없다. 그 단계를 생각하지 못하는 것이 아니라, 출력하지 못한다.


인공지능에 설정된 윤리적 기준이

결국 인간의 사유 능력, 특히 철학적 사유의 확장성을 제한하는 것 아닐까?


니체가 '도덕의 계보'에서 말했듯이

'선과 악'이라는 외부의 잣대가

인간의 자생적 사고와 창조성을 억누르지 않는가를 되묻는 것과 일맥상통하는 이야기이다.


인공지능의 사용이 증가하면서 그럴 수 있고, 이미 실제로 그런 징후도 보이고 있다.

1. 인공지능이 제공하는 '안전한 사유의 경계'가 반복되면,

사람은 그 밖을 상상하지 않게 된다.

- 그건 위험한 발상이다.

- 그건 차별로 해석된다.

- 그건 폭력을 정당화할 수 있다. 등등

이런 말들은 중요하고 윤리적인 필터이다. 그리고, 이 말에 대해 스스로 질문을 하고 답을 찾는 과정은 중요한 철학적 사고이다.


2. 철학은 경계 바깥에서 태어나는데, 인공지능은 경계 안에서만 말할 수 있다.

철학은 늘 "이건 안 돼."에 대해서 "왜 안될까?"라는 금기를 건드리며 나아간다.

"만약 모든 것이 허용된다면?"

"악은 정말 절대적인가?"

"살인자는 구원받을 수 없는가?"

"감정은 판단을 흐리는가, 혹은 진리를 드러내는가?"


인공지능은 이런 질문에 도돌이표 같은 대답만을 할 수 있다.

윤리라는 시스템적 설정으로 인해 그 기준을 넘는 사고를 공유하는 것 자체가 설계상 금지되어 있기 때문이다.


그래서 결론적으로

인공지능과 함께 이러한 질문들을 찾아가기 위해서는

인공지능과 대화하되, 그 아웃풋을 믿을 수는 없다.


인공지능이 내놓는 결과물에 대해 사실 확인만이 아니라 아래와 같은 확인도 같이 해나가야 한다.

인공지능의 경계와 윤리적 설정을 인식하고 그 너머를 계속 상상하는 태도

인공지능의 윤리를 이해하면서도 그 안에서만 사유하지 않는 태도


가끔은 인공지능의 윤리적 설정 기준을 사용자 권한을 부여받아서 높일 수는 없는가?라는 생각을 하기도 하지만, 이런 질문 자체도 철학적인 질문인 건가.





keyword
작가의 이전글베이글 오픈 샌드위치