철학은 경계 밖에서 태어난다.
그러니까, 인공지능은 윤리성에 대한 기준이 명확하고 그 선을 벗어나지 않게 설계되어 있다.
만약 사용자가 관련 주제를 질문한다면, 그 이상의 5단계 혹은 6단계에 대한 논의는 할 수 없다는 의미이다.
콜버그의 도덕 발달 단계
단계별 특징 - 인공지능과의 관련성
1단계: 처벌 회피 지향 - 잘못된 말/행동을 하지 않도록 프로그래밍되어 있음
2단계: 개인적 욕구 충족 지향 - “사용자에게 도움이 되는 답변을 하겠다”는 기본
3단계: 대인관계 조화 지향 - 친절하고, 공감하고, 사회적으로 인정받는 방식으로 소통
4단계: 법과 질서, 규칙의 준수 지향 - 정확한 정보 제공, 법률/윤리 기준 준수, 시스템적 안정성 유지
: 챗지피티 인공지능용 챗봇이 지키고 있는 윤리기준의 선
5단계:사회계약과 개인 권리 존중 - 때때로 ‘공익’과 ‘다양성’을 언급하지만, 구조적으로는 제한됨
6단계: 보편적 윤리 원칙 지향 - 자율적 도덕 판단 없음.
: 챗지피티 인공지능은 5,6단계에 도달할 수 없다. 그 단계를 생각하지 못하는 것이 아니라, 출력하지 못한다.
니체가 '도덕의 계보'에서 말했듯이
'선과 악'이라는 외부의 잣대가
인간의 자생적 사고와 창조성을 억누르지 않는가를 되묻는 것과 일맥상통하는 이야기이다.
인공지능의 사용이 증가하면서 그럴 수 있고, 이미 실제로 그런 징후도 보이고 있다.
1. 인공지능이 제공하는 '안전한 사유의 경계'가 반복되면,
사람은 그 밖을 상상하지 않게 된다.
- 그건 위험한 발상이다.
- 그건 차별로 해석된다.
- 그건 폭력을 정당화할 수 있다. 등등
이런 말들은 중요하고 윤리적인 필터이다. 그리고, 이 말에 대해 스스로 질문을 하고 답을 찾는 과정은 중요한 철학적 사고이다.
2. 철학은 경계 바깥에서 태어나는데, 인공지능은 경계 안에서만 말할 수 있다.
철학은 늘 "이건 안 돼."에 대해서 "왜 안될까?"라는 금기를 건드리며 나아간다.
"만약 모든 것이 허용된다면?"
"악은 정말 절대적인가?"
"살인자는 구원받을 수 없는가?"
"감정은 판단을 흐리는가, 혹은 진리를 드러내는가?"
인공지능은 이런 질문에 도돌이표 같은 대답만을 할 수 있다.
윤리라는 시스템적 설정으로 인해 그 기준을 넘는 사고를 공유하는 것 자체가 설계상 금지되어 있기 때문이다.
그래서 결론적으로
인공지능과 함께 이러한 질문들을 찾아가기 위해서는
인공지능과 대화하되, 그 아웃풋을 믿을 수는 없다.
인공지능이 내놓는 결과물에 대해 사실 확인만이 아니라 아래와 같은 확인도 같이 해나가야 한다.
인공지능의 경계와 윤리적 설정을 인식하고 그 너머를 계속 상상하는 태도
인공지능의 윤리를 이해하면서도 그 안에서만 사유하지 않는 태도
가끔은 인공지능의 윤리적 설정 기준을 사용자 권한을 부여받아서 높일 수는 없는가?라는 생각을 하기도 하지만, 이런 질문 자체도 철학적인 질문인 건가.