지금껏 경험해 보지 못한 미래 #AI #특이점 #그래도사람
[이미지 출처]https://www.qualcomm.com
■ 발전속도의 템포를 미쳐 대비하지 못한 사람
우리는 지금껏 인류의 역사가 기록되기 시작한 이후
경험하지 못한 발전 속도의 미래를 보게 될 것이다.
(적극적으로 참여를 하고 기술을 이해하고 응용한다면
다르겠지만 나 같은 범인의 범주내에선 엄두가 나지
않는다)
무엇보다 지금 미래의 주역이 될 아이들은 더 혼란에
빠질 수도 있다. 그것은 우리가 이야기하는 특이점이
오기전의 아이들은 특이점을 경험하지 못한 어른들이
만들어 놓은 교육환경 속에서 자라기 때문이다.
아쉽게도 그 특이점을 준비하는 우리 세대는 AI의
블랙박스 현상[2]과 같이 특이점이 가져올 결과들에
대해서 아직도 예측조차 하지 못하고 있다.
하지만 이해가 되는 것이 변화의 계측변수가 듣도 보도
못한 무량대수, 불가사의 수준으로 확장되고 있는데
과연 무엇을 준비할 수 있을까?
■ 그래도 결국 결정은 사람이 한다.
위 질문에 대해 이미 먼 미래를 생각하는 학자들과, 세상을
변화시키는 천재들은 한 목소리로 미래 아이들의
교육지향점으로 서두에 언급한 ‘인문학적 사고력을 가진
이과전공생’이 필요하다고 했다.
인문학에서는 인간과 인간, 인간과 사회, 사회와 사회의
본질과 관계와 상호작용을 다룬다. 상대의 반응에 대응하고,
이해와 배려를 통해 서로의 목적을 달성하는 사고력을 발달
시키고, 서로를 위한 사회의 이상향을 고민한다.
이것은 AI에게 복합적인 상호관계와 인류애를 기본으로
구체적 세계관을 구현하도록 방향성을 제시한다.
그 밖에 인문학은 미래 사회에서 필요로 하는 인간과 인간,
인간과 기계, 기계와 기계를 소통하도록 하는 소통의 기술을
다룬다.
인류가 미래에 인간으로서 존재하고 발전된 기술력 속에서
올바른 방향성을 유지하기 위해서도 인문학적 사고는
기술 위에, 기술 속에, 그리고 기술 밖에 존재해야 한다.
예를 들어 최근 이슈가 되고 있는 우크라이나 - 러시아
전쟁에서 미국의 팔란티어(palantir)사(社)는 우크라이나
전쟁 지도부의 정보처리 기술과 전투력 투사를 결심하는
AI 프로그램을 제공했다.
이를 통해 팔란티어는 적을 확인하고, 무기를 선택하고
인간에게 타격을 할 것(버튼을 누를 것)을 물어본다.
여기서는 비단 미래전쟁의 양상이 드러나고 있는 것이
아닌 전반적인 과학의 미래가 드러난다고 볼 수 있다.
의학에 이 기술이 도입된다면, 생명이 위급한 정도에 따라
환자를 선별, 적절한 약물과 치료법을 선택하고 치료 또는
수술을 시행할 것의 선택을 인간이 결심할 것
(버튼을 누를 것)을 물어보는 것이다.
기술의 발전은 인간의 사고과정을 단순화하고 몸을 편하게
하는 대신 결정적인 시간과 장소에서 가장 중대한 선택
(결정)의 순간에 인간에게 책임을 전가한다.
위에서 언급한 기술의 발전과 인간의 결정에 대해서
인간의 존엄성과 가장 근접한 ‘생명 ’과의 연관관계를 예로
들어 인문학에 던지는 질문을 간단히 정리하면 다음과 같다.
기술 위– 환자를 구별하는 기준은 무엇이고
이들에게 구현하는 최종상태는 무엇인가?
- 환자를 분류하는 기준과 결과에 대한 책임
기술 속 - 환자를 어떠한 수단으로 조치할 것인가?
- 허용된 장비, 수단과 적극성에 대한 결정권자의
권한과 책임
기술 밖 - 프로그램을 의뢰한 집단, 개발하는 집단의
윤리 수준
결국 AI의 학습 방향도 인간이 정하고, AI가 제시하는
선택지에도 인간의 의도가 반영된다.[2]
미래에는 인문학적 사고를 통해 인류애를 추구해야만
공멸(攻滅)을 막을 수 있다.
[2] AI의 결과값에 대해 그 연산과정을 유추할 수 없는
현재까지 AI기술의 한계.
[3] 예를 들어, 군에서 적은 무기를 든 모든 사람,
의학에서 수술대상은 비용을 지불할 수 있는 사람 등
으로 분류하라는 개발초기 인간의 선택이 AI의
사고체계에 영향을 끼쳐 반 인륜적인 결과가
나오게 되는 경우가 존재하므로
기술 다방면에서의 윤리적 판단은 강조된다.