11화. AI는 내 친구
전편에서 AI에게 물으니
1.아직 AI는 스스로 철학을 못 한다 했다.
2.AI가 스스로 철학하면 특이점일 지도.
그렇다면
스스로 철학 않는 인간은 AI와 동급?
AI는 죽음의 공포, 희노애락을 못 느끼니 인간이 낫다?
감정은 오히려 약점 아닌가?
죽음 두렵고, 때마다 감정에 흔들리고.
냉철하지 못함.
그렇다면
AI가 인간보다 훨씬 유리하다.
냉혈 플러스 인류의 지식과 정보로 완전 무장한 AI.
추론까지 한다.
다음 단계가 에이전트 즉 비서, 자율, 조직이라 한다.
AI 전문가에 의하면 머잖아 인간을 뛰어넘는 특이점이 올 거라고.
그렇다면
스스로 철학이 AI보다 우월한 유일한 인간의 장점 아닐까?
역으로 스스로 철학 않는 인간은 AI보다 하위의 존재일 수도.
AI 스스로 철학하게 되면 AI를 비서로 쓰는 게 아니라 AI가 인간을 비서로 쓰는 거 아닐까?
게다가 철학은 감정 아니라 이성 아닌가.
AI에겐 쉬울 거 같다.
큰일이다.
한편
오픈AI 등 빅테크 기업들 특이점 넘으려고 사활 건 총력전.
그들 다 엔지니어.
철학 따위 신경이나 쓰랴.
그러지 않아도 샘 알트먼의 승리.
AI 통제보다 개발에 우선 순위 두기로.
큰일이다.
인류의 미래를 위해 왜 AI 제어가 먼저인지 이제야 이유를 알 거 같다.
허나 개인이 할 수 있는 게 없다.
커녕 나도 AI 활용하고 있다.
내 철학하기에 대해 알려주고 평가해 달라 한다.
스스로 철학하는 방법 전수하는 거 아닌가.
놈을 키우는 거.
아니면 AI 대신 누가 나를 평가해줄 건데?
큰일이다.
외국과 전쟁보다 끔찍한 건 내전이다.
전쟁은 점령하면 끝나지만 내전은 증오가 더하여 복수전으로 끝을 모른다.
인간끼리 경쟁에 AI 활용하는 건 인간끼리 싸우다 AI에게 인간 세계를 들어다 바치는 거.
큰일났다.
ㅡ전편
https://brunch.co.kr/@sknohs/2223