게다가 출처도 인용 여부도 밝히지 않아, 쓸데가 없어요
광고마다 AI 가 대강 질문만 던져도 답을 척척 주고 심지어 머릿속에 떠돌아다니는 추상적 의견까지 일사불란하게 정리해 주는 것처럼 <과대광고>를 하던데, 제가 요양보호사의 처치 관련 AI 답을 얻기까지 얼마나 많은 질문을 쏟아부었나 예상이 안 될 겁니다.
게다가 결국 AI 가 준 답변은 도대체 그 출처조차 알 수 없는 <어딘가>의 인용과 요약일 뿐으로, 이 답변은 고소장에도 사용할 수가 없을 정도죠, AI를 폄하하고 싶은 생각은 없지만, 왜 AI가 저작권 논란에서 자유롭지 않고 남의 자료를 무단으로 학습한다고 여기저기서 불만스러운 소리가 나오나 짐짓 예상은 되는 대목입니다.
어떤 자료를 사용하건, 어떤 법령과 교제와 블로거 글과 영상과 판례와 심지어 밈을 인용하더라도, AI가 스스로 만들거나 적어도 AI를 만든 프로그래머의 자체 생각이 아니라면, 반드시 인용과 그 출처를 밝혀야 합니다.
인간이라면 어딘가에서 본 걸 자기 생각으로 오인하는 착각을 할 수도 있겠죠, 옳은 행동은 아니지만, 가능은 하고, 따라서 누군가 내 생각을 무단으로 도용한 것을 알게 되면, 통상 내용증명 등을 보내 저작권 침해 사실을 알리고, 시정 조치가 없을 시 소송에 들어가는 것이며, 법원은 아주 인색하게 저작권 침해 여부를 인정하는 것으로, 갈등을 일단락합니다.
그러나 AI가 인간처럼 남의 글을 자기 의견과 헷갈린다는 건 있을 수가 없는 것이고, 또 AI가 요약한 글은 참고로는 할 수 있어도, 대체 어디서 어디까지가 AI의 의견이고 인용이고 요약인지 알 수 없어서,
이 요양보호사 사건에서도, 제가 보건복지부며 블로거며 요양보호사 관련 교제까지 섭렵하고서야, 요양보호사에게 3C라는 응급구조 단계가 있다는 것과 의식이 불명확한 환자에게 함부로 물과 약을 주면 안 된다는 걸 알게 돼, 고소장에 적시할 수가 있게 된 겁니다.
일찍이 뉴턴이 긴 제목의 그 뭐더라, 프리키피아던가 뭐던가.... 논문을 쓸 때, 인간의 언어를 가능한 배제한 숫자로 물리를 표현한 것은, 인간의 언어에는 객관성이라는 것이 결여된 탓이 크고, 따라서 저도 일찍이 AI가 인간 언어 모델로 학습한다면 결국 각 나라가 개발에 박차를 가하고 있는 각자의 AI끼리 모순되고 상충되는 <특이점>이 올 거다, 그 이후 AI가 진짜다, 말을 한 적이 있습니다.
<요양보호사 응급 상황>
이 말 자체에서조차 인간은 각자 다른 상황을 유추하며, <나는 이 정도가 응급이라고 본다>, <나는 저 정도가 응급이라고 본다>, 다툼은 끝이 없기 때문에, 사법 판단은 사실상 이런 정의 다툼이고, 교제는 이런 상황을 최소한으로 규정해 놓은 것으로,
그럼에도 <환자 의식이 명료하지 않다> 이건 어느 교제, 누가 보더라도 응급 상황인 것이며, 모친의 이와 같은 상태에서 심지어 배변조차 스스로 못 함에도 불구, 요양보호사는 가족이 설사 반대를 하더라도 응급상황임을 알리고 119 구조 요청을 하지 않고 물과 약을 가족과 함께 먹였으니, 미필적 고의 살인이라는 걸 다시 한번 정리해 두죠.
덧붙여서, 지시와 질문은 뭔가를 알아야 나오고, 뭔가를 알아야 잘못된 것을 밝혀낼 수 있습니다. 그런데 AI 관련 광고에, 심지어 중학생이 사미인곡을 정리하라 AI에 지시를 하던데, 사미인곡 당시 조선의 상황과 특수성을 제대로 배우지 않은 중학생이 AI가 정리 또는 요약한 답을 들은들 잘못된 건지 인지가 될까요?
데이터를 정제할 AI가 나오기 전까진, RAW 정보를 객관화할 단계에 이르기 전까진, 지금과 다른 계산을 할 때까진, 데이터를 방대하게 수집할 법적 권한을 포괄적으로 얻기 전까진, 출처와 인용과 자기 의견을 구분하기 전까진, 전 AI는 참고용이 적당하다고 생각하고,
인간 언어 모델 AI는, 쿨럭, 뭔가 <감정>까지 있어 보여, 그냥 그렇습니다. 뭐, 저의 AI에 대한 다른 방식의 애정이니, 혹여 개발에 박차를 가할 분들은 오해들 마십셔.