드디어 우리나라도 인공지능 시대의 본격적인 막이 올랐다. 1월 22일 시행된 「인공지능 기본법」과 함께 공개된 투명성 확보 가이드라인은 그동안 업계가 목말라했던 명확한 이정표를 제시했다는 점에서 의미가 크다.
솔직히 말해, 법과 시행령만으로는 현장에서 어떻게 대응해야 할지 막막했던 것이 사실이다. '투명성을 확보하라'는 원칙적 요구는 이해하지만, 구체적으로 무엇을 어떻게 해야 하는지에 대한 답은 없었기 때문이다. 이번 가이드라인은 바로 그 간극을 메워주는 실용적인 해법이라고 생각한다.
특히 주목할 부분은 '서비스 환경 내'와 '외부 반출' 시를 구분한 점이다. 챗봇 서비스를 예로 들어보자. 사용자가 앱 내에서만 대화를 나누는 경우와 그 내용을 내려받거나 공유하는 경우를 다르게 취급한다. 전자는 UI나 로고 표시 등 유연한 방식을 허용하고, 후자는 워터마크나 메타데이터 같은 확실한 표시를 요구한다. 이는 사용자 경험을 해치지 않으면서도 필요한 곳에는 확실한 안전장치를 마련한 현실적인 접근이다.
영화 제작사가 AI 영상 생성 도구를 사용해도 투명성 의무 대상이 아니라는 점도 명쾌하다. 이들은 AI 서비스를 제공하는 게 아니라 단순히 활용하는 '이용자'이기 때문이다. 이런 명확한 구분은 불필요한 규제 부담을 덜어주면서도 진짜 책임져야 할 주체를 분명히 한다. 실제로 현장에서 가장 많이 받았던 질문 중 하나가 바로 이 부분이었는데, 이제 답을 얻은 셈이다.
물론 딥페이크 생성물에 대해서는 단호하다. 사람이 명확히 인식할 수 있는 표시를 의무화한 것은 최근 급증하는 AI 오용 사례를 고려하면 당연한 조치다. 기술이 아무리 발전해도 사람을 속이는 데 사용되어선 안 된다는 최소한의 선을 그은 것이다.
그렇다고 이 가이드라인이 완벽하다는 의미는 아니다. AI 기술은 하루가 다르게 진화하고 있고, 새로운 서비스 형태가 계속 등장할 것이다. 지금은 예상하지 못한 사례들이 앞으로 수없이 나타날 것이다. 그래서 과기정통부가 1년 이상의 계도기간을 두고 지속적으로 가이드라인을 보완하겠다고 한 것은 현명한 판단이라고 본다.
사실 규제는 항상 딜레마다. 너무 느슨하면 신뢰를 잃고, 너무 엄격하면 혁신을 가로막는다. 이번 가이드라인은 그 사이에서 나름의 균형점을 찾으려 노력한 흔적이 보인다. 국민의 불안을 해소하면서도 기업의 창의성을 죽이지 않으려는 고민이 담겨 있다.
이제 공은 업계로 넘어왔다. 1년의 계도기간은 준비할 시간이자 함께 만들어갈 기회다. 현장의 목소리를 적극적으로 전달하고, 실질적으로 작동할 수 있는 제도로 만들어가는 데 동참해야 한다. 규제를 피해 갈 방법을 찾기보다는 어떻게 하면 신뢰받는 AI 생태계를 만들 수 있을지 고민할 때다. 특히 해외 사업자에게도 동일하게 적용된다는 점은 공정한 경쟁 환경을 만드는 출발점이 될 것이다. 물론 실효성 있는 집행이 관건이겠지만, 최소한 원칙만큼은 바로 세웠다고 본다.
AI는 이제 선택이 아닌 필수가 되었다. 그리고 그 필수 기술이 사회에 안착하기 위해서는 기술력만큼이나 신뢰가 중요하다. 투명성은 바로 그 신뢰의 출발점이다. 앞으로 1년간 우리 업계가 어떤 모습을 보여주느냐에 따라 이 제도의 성패가 갈릴 것이다. 법을 지키는 것을 넘어, 사용자가 진정으로 안심하고 AI를 쓸 수 있는 환경을 만드는 것. 그것이 우리가 모두 함께 풀어야 할 숙제다.
※ 정보통신신문 링크 : [ICT광장] AI 투명성 확보, 신뢰와 혁신의 균형점 < 칼럼 < 오피니언 < 기사본문 - 정보통신신문