차단
중국에서 만든 생성형 인공지능이 급부상하고 있다. 딥시크다. 챗GPT와 바로 비교될 정도의 수준이다. 챗GPT를 제작을 위한 노력을 생각해 보면 비교가 안될 정도로 적은 비용과 노동력을 바탕으로 만들어졌다. 문제도 있다. 생성형 인공지능은 데이터를 기반으로 구동된다. 다양한 정보를 수집해야 양질의 산출물을 얻을 수 있다. 수집된 정보를 바탕으로 적극적인 대응이 가능하기 때문이기도 하다.
어제 산업통상자원부는 딥시크의 사용을 차단했다. 한시적이라고 한다. 광범위 한 데이터를 수집하고 있기 때문이다. 세계 각국의 민감한 정보를 수집하고 있는 것은 아닌지 우려되기 때문이다. 보안 문제도 있다. 다양한 첨단 기술을 비롯해 개인정보를 빼가는 것은 아닌지 의문이다. 보안에 상대적으로 취약한 사이트나 앱 등의 정보관리도 신경을 쓸 필요가 있다.
우리나라뿐만이 아니다. 호주에서도 딥시크 사용을 금지했다. 한 번쯤은 쉬어갈 필요도 있다. 정확하게 어느 정도의 정보를 수집하고 있는지 파악할 필요도 있다. 새로운 생성형 인공지능이 나오면 무분별하게 사용하는 것도 문제다. 같은 질문은 챗GPT, 뤼튼, Gemini 등에서 물어보고 딥시크에 확인하는 방법이다. 정확도나 표현력을 상대적을 비교해 보는 것 외에는 별다른 소득은 없다.
생성형 인공지능이 모두 완벽한 것은 아니다. 맹신하면 안 된다. 거짓정보나 잘못된 정보를 제공할 수 있다. 할루시네이션이 존재하기 때문이다. 할루시네이션은 거짓정보를 그럴듯하게 제공하는 것을 말한다. 생성형 인공지능이 사용하는 데이터의 문제이기도 하다. 잘못된 데이터를 바탕으로 무분별한 산출물을 생성하기 때문에 나타나는 오류다. 생성형 인공지능은 참고용으로만 사용하자.
사람들은 이미 인공지능과 함께 살아가고 있다. SF영화에서 보던 인공지능의 실체도 주변에서 확인할 수 있다. 음식점이나 물품구입을 위한 매장에서 사용되고 있는 키오스크나 서빙로봇도 있다. 튀김로봇, 자동차 제조로봇 등 다양한 분야에서 사용되고 있는 로봇들도 인공지능 기술이 사용되고 있다. 인공지능을 경계해야 한다. 사용자의 의도에 따라 악의적으로 사용될 수 있다기 때문이다.
< 오늘의 한 마디 >
인공지능이 사람을 지배하지는 않겠죠?
악의적으로 사용되면 가능한 일이기도 합니다.
무섭네요.