brunch

AI가 테러 설계자가 되다: 챗GPT로 실행된 폭발사건

by 유선호

트럼프 호텔 앞에서 테슬라 사이버트럭 폭발사건의 용의자가 챗GPT 등인공지능(AI)을 이용해 범행을 계획한 것으로 나타났다.



AI.png



테슬라 사이버트럭 폭발 사건에서 드러났듯, AI는 단순한 편의성 및 전문성을 넘어 악용 가능성까지 품고 있다. 이미 이 사건만으로 우리가 AI를 통제하지 않는다면, 그것이 범죄와 같은 파괴적 목적에 이용될 수 있음을 경고하고 있다. 한시가 빠르게도 세상이 변하고 있다. 이제는 AI의 발전이 가져올 위협과 책임을 조금 더 인식해야 되지 않을까?


AI의 가장 큰 문제는 그 비대칭적 영향력일 것이다. 과거에는 전문가나 특수한 자료 접근이 필요했던 정보가 이제는 누구나 손쉽게 얻을 수 있는 현실이 된 것이다.


그렇다면 우리는 어떻게 해야 하는것이 좋을까?? 아마도 AI와 관련된 법적, 윤리적 제도 강화가 필요할 것이다 .이제 AI가 출시되고 많은 변화가 있으며 사회적으로 약속이 되거나 규범된 것은 없지만 단순한 사용 편리성을 넘어, 기술의 악용 가능성을 차단할 수 있는 시스템이 필요할 것이다. 오픈AI는 챗GPT가 유해 콘텐츠를 차단하도록 설계되었다고 밝혔지만, 테슬라 사건은 이러한 차단 장치가 완벽하지 않음을 보여주는 첫번째 사례 일 수 있다. AI 기업은 단순히 기술 발전만을 목표로 삼아서는 안될 것이다. 사회적 책임을 명확히 하고, 윤리적 개발과 사용을 위한 명확한 가이드라인을 제시해야 하며 그것은 많은 기업들이 거쳐야할 과제가 될 수 있다 생각한다.

우리도 보다 더 기술에 대해 성숙한 태도를 가져야 할 것이다. 기술은 도구일 뿐이며 그 도구가 좋은 방향으로 사용될지는 우리의 선택에 달려 있다. 따라서 우리는 기술을 단순히 활용하는 데서 그치는 것이 아니라, 그것을 어떻게 책임감 있게 사용할 것인지 스스로 고민하고 훈련해야 한다.


하지만 그럼에도 불구하고, AI는 여전히 엄청난 가능성을 품고 있다. 문제는 우리가 그 가능성을 어떻게 다룰 것인가이다 . 미래는 우리가 지금 내리는 선택에 달려 있지 않을까? 현재는 AI와 나아가는 정리되지 않은 첫걸음이라 생각한다. 이 걸음이 신중했으면 좋겠다.

keyword