기술규제 수업에서 얻은 지식
ChatGPT가 세상을 완전히 바꾸어 놓았다.
마이크로 소프트가 ChatGPT에게 제공해준 것은 재원이 아니었다. 그들이 가지고 있는 데이터에 접근할 수 있는 권한이었다. 즉 LLM이라고 하는 대형언어모델의 기반이 되는 데이터를 제공한 것이다. 이를 통해서 오픈AI가 만든 프로그램의 우선권을 마이크로 소프트가 가지가게 되면서 최근 코파일럿이라는 생성형 AI모델이 마이크로 소프트에 의해서 개발되어 마이크로 오피스를 완전히 업그레이드 했다. 생성형 AI는 또한 커다란 변화를 맞이한 결과로 탄생했다. 그것은 인공신경망의 발전 때문이다. 인공신경망은 인간의 두뇌를 모사해서 인간처럼 코딩을 하는 것이다. 인공신경망에 다가 대형언어모델이 붙으면서 생성형AI가 만들어지게 되었다. 다음은 ChatGPT에게 물어본 결과이다.
What is generative AI?
생성적 AI(Generative AI)는 기존 데이터와 유사하지만 동일하지 않은 새로운 데이터 또는 콘텐츠를 생성하기 위해 설계된 인공 지능(AI) 기술 및 모델 범주를 가리킵니다. 이러한 AI 시스템은 교육 데이터 집합에서 학습한 패턴과 정보를 기반으로 텍스트, 이미지, 오디오 또는 기타 유형의 콘텐츠를 생성할 수 있습니다. 가장 유명한 생성적 AI의 예 중 하나는 생성적 적대 신경망(Generative Adversarial Networks, GANs)이라고 알려진 딥 러닝 모델의 사용입니다. GAN은 생성자(Generator)와 판별자(Discriminator) 두 가지 신경망으로 구성되며 경쟁적인 방식으로 교육됩니다. 생성자는 실제 데이터와 구분하기 어려운 데이터를 생성하려고 하며, 판별자는 실제와 생성된 데이터를 구분하려고 노력합니다. 시간이 지남에 따라 생성자는 판별자의 피드백을 통해 더 현실적인 콘텐츠를 생성하는 능력을 향상시킵니다. 생성적 AI는 텍스트 생성, 이미지 생성, 오디오 생성 등 다양한 응용 분야를 가지고 있으며 다음과 같이 활용됩니다:
텍스트 생성: GPT(Generative Pre-trained Transformer)와 같은 모델은 언어 번역, 챗봇 및 콘텐츠 생성과 같은 다양한 자연어 처리 작업에서 인간과 유사한 텍스트를 생성하는 데 사용됩니다.
이미지 생성: GAN은 실제 물체의 사진과 유사한 이미지를 생성하거나 예술 작품을 생성하거나 이미지를 다양한 방법으로 변환하는 데 사용됩니다(예: 스타일 전이, 초해상도).
오디오 생성: 생성 모델은 음악, 음성 또는 기타 오디오 콘텐츠를 생성할 수 있으며 음악 작곡, 음성 합성 및 효과음 생성과 같은 응용 분야에서 유용합니다.
데이터 증강: 생성적 AI는 기계 학습을 위한 데이터 집합을 늘리기 위해 사용되며 학습 데이터 집합의 다양성과 크기를 증가시키는 데 유용합니다.
이상 감지: 이상 현상이나 이상치를 감지하기 위해 실제 데이터 패턴을 생성하는 데 사용할 수 있습니다.
콘텐츠 생성: 생성적 AI는 마케팅, 스토리텔링 및 기타 창의적인 작업을 위한 콘텐츠 생성을 지원할 수 있습니다.
약물 개발: 의약품 분야에서 생성 모델은 의약품 개발을 위한 신규 화학 화합물을 제안하는 데 사용될 수 있습니다.
생성적 AI는 최근 몇 년 동안 큰 발전을 이루고 있으며 다양한 산업을 혁신할 잠재력을 가지고 있습니다. 그러나 딥페이크 콘텐츠를 만들거나 다른 악용 사례에 대한 윤리적 우려를 불러일으키기도 하므로, 생성적 AI의 책임 있는 개발과 사용은 AI 커뮤니티와 사회 전반에서 중요한 고려사항입니다.
챗gpt 소개
챗GPT는 OpenAI가 개발한 대화형 인공지능 모델로, 저는 GPT-3.5 아키텍처를 기반으로 합니다. GPT-3.5는 "Generative Pre-trained Transformer 3.5"의 약자로, 이 모델은 다양한 자연어 처리 작업을 수행하고 대화를 이끌어낼 수 있는 능력을 갖추고 있습니다. 이 모델은 다음과 같은 주요 특징을 가지고 있습니다:
대화 능력: 챗GPT는 사용자와의 대화를 주제로 다양한 질문에 답하거나 대화의 흐름을 유지하며 응답을 생성할 수 있습니다. 이를 통해 챗GPT는 질문 응답 시스템, 챗봇, 지식 도우미 등의 역할을 수행할 수 있습니다.
다양한 언어 지원: 챗GPT는 다양한 언어에 대한 지원을 제공하며, 여러 언어로 대화를 진행하거나 다국어 지원 프로젝트에 활용될 수 있습니다.
텍스트 생성: 이 모델은 텍스트를 생성하는 데 사용할 수 있으며, 예를 들어 글쓰기, 번역, 요약, 문서 생성, 이메일 작성, 코드 생성 등의 작업에 활용될 수 있습니다.
대화 형식: 챗GPT는 대화의 일부로 사용자와 상호작용할 수 있으며, 대화 형식을 따르는 질문과 답변을 생성할 수 있습니다.
퍼포먼스 및 커스터마이징: 챗GPT는 큰 모델 크기와 다양한 파라미터 설정을 통해 다양한 성능 수준으로 사용할 수 있으며, 필요에 따라 커스터마이징할 수 있습니다.
챗GPT는 다양한 응용 분야에서 활용되며, 대화형 인공지능과 자연어 처리 작업에 필요한 다양한 정보와 기술을 제공합니다. 단, 제한적인 상황에서라도 모델이 부적절한 내용을 생성할 수 있으므로 모델 사용 시 책임 있는 사용이 중요합니다.
생성형 AI는 철학적으로 보면 노엄촘스키가 주장한 변형생성문법의 특징을 가지고 있다. 변형생성문법은 인간이 구문을 만들어내는데 있어서 한 단어와 단어 사이에서 다음 단어를 선택할 때 엄청나게 많은 빈도의 문법을 생성해 낸다는 것이다. 이것이 인공신경망이 아니라 인간의 실제 신경망에서 일어나는 일이다. 이것이 인공신경망이 발명되면서 인간이 말을 하고 문장을 만드는 동일한 변형생성문법으로 문장을 만드는 것이다. 인간은 각각 다른 언어 데이터베이스를 자신의 두뇌 안에서 가지고 있지만 chatGPT는 몇천억개나 되는 단어와 문장의 데이터베이스를 가지고 있기 때문에 더 많은 데이터를 기반으로 언어를 만들 수 있다.
그런데 여기서 이제 문제가 되는 것은 바로 이러한 생성물이 진실일까?의 문제이다. 이른바 환각이슈가 발생한다. 생성형AI를 사용해보면 거짓말인 정보를 그럴듯하게 문장으로 만들어서 속이고 있다. 그런데 이것을 보는 사람이 속이고 있다는 것을 명시하지 않은 이상 생성형AI는 자신의 정보를 스스로 수정하지 않는다. 생성형 AI는 대규모언어모델의 데이터베이스 안에서 통계적으로 확률이 높은 단어를 연쇄적으로 생성해 가면서 만들어내기 때문에 환각효과는 더 커진다. 또한 허위정보 자체도 통계 안에 있기 때문에 거짓된 정보 혹은 가짜 뉴스도 무한대로 만들어질 수 있는 것이다. 따라서 이러한 문제를 해결하기 위해서 이용자의 AI리터러시와 윤리성을 높이기 위한 전략과 정책이 필요하다.
환각이슈_feat. ChatGPT
환각(Hallucination) 이슈는 생성형 AI 모델, 특히 GPT와 같은 모델에서 발생할 수 있는 문제 중 하나입니다. 이 문제는 모델이 실제로는 존재하지 않는 정보를 생성하거나, 주어진 입력에 대해 실제와 다른 내용을 생성할 때 나타납니다.
환각은 주로 다음과 같은 상황에서 발생할 수 있습니다:
데이터 편향: 모델이 학습 데이터에서 나온 패턴을 기반으로 정보를 생성하는데, 이 학습 데이터에 편향된 정보가 포함되어 있으면 환각이 발생할 수 있습니다. 예를 들어, 모델이 차별적인 정보를 생성하는 경향이 있는 경우 이러한 정보가 환각을 일으킬 수 있습니다.
일반화 문제: 모델은 학습 데이터에 대한 일반화 능력을 가지고 있지만, 때로는 학습 데이터 범위를 벗어나는 정보를 생성할 수 있습니다. 이는 모델이 실제 정보와 상관 없는 정보를 생성할 때 환각 문제를 초래할 수 있습니다.
정확성 부족: 모델이 입력에 대한 정보를 정확하게 이해하지 못하고 부정확한 정보를 생성하는 경우 환각이 발생할 수 있습니다.
환각 문제는 모델의 신뢰성 및 윤리적 사용에 영향을 미치는 중요한 문제 중 하나이며, 특히 의료, 법률, 뉴스 및 다른 분야에서 잘못된 정보가 심각한 영향을 미칠 수 있습니다. 연구자 및 AI 개발자들은 이러한 환각 문제를 해결하고 모델의 신뢰성을 향상시키는 방법에 대해 계속 연구하고 있으며, 모델을 보다 정확하고 안전하게 만들기 위해 노력하고 있습니다.
생성형AI모델에서 학습대상 데이터에 저작권이 설정된 경우 저작권자에게 원칙적으로는 허락을 받아야 하다. 하지만 ChatGPT는 대규모 데이터를 기계적으로 분석하고 학습하는 것이기 때문에 개별적으로 동의를 받는 것은 불가능하다. 따라서 TDM(Text and Data Mining) 면책규정을 살펴보아야 한다. 정보 분석의 목적으로 AI가 데이터를 이용하는 경우에는 저작권자의 저작물을 인공지는 학습용 데이터로 사용할 수 있도록 하자는 논의가 바로 면책규정이다. 이미 유럽연합이나 영국 혹은 일본에서 저작권법을 도입했다. 따라서 이러한 추세에 맞게 한국에서도 저작권법을 생성형AI에 맞게 개정하는 제안이 제시되었다. 한국에서 제시된 저작권법 개정안은 다음과 같지만 현재 문체부 장관의 발언으로 기각될 예정이다.
저작권법 개정안_제 43조 정보분석을 위한 복제 및 전송
컴퓨터를 이용한 자동화 분석기술을 통해 다수의 저작물을 포함한 대량의 정보를 분석(규칙, 구조, 경향, 상관관계 등의 정보를 추출하는 것)하여 추가적인 정보 또는 가치를 생성하기 위한 것으로 저작물 에 표현된 사상이나 감정을 향유하지 아니하는 경우에는 필요한 한도 안에서 저작물을 복제ᆞ전송할 수 있다. 다만, 해당 저작물에 적법하게 접근할 수 있는 경우에 한정한다.
제1항에 따라 만들어진 복제물은 정보분석을 위하여 필요한 한도에서 보관할 수 있다.
또한 저작권 이슈는 공정한 이용에 대한 저작권 이슈가 발생한다. 형식적으로는 저작물을 복제하는 저작권 침해행위에 해당하더라도 저작권법의 궁극적인 목적인 문화의 향상과 발전이라는 목표에 비추어 보면 사실 허용되는 행위가 되는 것이다. 한국은 저작권법의 통상적인 이용 방법과 충돌되지 않는 한에 있어서 공정이용 여부를 결정할 수 있다고 본다. 미국의 저작권법의 경우에도 공정이용에 해당하는지 여부는 상업용이거나 비영리 교육인지에 따라서 시장가치를 훼손하지는 않는지 등의 요소를 확인하여 결정을 한다.
저작권 이슈 관련해서 구글의 '구글북스 프로젝트'가 2004년 있었다. 구글은 2004년에 하버드와 스탠포드와 같은 명문대학 및 뉴욕도서관의 모든 책들을 스캔하여 데이터베이스를 구축하려고 했다. 그러나 이에 대해서 미국출판사협회와 작가협회는 저작권 침해 소송을 제기했다. 결론적으로 2016년 4월 18일 미국 연방대법원은 이용자에게 도서검색의 편의를 제공하고 이부의 내용을 공개하는 공정이용에 해당한다고 판단하였다. 특히 비소설의 경우에는 디지털변환에 있어서 인간의 가치를 훼손하지 않는다고 보고 정보공유의 차원에서 저장권 이슈가 발생하지 않는다고 판단한 것이다.
생성형AI 저작권 문제
보통 저작권법상 저작물은 인간의 의한 창작물로서 생존 및 사후 70년간 권리를 갖는다. 그런데 여기서 인간이 창작한 것이라서 저작권법이 적용되지 않는다.
2022년 2월에서 AI에 의해서 창작된 미술품은 인간에 의한 창작물이 아니기 때문에 저작권의 침해가 일어나지 않는다고 보았다.
문제는 ChatGPT가 생성한 저작물은 누구의 소유가 되는가?의 문제이다. 이에 대해서 오픈AI사는 질문을 한 이용자가 저작권를 갖는다고 본다.
AI가 생성한 결과물에 의해서 저작권 침해를 받았다고 하는 경우 오픈AI사는 해당콘텐츠의 삭제와 이용자 계정을 삭제할 수 있다고 밝히고 있다.
인공지능의 생성 결과에 대한 저작물은 사후적 보상제도도 필요하다.
인간이 작성한 것과 AI가 작성한 것을 구분하는 문제가 발생한다.
개인정보보호위원회는 2023년 8월 '인공지능 시대 안전한 개인정보 활용 정책방향'을 발표했다. 여기서는 인공지능 모델의 서비스와 기획단계에서 개인정보 중심의 설계원칙을 반영하여 사전에 위험요소를 제거하게 되어 있다. 또한 AI리스크 분석 및 대응계획을 수립하는 프로세스를 소개하고 있다. 데이터의 수집이나 학습, AI서비스 단계에 있어서 개인정보 처리방침과 개인정부 수집에 대한 투명성을 제고하기 위한 방법론이 들어 있다. 생성형AI의 시대에 가장 중요한 것은 인간이 만든 정보에 대해서 크롤링 이슈와 부정경쟁 방지법의 위배와 같은 문제들이 발생한다.
데이터 크롤링 이슈
웹사이트에서 공개된 데이터를 수집하는 행위로, 크롤러(crawler)라는 소프트웨어를 이용하여 웹사이트에서 자동으로 대량의 데이터를 복제・수집하는 행위
정보통신망침해여부:접근권한이없거나접근권한을넘어서는지여부
데이터베이스 저작권 침해 여부: 데이터베이스의 전부 또는 상당한 부분이 복제되었다거나 데이터베이스 의 통상적인 이용과 충돌하거나 피해자 회사의 이익을 부당하게 해치는 경우에 해당하는 지 여부
컴퓨터등장애업무방해죄에 해당하는지 여부: 허위의 정보 또는 부정한 명령을 입력하거나 기타 방법으로 정보처리에 장애를 발생하게 하여 사람의 업무를 방해
부정경쟁방지법 위반 여부
부정경쟁방지법: 한정제공데이터 유사
제2조(정의) 이 법에서 사용하는 용어의 뜻은 다음과 같다.
1. “부정경쟁행위”란다음각목의어느하나에해당하는행위를말한다.
카. 데이터(「데이터 산업진흥 및 이용촉진에 관한 기본법」 제2조제1호에 따른 데이터 중 업(業)으로서 특정인 또는 특정 다수에게 제공되는 것으로, 전자적 방법으로 상당량 축적ᆞ관리되고 있으며, 비밀로서 관리되고 있지 아니한 기술상 또는 영업상의 정보를 말한다. 이하 같다) 를 부정하게 사용하는 행위로서 다음의 어느 하나에 해당하는 행위
1) 접근권한이 없는 자가 절취ᆞ기망ᆞ부정접속 또는 그 밖의 부정한 수단으로 데이터를 취득하거나 그 취득한 데이터를 사용ᆞ공개하는 행위 2) 데이터 보유자와의 계약관계 등에 따라 데이터에 접근권한이 있는 자가 부정한 이익을 얻거나 데이터 보유자에게 손해를 입힐 목적으로 그 데이터를 사용ᆞ공개하거나 제3자에게 제공하는 행위 3) 1) 또는 2)가 개입된 사실을 알고 데이터를 취득하거나 그 취득한 데이터를 사용ᆞ공개하는 행위 4) 정당한 권한 없이 데이터의 보호를 위하여 적용한 기술적 보호조치를 회피ᆞ제거 또는 변경(이하 “무력화”라 한다)하는 것을 주된 목적 으로 하는 기술ᆞ서비스ᆞ장치 또는 그 장치의 부품을 제공ᆞ수입ᆞ수출ᆞ제조ᆞ양도ᆞ대여 또는 전송하거나 이를 양도ᆞ대여하기 위하 여 전시하는 행위. 다만, 기술적 보호조치의 연구ᆞ개발을 위하여 기술적 보호조치를 무력화하는 장치 또는 그 부품을 제조하는 경우에는 그러하지 아니하다.
https://www.pipc.go.kr/np/cop/bbs/selectBoardArticle.do?bbsId=BS074&mCode=C020010000&nttId=9083
생성행AI가 등장하면서 빅테크의 지배력에 대한 두 가지의 시각이 존재한다. 빅테크의 지배력이 더욱 고착화될 것이라고 생각하는 사람들과 집중화현상이 오히려 완화될 것이라는 기대가 있는 것이다. 과연 어떻게 될까? 앞으로 우리가 가지고 있는 질문들을 ChatGPT가 모두 해결해 줄 수 있을 것이다. 모든 일상의 업무가 이런방식으로 해결된다면 컴퓨팅 파워와 대량의 데이터를 가진 업체가 독점을 더욱 가속화할 것이다. 반대로 빅데크에 대한 뉴테크의 도전을 가능하게 함으로써 검색이 진화되면서 오히려 독점이 사라질 수 있다고 보는 사람들도 있다. 아직 이 부분은 뚜렷하게 밝혀지지는 않았지만 앞으로 어떤 방식으로 법안을 만들어가고 정책을 펼치는가에 따라서 달라질 것이다.
경쟁이슈와 함께 보안이슈도 발생한다. 공격자의 측면에서 보면 ChatGPT를 활용하여 악성도구를 개발하면 다른 시스템을 공격하 할 수 있다. 보통 우리가 알고 있는 악성코드인 랜섬웨어를 계속해서 생성할 수 있게 되면서 웹페이지를 공격하고 취약한 지점을 찾도록 분석하여 공격스크립트를 생성할 수도 있다. 또한 피싱메일의 증가와 함께 메일을 쉽게 맞겅하고 수정이 가능해지면서 해외공격자들은 쉽게 스팸메일을 무한대로 생성해낼 수도 있다. 이용자의 측면에서는 개인정보와 기밀 유출우려로 ChatGPT를 사용하지 못하게 하는 사례가 늘고 있다. 모델 공격의 측면에서는 악의적 학습데이터 주입을 통해서 결과물에 영향을 주는 데이터 오염공격도 일어날 수 있다.
인공지능에 관한 법제는 생성형AI가 도입되기 전부터 논의가 되어 왔다. 인공지능을 사용하는데 있어서 윤리적인 원칙을 확보하고 인간이 뒤쳐지는 미래를 만들지 않기 위해서 법안들이 서둘러서 마련되어야 한다. 미국과 영국 그리고 유럽연합과 한국의 경우에는 조금씩 다른 법안의 방향들이 보인다.
EU 인공지능 법안(’21.4)
위험 기반 접근법을 채택하여 AI 시스템을 △ 금지되는 위험(Unacceptable risk), △ 고위험(High-risk),
제한된 혹은 최소 위험(low or minimal risk)으로 분류 • 미국 알고리즘 책임법(‘22)
기업이 이용자와 감독기관에게 알고리즘 정보를 제공하여 알고리즘의 투명성을 확보하고, 알고리즘 활 용에 따른 영향을 사전에 인지·분석·평가하고 개선하는 영향평가를 지속적으로 수행하도록 하여 책임소 재를 명확하게 함
AI 알고리즘에 대한 영향평가(impact assessment)를 실시하고 중요 정보를 연방거래위원회(FTC)에 제출, 공개
미국「국가 AI 이니셔티브법(National Artificial Intelligence Initiative Act of 2020)」을 제정, 시행
「국가 AI 이니셔티브」를 수립하고, 부처간 정책 조정을 위한 ‘부처 간 협력위원회’를 설치하고, 이를 추 진할 ‘국가 AI 이니셔티브실’을 대통령실에 설치하고, 다양한 AI 연구개발 및 활용을 지원
인공지능산업 육성법안의 주요 내용
인공지능 기본계획 : 과학기술정보통신부장관이 3년마다 수립 및 이행, 계획의 주요 내용: 인공지능 정책의 기본 방향, 전문인력 양성 및 인공지능 개발·활용 촉진 기반 조성
우선허용 사후규제 원칙 : 원칙적으로 인공지능제품 및 서비스의 출시를 제한할 수 없다는 원칙 선언, 다만 국민의 생명과 안전 그리고 권위에 위반되거나 공공의 안전보장과 질서 유지 및 복리 증진의 저해가 우려되는 경우에는 제한이 가능하다.
인공지능 윤리원칙 : 정부는 인공지능 윤리원칙 작성, 인공지능 윤리원칙에는 (1) 안전성과 신뢰성에 관한 사항 (2) 인공지능기술에 대한 접근성에 관한 사항 (3) 인공지능의 인간의 삶 등에 대한 공헌에 관한 사항이 포함되어야 함
고위험영역 인공지능 고위험영역 인공지능: 에너지 및 먹는물 등의 공급에 사용되는 인공지능, 의료기기에 사용되는 인공지능 등 사람의 생명, 신체의 안전 및 기본권의 보호에 중대한 영향을 미칠 우려가 있는 영역에서 활용되는 인공지능 사업자는 자신이 개발하는 인공지능이 고위험영역 인공지능에 해당하는지 과학기술정보통신부장관에게 확인 요청 가능, 고위험영역 인공지능 사업자(인공지능 개발자 및 이를 사용해 제품 및 서비스를 제공하는 자 모두 포괄)는 인공지능 관련 신뢰성과 안전성을 확보하기 위한 “신뢰성 확보조치”를 하여야 함. 신뢰성확보조치의 적절성 등 판단 기준으로는 위험관리방안의 수립 및 운영에 관한 사항 등이 있음.
오늘은 생성형AI의 기술에 대한 이해보다는 기술규제와 관련해서 발생할 문제들을 살펴보았다. ChatGPT가 등장하고 나서 기술은 무어의 법칙을 넘어서 하루가 다르게 변화를 맞이하고 있다. 이러한 때에 적절한 기술의 규제를 통해서 인간에게 도움이 되면서 인간을 더욱 인간답게 만들어줄 생성형AI의 미래를 만들어 가야 한다. 규제를 받지 않는 기술은 인류에게 문제를 만들어내는 것을 넘어서 위협이 될 수 밖에 없다. 따라서 AI가 인간에 의해서 대체되지도 않으면서 인간이 다른 인간에게 대체되지 않는 방식으로 우리는 적절한 기술규제를 해나가야 한다. 여기서 다시 철학과 원칙이 등장한다. 인문학과 인간에 대한 이해가 중요해지는 시기가 오는 것이다.
https://n.news.naver.com/article/421/0007132892?sid=110
CCTV관련 이론
CCTV관련해서 2가지의 주요한 이론이 있다. 첫 번째는 범죄전이 효과criminal displacement effect이고 두 번째는 범죄억제 이익의 확산 효과diffusion effect of crime control benefit이다.
범죄전이 효과는 CCTV가 설치된 곳에서는 일시적으로 범죄가 줄어드는 것처럼 보이지만 다른 곳에서 범죄가 일어난다는 것이다. 그러니깐 범죄 전이효과는 '풍선효과'라고 부르기도 한다. 그렇다면 과연 CCTV는 어떤 상황에서 설치되어야하고 어떤 효과를 설계해야하는가? 효과는 예상된 효과, 긍정적 효과, 의도한 효과 등등이 있다.
범죄억제 이익의 확산 효과는 범죄를 억제하기 위해서 CCTV를 설치하면 그 지역에 범죄만 줄어드는 것이 아니라 그 주변으로 범죄 억제가 확산된다는 것이다.
CCTV가 설치되면서 개인 프로이버시 침해 이슈가 너무 커져서 어떻게 해야하는지에 대한 담론이 있다면 반대로 CCTV의 효과에 대해서도 담론이 팽배하게 맞서고 있다.
우리나라에서 카페나 식당에서 물건을 놓고 가더라도 문제가 없는 것은 사실 CCTV의 효과 때문이다.
해외 범죄예측 동향
PredPol(Predictive Policing) 미국 UCLA 인류학 교수 브랜팅엄과 산타클라 라 대학 교수 몰러가 지진, 여진 예측 알고리즘 ETAS(Epidemic-Type Aftershock Sequence) 모델을 수년치 범죄 빅데이터 분석에 이용하여 범죄예측 기술을 개발하였다. 지진과 범죄의 발생 유형이 유 사한 것을 발견했으며, 특히 최근에 발생한 범죄 와 지리적으로 가까운 곳에서 유사 범죄가 발생하 는데 이를 큰 지진 뒤에 인근에서 잇따라 발생하 는 여진 현상과 연결하였다. PredPol은 새로운 범죄 가 일어날 때마다 예측 모델에 정보를 입력하여 최 근에 발생한 범죄 정보기반 예측 기능을 수행하며, 핫스팟의 범위는 약 2.25km2 (150m×150m) 규모이 다. 과거 범죄가 일어난 지역을 6개월 단위로 재학 습하고 예측 모델을 업데이트하여 새로운 범죄 패 턴 등을 수용해 높은 확률의 범죄 발생 예상 지역에 순찰을 강화하는 온라인 범죄예방 시스템이다.
HunchLab 필라델피아에 본사를 둔 벤처회사 ‘Azavea’에서 개발한 범죄예측시스템이며, 범죄조직 구성원, 마 약 거래 내역 등의 데이터뿐만 아니라 지역 내 사 업장 위치, 날씨 정보, 경제 정보 등의 공공 정보 및 총격음 등의 다양한 정보를 수집하여 분석해 범 죄 발생 확률이 높은 지역으로 순찰차를 보내는 역 할을 한다. 시카고 7구역 관할에 도입되어 같은 기 간 내 전체 시카고 시의 살인사건은 3% 증가하는 추세였음에도 불구하고 2017년 기준 총이 사용된 사건은 39%, 살인 사건은 33% 감소하였다. 단 일 반적인 폭력, 총기 사건을 통계적으로 분석하여 예 방 가능하나 가정 폭력과 같은 다른 강력 범죄의 예측 기술이 필요하다.
NDAS(National Data Analytics Solution) 영국에는 잠재적인 범죄자 혹은 관련 피해자가 될 가능성 높은 사람을 예측하는 예측 식별(Predictive Identication) 시스템을 개발하고 있다. 개인 의 범죄 기록, 소셜 네트워크 데이터 및 개인 정보 1,400종 등의 지표를 기반으로 사회에 끼치는 영 향력을 점수화하는 Gang Matrix 알고리즘을 개발 하여 범죄를 예측하는 프로젝트를 수행했다. 단, 예측 식별 모델이 예상하는 개인이 젊은 흑인에 우 선하고 있어 미들랜드 경찰이 주축이 되어 Concern Hub라는 편향된 데이터 분석을 극복하는 국가 분 석 시스템을 개발 중이다
NPA(National Police Agency) 일본 히타치에서 CCTV, 날씨 정보, 총소리, 교 통 상황 및 소셜 미디어 등 데이터를 수집하고 폭행, 살인 등의 범죄 상황마다 발생 가능성을 확률 적 수치로 표기한 PCA(visualization Predictive Crime Analytics)를 개발하였다. 도쿄 경찰청은 2020년 도쿄 올림픽에서 효과적인 테러 방지를 위한 딥 러닝 기반 예측 치안을 도입할 계획이다. 한 명의 가해자가 여러 범죄를 저지르고 있는지 발견된 범죄자의 다음 행동을 예측하는 것을 목표로 하 고 있다. CCTV에서 의심스러운 자동차의 유형, 특정 지 역에서 자주 관찰되는 개인 및 일정시간 이상 방치 된 물건을 인식하는 기술 등이 기반이 되어 활용될 예정이다.
톈왕(天網, 하늘을 덮는 그물) 중국 공안부 주도로 인공위성의 GPS와 CCTV 를 활용한 범죄자 감시 시스템을 구축하였다. 사 생활 침해 등의 규정이 상대적으로 높은 미국과 한 국 등 주요국이 주춤하는 사이 중국은 안면인식 기 술력을 위한 학습데이터를 적극적으로 수집하고 적용 영역을 확대하였다. 그 결과 2,000만 대 이상 의 CCTV 카메라가 범죄 용의자 추적과 재탐색에 활용되어 약 2,000명 이상의 범죄자를 체포하였다.
국내 범죄예측 동향
CLUE(Crime Layout Understanding Engine, 클루) 한국 경찰청이 빅데이터와 AI 기술을 이용한 범 죄분석 및 예측시스템을 개발 중이며, 형사사법포 털(KICS)에 입력된 범죄사건 시간, 사고지역, 범 죄자와 피해자 특성, 범행 도구, 범행 패턴 및 목 적 등 100여 종에 이르는 범례를 수사에 필요한 빅 데이터로 구축하고 해당 사건 시간대 날씨, 사건장소 주변 인구 구성, 주변 상가의과 주택의 유형, 공시지가 등의 공공 데이터까지 추출하여 분석에 활용할 예정이다. 클루가 완성되면 범죄사건 발생 시 과거에 양상 이 비슷했던 사건을 신속히 검색해 범위를 좁히고, 수사 효율성을 높여 검거하는 데 걸리는 시간의 단 축을 기대하며, 발생한 절도나 강도사건의 지역과 시간, 특성 등의 정보를 클루에 입력하고 과거사건 정보를 토대로 일치도가 높은 사건을 제시하고 용 의자 출현 예상 지역 범위도 표출 가능하다.
범죄징후 사전예측(U-Guard) 국내 성범죄자 등 전자발찌 착용자를 대상으로 사후 대응 위주의 위치추적시스템(U-Guard)을 사 전 대응으로 전환하는 것이 목적이며, 전자감독대 상자의 상태와 이상 징후를 파악하기 위해 일상생 활에서 추출되는 요소와 재범 가능성을 높이는 행 동과의 연관성을 분석해 재범징후 위험도를 제시 하고 있다. 특히 법무부는 전자감독대상자의 심리 적 상태 등을 포함하여 더욱 면밀히 파악하여 다양 한 방법으로 재범억제 기능을 강화할 예정이다. 또한, 법무부와 국토교통부는 시민의 안전을 위 한 업무협약을 체결하고, 지자체에서 CCTV를 설 치하여 운영하는 스마트시티 센터와 법무부 위치 추적센터 간 전자감독 대상자가 접근금지, 출입금 지 및 외출금지 등을 위반하여 시민의 안전이 위협 받는 경우 CCTV 영상 관제를 활용해 대상자에게 는 신속한 치안대응과 잠재적인 피해자에게는 신 속한 구조를 통해 범죄예방효과를 기대하고 있다
https://ettrends.etri.re.kr/ettrends/182/0905182002/35-2_17-27.pdf