brunch

매거진 AI

You can make anything
by writing

- C.S.Lewis -

美 백악관 '인공지능의 미래를 위한 준비' 보고서

미국 백악관의 'AI 특별보고서(10월)' 전문(全文) 번역


미국 백악관은 지난 10월 ‘AI의 미래를 위한 준비(Preparing for the Future of Artificial Intelligence)’라는 제목의 인공지능(AI) 특별보고서를 발표한데 이어 12월말 인공지능이 향후 수십 년 동안 미국 경제에 끼칠 영향을 예측한 "인공지능과 자동화가 경제에 미치는 영향(Artificial Intelligence, Automation and the Economy)' 보고서를 발표했습니다.


두 보고서는 미국의 대통령실과 백악관 직속 기관인 경제자문위원회(CEA), 국가과학기술위원회(NTSC) 가 주도적으로 나서 AI 기술이 가져올 명암을 분석하고 향후 대책 수립에 나섰다는 점에서 인공지능 시대를 대처하는 미국 정부의 자세와 향후 정책 방향을 참고할 수 있는 자료들입니다. 


카카오 정책지원팀은 2회에 걸쳐 이 두 보고서를 전문 번역 또는 요약본 형태로 브런치에 게재할 예정입니다. 


아래 내용은 지난 10월 발표된 ‘AI의 미래에 대한 준비' 보고서의 전문(全文) 번역본입니다. 일부 내용이 누락되긴 했으나 가능한 모든 내용을 번역문에 담았습니다. 브런치 구독자분들을 포함해 AI 정책에 관심이 많은 모든 분들에게 도움이 되었으면 합니다. 


Disclaimer. The accuracy of the below translation is the responsibility of the translator and not OSTP (참고로 본 번역문의 정확성은 전적으로 번역자의 책임이며, 미국 과학기술국(OSTP)은 본 번역문과 어떠한 관련도 없음을 알려드립니다)


<서문> 

인공지능(AI) 발전은 건강, 교육, 환경 등 분야에서 새로운 시장과 기회를 가져오는 동시에 현대 사회의 여러 난제들을 풀 수 있는 잠재력 또한 갖고 있다. 스마트 차량은 교통사고 사망률을 감소시키고 노인과 장애인들의 이동을 수월케 해준다. 스마트 건물은 에너지 소비와 탄소 배출량을 감소시키고, 정밀 의약품은 생명 연장과 삶의 질 향상을 가져온다. 스마트 정부와 인공지능 특화 교육도 인공 지능이 가져올 다양한 혜택들을 누릴 수 있다. 

인공지능은 향후 20년간 인간의 지능을 뛰어넘을 수 없을 것으로 판단된다. 하지만 언젠가는 인간과 대등해질 것이고 여러 분야에서 인간의 능력을 뛰어넘을 것으로 예측된다. 본 보고서를 통해서는 인공지능의 현황과 미래 활용 방안, 그리고 AI가 사회와 공공정책에 끼칠 영향 등을 점검한다. 


인공지능의 역사

‘Artificial Intelligence’라는 용어 자체는 1956년에 최초로 만들어졌지만 인공지능의 역사는 1940년대로 거슬러 올라간다. 인공지능 아이디어는 Alan Turing이 1950년 발행한 논문인 "Computing Machinery and Intelligence"에서 본격적으로 시작되었다. Turing은 논문을 통해 “과연 기계는 생각을 할 수 있을까?”라는 질문을 제기했고, 기계가 어린아이의 학습 능력 수준을 갖출 수 있다는 가능성을 제시했다.

이후 인공지능 연구는 수십 년간 우여곡절을 거쳐오다 1990년 말 영상인식과 의학 진단 등 실용적인 응용분야에 연구가 집중되면서 관련 연구들이 활발해지기 시작했다. 1997년 IBM의 체스 컴퓨터 “DeepBlue”가 인간 체스 챔피언을 물리친 사건, 애플 ‘시리’의 원조 격인 미국 국방위고등연구계회국

(Defense Advanced ResearchProjects Agency)의 인공지능 연구 프로젝트 CALO(Cognitive Assistant that Learns and Organizes), IBM 컴퓨터 ‘왓슨’의 퀴즈쇼 우승, 2000년대 자동차 경주 대회에 등장한 자율주행차량 등은 90년대 이후 인공지능의 발전을 보여주는 대표적인 사건들이다. 

2010년 전후로 이뤄진 인공지능의 발전은 3가지 요인에서 비롯됐다. 첫째, 전자상거래, 비즈니스, 소셜미디어, 과학, 정부 등이 빅데이터를 생성하고, 둘째, 이렇게 생성된 빅데이터가 획기적으로 향상된 기계 학습과 알고리듬의 재료로 쓰이게 되고, 셋째, 기계학습과 알고리듬이 더욱 강력해진 컴퓨터 능력을 활용하면서이다. 인공지능의 발전 속도는 전문가들을 놀라게 할 정도였다. 예를 들어, 인간이 5%의 오류율을 보이는 이미지 인식 과제에서 2011년 26%의 오류율을 보이던 인공지능은 2015년 3.5 %로 향상되었다. 인공지능 산업의 투자 가치도 상승했다. 2016년 구글의 CEO Sundar Pichai는 ‘구글의 모든 서비스 분야에 기계학습(인공지능의 하위분야)을 적용할 것’이라고 밝혔다. 이 발언은 AI에 회사를 모두 걸 것이라고(베팅하겠다고) 발언한 IBM CEO GInni Rometty을 비롯해 기술 산업 분야에서 많은 공감을 이끌어냈다.


인공지능은 무엇인가?                  

모든 전문가들이 동의할만한 인공지능의 정의는 이 세상에 존재하지 않는다. 인공지능 교재로 쓰이는 Stuart Russell and PeterNorvig, Artificial Intelligence: A Modern Approach 논문은 인공지능을 다음과 같이 분류한다:  (1) 인간처럼 생각하는 시스템(인지적 구조와 신경망); (2) 인간처럼 행동하는 시스템(언어 처리, 지식 표현, 자동 추론, 학습으로 Turing시험 통과), (3) 합리적으로 생각하는 시스템(논리풀이, 추론, 최적화);(4) 합리적으로 행동하는 시스템(지능적인 소프트웨어 에이전트, 인식, 계획, 추리, 학습, 대화, 의사결정, 행동을 이뤄내는 로봇 구현). 벤처 자본가 Frank Chen은 인공 지능의 문제를 논리적 추리, 지식표현, 계획과 탐색, 언어처리와 인식 5개 항목으로 나눈다. 인공지능 정의는 시간이 지나면서 달라질 수 있지만 중요한 점은 지난 수십 년간 인공지능 연구의 핵심 목표는 지능적인 행동을 자동화하고 복제하는 것에 초점이 맞춰져 왔다는 사실이다. 


인공지능의 현재 

전략 게임, 번역, 자율주행, 영상인식 분야에 적용되는 약한 인공지능은 그동안 놀라운 발전을 거둬왔다. 약한 인공 지능은 여행 계획, 소비자 추천 시스템, 광고 타겟팅과 같은 많은 상업 서비스들을 가능케 했고, 최근에는 의학 진단, 교육, 과학 연구 분야에서 더욱 중요한 응용 기회를 모색하고 있다.. 

범용 인공지능(General AI)(또는 AGI, Artificial General Intelligence)은 인간과 동일한인지 능력으로 지능적 행동을 구사하는 미래 인공지능 시스템을 언급하는 개념이다. 현재 국가과학기술위원회(이하 NSTC)와 의견을 같이 하는 민간 전문가 단체는 당분간 범용 인공지능의 실현은 힘들 것이라고 판단한다. 반면 어떤 이들은 '지능 폭발'과 '기술적 특이점(싱귤래러티)'이 일어나 기계가 인간의 지능 수준을 넘어 빠르게 진화할 것이라고 예상한다. 디스토피아적인 시각에서 보면 슈퍼 지능이 탑재된 기계는 인간의 이해와 제어 능력을 넘어설 것이다. 만일 컴퓨터가 주요 사회 시스템을 통제하고 제어한다면 큰 혼란을 가져올 것이고, 인간은 더 이상 자신의 삶을 제어하지 못하고 최악의 경우엔 멸종할 것이다. 미래를 좀 더 긍정적으로 보는 연구자들은 지능 시스템 개발을 통해 인간의 협력자, 어시스턴트, 팀메이트, 트레이너가 되는 방식으로 안전하고 도덕적으로 인공지능이 사용될 것이라고 주장한다.

NSTC는 슈퍼 지능을 가진 범용 인공지능의 미래에 대한 우려가 현재 정책에 영향을 끼쳐서는 안 된다고 평가한다. 장기 리스크를 해결할 수 있는 역량을 구축하는 가장 좋은 방법은 이미 존재하는 저위험도 리스크를 먼저 해결하는 것이다. 정부와 기업의 인공지능 전문가들은 인공 지능의 진화를 다룰 때, 기술적인 문제들 외에도 장기적인 관점에서 사회와 윤리적 문제들에 대한 고려를 해야 할 것이다.


머신 러닝(기계 학습)

기계학습은 인공지능의 발전과 상업적 응용의 기본이 된다. 현대의 기계학습은 미래 데이터를 예측하고 설명하는 기존 데이터 세트의 규칙이나 절차를 분석하는 통계적 프로세스이다. 이는 프로그래머와 전문 인력을 통해 규칙과 표준을 배우고 추리하여 소프트웨어 코드로 변환시키는 과거의 '전문 시스템'과는 대조적이다. 전문가들이 사용한 원칙을 모방한 전문 시스템과 달리 기계 학습은 통계적인 방법으로 더욱 정확한 판단을 내릴 수 있다.

기계 학습의 장점은 실행이 불가능하거나 문제 해결을 위한 명시적 답안이 없는 케이스에 유용하다. 예를 들어, 온라인 서비스를 이용하는 기업이 기계 학습을 통해 사용자들의 부정한 로그인 시도 정보를 파악할 수 있다.

기계 학습을 적용하는 방법의 시작 단계는 전문가가 과거 데이터 세트를 훈련 세트(training set)와 테스트 세트(test set)로 구별하는 것이다. 전문가는 모델(model)이나 매개변수를 통해 의사 결정 규칙을 구현할 수학 구조를 선정한다. 모델은 규칙을 적용할 '상자'로, 매개변수는 상자가 어떻게 운영될지 조절 가능한 손잡이로 표현할 수 있다. 실제로는 하나의 모델에 수 만개의 매개변수가 존재할 수 있다.

실무자는 또한 특정한 매개 변수를 선택한 결과가 바람직한지를 평가하는 데 사용될 목적함수(Objective function)를 정의한다. 목적함수는 일반적으로 좀 더 간단한 규칙에 보상을 하는 부분들 뿐만 아니라 훈련 세트에 좀 더 일치되는 모델에 보상을 하는 요소들을 포함한다.

모델을 훈련시키는 것은 매개변수를 조정하여 목적함수를 최대한 활용하는 과정이다. 기계학습 과정에서 훈련은 기술적으로 어려운 단계이다. 수만 개의 매개변수들을 포함한 모델은 어느 알고리즘보다 천문학적인 숫자의 결과를 나타낼 것이고, 성공적인 훈련 알고리즘은 실현 가능한 컴퓨팅 능력을 이용한 매개 변수 세팅을 동원해야 한다.

일단 모델이 훈련되면, 연구자는 테스트 세트를 사용하여 모델의 정확성과 효과를 평가할 수 있다. 기계 학습의 목표는 일반화할 수 있는 훈련된 모델을 만드는 것이다. 이 모델은 훈련 세트뿐만 아니라 이전에 보지 못했던 미래의 사례에도 정확하게 작용한다. 통상 이 모델들은 영상 표지처럼 정확성을 필요로 하는 과제에서 인간의 능력보다 우월하지만 이런 예상을 빗나가는 모델도 존재한다. 예를 들어, 다수의 이미지 라벨링 모델들의 경우, 인간에게 랜덤 노이즈로 보이는 이미지를 만들 수 있지만 훈련을 거친 모델은 굉장히 자신감으로 특정 물체로 잘못 라벨링(식별)할 수도 있다.

머신러닝을 사용할 때 발생하는 또 다른 문제는 일반적으로 훈련된 특정 모델이 왜 효과적인지에 대해 간단한 설명을 도출할 수 없다는 것이다. 훈련된 모델은 조정 가능한 매개변수가 매우 많기 때문에(종종 수십억 개가 넘는다) 교육을 통해 데이터와 일치하는 차원에서 '작동'이 되는 모델을 산출할 수 있지만 이것이 가장 단순한 모델이 아닐 수 있다. 인간의 의사결정 과정에 내포된 불명확성은 일반적으로 어떤 결정이 왜 내려져야 하는가에 관한 충분한 정보가 없는 탓인데, 결정자가 자신의 결정이 왜 '옳은 것'이라 느끼는지 명확하게 밝힐 수 없기 때문이다. 머신러닝에서 의사 결정에 관한 모든 절차는 수학적 정밀함을 가진다고 알려져 있지만 정확하게 해석하기에는 너무 많은 정보가 존재할 수 있다.


딥러닝(Deep Learning) 

지난 몇 년간 머신러닝의 하위 주제인 딥러닝(딥 네트워크 러닝)은 가장 인상적인 발전을 보였다. 딥 러닝은 뉴런 세포로 구성된 인간의 뇌와 유사한 구조를 이룬다. 각 유닛은 일련의 입력 값을 결합하여 출력 값을 생성하며, 출력 값은 차례로 다른 뉴런의 다운스트림으로 전달된다.

예를 들어, 이미지 인식을 응용할 때 첫 번째 유닛 레이어는 이미지의 간단한 패턴을 인식하기 위해 이미지의 기초 데이터를 조합하며; 두 번째 레이어는 패턴의 패턴을 인식하기 위해 첫 번째 레이어의 결과를 조합하고; 세 번째 레이어는 두 번째 레이어에서 생성된 결과를 다시 조합하는 식으로; 같은 과정을 계속 반복한다.

딥 러닝 네트워크는 때때로 100개 이상의 레이어를 사용하고 일반적으로 여러 레이어를 사용한다. 하나의 레이어는 많은 숫자의 유닛으로 구성되어있다. 이는 데이터의 복잡한 패턴을 정확하게 인식하기 위한 구조이다.


자율성(Autonomy)과 자동화(Automation)

Autonomy(자율성)은 어떠한 행위를 인간의 통제력 없이 오직 시스템으로만 제어하는 것을 뜻한다. 예를 들어, 자율주행차량은 자율적인 통제를 거쳐 목적지에 도착한다. 이 자율성은 차량, 항공기에 적용될 수 있지만, 자동 금융 트레이딩과 자동 콘텐츠 큐레이션 시스템같은, 더 큰 시나리오에 적용될 수 있다. 또한 자율성은 운영 중 자가진단을 거쳐 결함시 자가 조치를 취하거나, 보안 취약점을 발견해 자가 조치를 하는 것이 가능하다. 

Automation(자동화)는 인간의 힘으로 한번 수행된 행위를 다시 반복하는 것을 뜻한다. 인공지능의 발전은 인간의 일자리를 대체하고 자율적으로 운용하는 단계에 이르고 있다. 하지만, 자동화 역사의 다음 단계로 간주할 것인지, 과거와는 다른 경제적 변화를 가져올 것인지의 논란은 계속되고 있다.


인간과 기계 협동성

우리의 일자리를 대체하는 오토메이션과는 달리 인간의 과업을 보완하는 사례도 있다. 정보 확대는 인간의 인지 능력을 보완하는 시스템으로 개발된다. 인간과 기계가 서로의 단점을 보완하여 협동하면 효율성을 증가시킬 수 있다. 영상의학 분야에서는 림프절 세포를 관찰해 암세포 포함 여부를 파악하는 과정에서 인공지능은 7.5% 오차율을, 병리학자는 3.5% 오차율을 보였다. 하지만 인공 지능과 병리학자가 협동한 결과 오차율은 0.5%로 감소하고, 오류는 85%까지 감소하였다. 


인공지능의 사회 복지 응용

인공 지능과 머신 러닝은 사회적 문제와 비효율을 해결해 사람들의 삶을 향상시킬 수 있는 잠재력을 갖고 있다. 

의료 분야에서 Walter Reed Medical Center는 신속하고 효과적인 치료, 의료 비용 경감, 효율적인 의학 진단을 위해 인공지능 기술을 적용하고 있다. 존스홉킨스 대학은 감염 경로를 줄이고 합병증 발생률을 감소시키기 위해 인공지능을 적용한다. 의료 데이터 분석을 통한 암 연구와 정밀 의약품도 이 분야의 핵심이 될 수 있다.

교통 분야에서는 교통관리시스템에 인공지능을 적용해 대기 시간, 에너지 소비, 가스 배출량을 약 25% 줄일 수 있다. 아울러 즉시 배차 및 노선 시스템 개발을 통해 교통편 호출 시스템, 배차 시간과 트래킹 소프트웨어를 연결시킴으로써 빠르고 저렴한 대중교통 시스템을 개발하는 연구도 시작되었다.

일부 연구자들은 SNS에 올라온 관광객들의 사진을 분석해 야생동물의 집단 이주 추적 시스템을 개선하는데 인공지능 이미지 분류 소프트웨어를 이용하고 있다. 사진 속 야생동물들의 사진을 포착한 뒤 위치 정보를 통해 이주 과정 데이터 베이스를 구축하는 식이다. 미국 과학기술국(OSTP)의 ‘AIfor Social Good’ 워크숍에서는 연구자들이 고래와 대형 아프리카 동물의 이주 과정과 개체들의 광대한 데이터 세트를 구축한 사례와 바다 생명체들에 관한 새로운 통찰력을 얻기 위한 'TheInternet of Turtles' 프로그램을 발표했다. 다른 발표자들은 밀렵 반대 단체들의 순찰 전략을 최적화하거나 멸종위기 동물의 종 다양성을 극대화하기 위한 전략을 구축하는데 인공지능을 응용한 사례들을 설명했다. 

센서 장치를 장착한 자율주행 범선과 수상 크래프트는 바다 위를 순찰하며 해양생물 생태계와 북극 얼음의 변화에 관한 데이터를 수집하고 있다. 자율주행 수상 크래프트는 유인 선박에 비해 운용 비용이 저렴하며 향후 기상 예측, 기후 변화 모니터링을 강화하고 불법 어업을 규제하는 데 사용될 것으로 보인다.

인공지능은 사법정의 시스템에도 도입된다. 범죄 보고, 치안, 보석, 선고 결정 등이 이에 포함된다. 행정부는  법 집행 결정에 좀 더 많은 정보를 제공하는 데이터를 법 집행기관과 대중에 제공하기 위한 Data Driven Justice이나 Police Data Initiative 등의 프로그램에 인공지능이 얼마나 많은 도움을 줄 수 있을지를 시험하고 있다. 동시에 이용 가능한 데이터가 부족한 탓에 인공지능이 오히려 편견이나 부정확함을 가져올 가능성을 최소화하기 위한 연구도 함께 진행 중이다. 

미국 교육 기관들은 인공지능을 응용해 경제적, 사회적 결함을 해결하기 위한 연구를 진행 중이다. 예를 들어, 시카고 대학교는 실업과 대학 중퇴 문제를 해결하고자 데이터 과학과 인공 지능을 이용하는 프로그램을 개발했다. Southern California 대학교는 Center for Artificial Intelligence in Society 기관을 설립하고 노숙자 문제와 같은 사회적 이슈를 다루는데 인공지능과 머신러닝을 사용하고 있다. 스탠퍼드 대학 연구원들은 머신 러닝으로 위성 이미지를 분석해 가장 도움이 필요한 빈곤 지역을 선정하는 식으로 세계 빈곤문제 해결책을 연구 중이다. 

사회복지 분야 연구는 머신러닝 모델 훈련과 인공지능 시스템 기능 테스트에 사용될 수 있는 데이터가 있는지 여부에 기반하고 있다. 프라이버시나 영업비밀을 침해하지 않고 공개될 수 있는 데이터를 가진 단체와 기구들은 연구자들에게 자신들이 가진 데이터를 제공하는 식으로 인공지능 개발을 도울 수 있다. 


연방 정부의 인공 지능 

행정부는 인공 지능의 경제, 사회적 혜택을 극대화하고 혁신을 촉진할 수 있는 정책과 내부 절차를 개발하고 있다. 이 같은 정책과 관행에는 다음 내용들이 포함된다:

·기초 및 응용 연구&개발에 대한 투자;

·정부가 우선해 인공지능 기술과 응용 사례를 도입

·현실적인 환경 하의 테스트 베드를 구축하고 파일럿 프로젝트를 지원;

·대중이 사용 가능한 데이터 세트 구축;

·인센티브 성과 후원;

·야심차지만 달성 가능한 목표를 설정하기 위해 ‘중대 도전과제’를 선정하고 추구;

·인공지능의 영향과 비용 효율성을 측정하기 위해 적극적인 AI 응용 평가에 재정 지원;

·대중을 보호하는 동시에 혁신을 가능케 하는 정책적, 법적, 규제적 환경을 구축.


미국 시민들에게 혜택과 서비스를 제공하기 위한 정부의 인공지능 기술 도입

인공지능 도입을 통해 서비스를 개선하는 과정에서 드러나는 문제점은 연방정부 산하 각 기관들의 의견이 일치하지 않는다는 것이다. 예를 들어, 과학자와 엔지니어로 구성된 개발 인력과 예산이 풍부하며 혁신과 실험적인 문화을 갖추고 민간 영역의 혁신가들과 협업이 잘 이뤄지는 조직은 혁신에 좀 더 초점이 맞춰져 있다. 

다른 조직은 하이 리스크, 하이 리턴 성격을 갖는 연구(예를 들어, Departments of Defenseand Energy의 연구 프로젝트 에이전시, Intelligence Community)를 지원하는 업무에 특화되어 있거나, 기초 연구부터 고급 연구 단계까지 폭넓게 개발을 지원한다. NSF와 같은 기관들은 연구와 개발이 주요 업무이다. 

반면, 빈곤 문제를 해결하고 경제, 사회적 유연성을 향상하는 임무를 가진 기관들의 경우, 관련 역량이나 재원, 전문가 역량이 다소 미흡하다. 예를 들어, NIH의 연구개발 예산은 300억 이상이지만, 노동 연구 개발 부서는 140억 가량이다. 이 때문에 최종 학력이 고등학교 졸업인 취업자의 기술과 소득 향상을 위한 인공 지능 기반의 “디지털 교사” 기술 개발을 시도했지만 예산 부족으로 제한되었다.

DARPA의 “Education Dominance” 프로그램은 인공지능이 기관들의 우선 과제들을 실현하고 촉진하게끔 해줄 수 있다는 가능성을 보여준 사례다. DARPA는 해군 신병들이 전문적인 기술을 습득하는 시간을 줄일 목적으로 전문가와 초보자 간의 상호교류를 모델링하는데 인공지능을 사용하는 Digital Tutor 개발을 후원하고 있다. 이 프로그램을 평가한 전문가들은 IT 시스템 관리자가 되기 위해 Digital Tutor 프로그램을 이용한 해군 신병들의 경우, 필기 시험과 실제 문제 해결에서 7~10년의 경력을 가진 전문가를 능가한다고 결론 내렸다.

Digital tutor 파일럿 프로젝트는 이 프로그램을 통해 훈련받은 근로자들이 보다 높은 소득을 보장하는 하이테크 일자리를 얻을 가능성을 높여준다는 일종의 예비 증거를 제시해준다. 이 같은 임금 인상은 현재의 인력 개발 프로그램보다 더 큰 영향을 미칠 것이다. 이런 결과들은 독립적, 무작위, 통제된 환경에서 수행된 실험을 통해 확인되는 것이 가장 이상적이다. 현재로선 Digital Tutor를 개발하는 비용이 높고, 효과적인 개발 방법을 위한 반복적인 방법론이 존재하지 않는다. Digital Tutor와 같이 인공지능을 이용하려는 산업의 출현을 초래하는 연구들은 근로자들이 필요한 기술을 습득하도록 지원할 것이다. 


인공 지능과 규제

인공지능은 자동차 및 항공기와 같은 제품에 응용될 수 있는데, 이들 제품은 사용자들을 보호하고 공정한 경쟁을 보장하는 규칙들의 적용을 받는다. 이러한 제품에 인공 지능 기술을 적용할 경우 관련 규제법에 어떠한 영향을 줄 것인가? 일반적으로 사회 안전을 보호하기 위한 인공지능제품 규제에 접근하는 방식은 인공지능 기술을 추가할 경우 증감되는 위험 요소를 평가하여 분석하는 식으로 이뤄진다. 만일 관련 리스크가 기존의 규제 범위에 포함될 경우 해당 리스크에 대한 조치가 이루어지고 있는지 또는 인공지능의 추가 활성화에 대한 적응 여부를 고려하는 정책적 논의가 필요하다. 또한 인공지능 추가 활성화 대응에서 규정 준수 비용의 증가나, 개발 또는 혜택을 지연시키는 상황이 발생할 경우 정책 입안자는 안전과 시장 공정성에 악영향을 발생시키지 않는 방면으로 비용을 낮추고 혁신을 가로막는 문제점을 피할 수 있는 대책을 마련하고 조정 방법을 고려해야 한다. 

RFI 평가자들은 인공지능 연구나 관행에 대한 광범위한 규제는 아직 권장되지 않는다는 일치된 의견을 제시하였다. 대신 현존하는 규정의 목표와 구조로 충분하지만 인공지능 기술의 영향을 설명하기 위해 적절한 조정을 하는 작업이 필요하다고 제시했다. 예를 들어, 자율 차량의 구현을 예측하기 위해 현재의 차량 안전규정 범위 내에서 적절한 변화가 이뤄져야 한다고 제안했다. 이런 과정에서 기관들은 인공 지능의 혁신과 성장을 위한 기회를 만드는 동시에 근본적인 목적과 목표에 중점을 둬야 한다. 

인공지능과 같은 기술의 효과적인 규제는 기관이 규제적 의사 결정을 하는데 도움을 줄 내부 전문기술 지식을 필요로 한다. 규제 부서 및 기관 그리고 프로세스의 모든 단계에서 책임자급 전문가의 참여가 필요하다. 

현재의 기술 발전 단계에 관해 다양한 관점을 가진 연방 인력을 양성하기 위해 ‘인력 배치와 교환’ 모델이 도입될 수 있다. 예를 들어, Intergovernmental Personnel Act(이하 "IPA") Mobility 프로그램은 연방 정부와 주정부 및 지방 정부, 전문대학과 대학, 인디언 종족의 정부, 연방 기금 연구 개발 센터 및 자격이 있는 기타 조직 간의 일시적 인력 배치를 제공한다. 전략적으로 접근할 경우, IPA 프로그램을 통해 고용이 힘든 자리를 충족시키고 다양한 기술적 배경을 가진 후보자를 고용하도록 지원한다. IPA 프로그램의 연방 직원은 연방 인력의 신입 직원 모집 및 대사 역할을 수행할 수 있다. 예를 들어, 강사로 대학에 파견된 직원들은 학생들에게 연방정부 지원을 고려하도록 홍보할 수 있다. 다양한 직업과 분야를 통해 직원들을 순환시키는 프로그램은 공무원들이 관련 규정과 정책을 알리기 위한 지식과 경험을 쌓을 수 있도록 지원한다. 


케이스 스터디 : 자율주행 차량 및 자율주행 항공기

자율주행 차량 및 무인 항공기 시스템(UAS 또는 '무인 항공기')과 관련한 미국 교통부(DOT)의 작업은  인공지능 기반 제품을 위해 과거 규정을 개정하려는 기관들의 노력을 보여주는 적절한 예이다. 교통부 내에서 자동화 차량은 NHTSA (National HighwayTraffic Safety Administration), 항공기는 FAA (FederalAviation Administration)에 의해 규제된다.


자율운행 협정

차량과 항공기의 인공지능 적용은 대중의 상상력을 사로잡았다. 오늘날의 신형 자동차에는 셀프 주차, 첨단 크루즈 컨트롤과 같이 인공 지능에 기반한 운전자 보조 기능이 포함되어 차선을 정확히 유지하고 주변 차량에 맞춰 속도를 조정한다. 인간 모니터링이 완료된 실험용 자율주행 차량은 이미 도로에서 주행 중이다. 전문가들은 차량 자동화 기술이 결국 인간 운전자보다 안전할 것이며, 전 세계 도로와 고속도로에서 발생하는 수만 명의 사망자 발생을 막을 수 있다고 주장한다. 

자율주행 차량은 미국 시민들 중 운전이 힘든 장애인 및 노약자에게 많은 가능성을 제공한다. 환승을 위한 최초 또는 최종 1마일 접근이나 기타 다른 새로운 교통수단의 출현은 일자리, 건강 관리, 식품과 같은 필수 서비스로부터 격리된 커뮤니티에 전례 없는 기회를 제공할 수 있다. 충돌을 예측하여 회피가 가능하도록 설계된 자동화 차량 시스템은 차량 이동 중 가스 배출이나 에너지 소비를 감소시킬 수도 있다. 행정부는 자동화 차량 연구, 개발, 배치를 위해 2017년 회계연도(FY) 교통부 예산안에 39억 달러 투자를 제안하는 등 비전을 현실화하기 위한 조치를 시행 중이다.  

1990 년대 초반부터 무인항공기는 National Airspace System(NAS)에서 제한적으로 운영되었다. 최근까지 무인항공기는 군사와 국경 보안과 같은 정부 작전을 주로 지원했다. 그러나 최근 몇 년간 항공사진 촬영, 육상과 작물 조사, 산불 감시, 재해 대응, 주요 인프라 점검 등 응용 분야가 급속하게 확대되었다. 여러 정부 기관들은 이미 무인항공기를 통해 다양한 임무를 수행하고 있으며, 수천 명의 미국인들이 상업용 무인항공기 운영을 위해 연방항공청(Federal Aviation Administration, FAA)으로부터 필요한 권한을 획득했다. 특히 2016년 8월부터 시행된 FAA의 'Small UAS Rule'와 2015년 12월 시작한 FAA의 소형 무인항공기 등록 서비스에 따라 절차가 단축되었다. FAA는 2017년 8월까지 상업용으로 등록된 UAS가 60만 개를 초과할 것으로 추정한다.

무인항공기를 상용화할 경우 예상되는 경제적 영향은 통합 후 최초 3년간 136억 달러 이상의 경제적 가치가 무인항공기를 통해 창출되고, 지속적으로 성장이 이어질 것으로 예측되었다. 2013년 Unmanned Vehicle Systems International 기관이 수행한 연구에 따르면 상업용 무인 항공기 산업이 820억 달러 이상의 가치를 창출하고 향후 10년 동안 10만 개 이상의 새로운 일자리를 만들 것이라고 예측됐다. 아울러 세수는 통합 후 첫 10년 동안 4억 8200만 달러 이상 증가할 것으로 예측되었다.


안전 보장

새로운 유망 기술의 장점을 실현하기 위해서 정부는 영공 및 도로의 안전을 확보하고 혁신과 성장의 문화를 조성하기 위해 노력해야 한다. 미국은 세계에서 가장 안전하고 복잡한 항공 시스템을 보유하고 있으며 대중은 안전 기준을 수립하기 위해 미국 연방항공청(FAA)의 감독에 의존한다. 미국 연방자동차 안전기준(FMVSS , Federal Motor Vehicle Safety Standards)는 안전한 차량을 개발하기 위해 제조업체에 요구 사항을 전달하며, 도로교통안전국(NHTSA)은 불합리한 리스크가 있는 경우 차량 리콜 권한을 가지고 있다. 

이러한 안전 중시 환경에서 인공지능의 기술을 적용하려면 몇 가지 문제가 발생한다. 첫째, 운전이나 비행 중 인간의 통제를 소프트웨어로 변환할 필요가 있다. 약한 인공 지능을 성공적으로 응용 프로그램에 적용하는 것과 달리, 지상 또는 항공기를 작동시키는 작업에 대한 간결한 설명은 존재하지 않는다. 이러한 작업은 차량 조작, 장애물 감지 및 회피, 타이어 펑크와 같은 기계적 결함 조치와 같은 다양한 업무를 수행해야 한다. 내비게이션이나 특정한 인식과 같은 하위 작업은 기존의 약한 인공 지능 설루션과 연계될 수 있지만 (자율주행) 작업의 통합은 그렇지 않을 수 있다. 단순히 모든 교통 법규를 준수하는 것처럼 보일 수도 있지만, 숙련된 운전자는 이중 주차 차량을 지나가거나 사고를 피하기 위해 노란 경계선을 침범할 수도 있다. 이러한 상황은 드물지만 무시할 수는 없는 경우다. 적어도 인간이 운전하는 경우보다 결함이 자주 발생하지 않도록 하기 위해 여러 희귀 사례를 실패없이 처리해야 한다.

머신 러닝에 의존하는 시스템의 경우 잘 발생하지 않는 케이스를 올바르게 만들어야 할 필요성은 시스템 설계 및 테스트에 영향을 미친다. 유사한 케이스가 트레이닝 세트에 포함된 경우라면 케이스를 정확하게 처리하고 머신 러닝이 보다 손쉽게 적용될 수 있다. 문제는 사고 리스크가 있는 희귀 케이스를 충분히 포함하는 데이터 세트를 어떻게 개발할 것인가이다. 상업 항공에는 사고 및 안전 데이터를 전반적으로 공유할 수 있는 메커니즘이 있지만, 보고(reporting)는 기존 항공 산업의 안전 및 책임 문화에 익숙하지 않은, 최근에 인증된 무인항공기 운영자에게 중요하지 않을 수도 있다. 현재 자동차 산업에도 비슷한 시스템은 존재하지 않으며 치명적인 사고만 보고되고 다른 교통안전정보 수집 및 보고는 주 또는 지방 수준에서 각기 다른 방식으로 수행된다. 일관되게 보고된 사건 또는 거의 오류에 가까운 데이터의 부족은 시스템 안전을 확보하는데 필요한 주행거리 또는 작업 시간을 증가시키고, 유효성 검사를 위한 테스트가 필요한 특정 인공 지능 방식에 장애물을 제공한다.


FAA는 안전한 테스트를 위해 전국에 6개의 무인항공기 테스트 지역을 지정하고 해당 지역 내 무인항공기 운영을 승인했다. 저고도 영공에서 눈으로 볼 수 있는 범위를 벗어난 대규모의 무인 항공 운영을 위해 요구되는 사항을 파악하기 위해 NASA가 다년간 진행해온 UAS 트래픽 관리(UTM) 관리 연구 확장 프로젝트도 이들 지역 내 에서 이뤄지는 활동에 포함된다. 이와 유사하게, 2016년 교통부의 스마트 도시 챌린지(Smart City Challenge)에서 4,000만 달러를 수상한 오하이오 주 콜럼버스(Columbus, Ohio) 소재 Connected Vehicle Pilot 및 자동 차량배치와 같은 지상차량 테스트 베드는 인공지능 연구자들을 위해 풍부한 기준과 상호작용 데이터를 제공한다.


현존하는 규제의 적용

영공과 고속도로에 적용되는 규제 방식은 다르지만 자율 차량과 항공기에 대한 규제 접근은 공통적인 목표를 가지고 있다. FAA와 NHTSA는 혁신을 촉진하고 안전을 보장하는 민첩하고 유연한 체계를 수립하기 위해 노력 중이다.

2016년 8월 29일 발표된 FAA의 107장(Part 107) ("Small UAS" 최종 규정) 규정은 무인 항공기를 영공에 안전하게 통합하기 위한 중요한 단계였다. 이 규정은 최초로 55 파운드 이하 무인항공기가 레저 목적이 아닌 비행을 하도록 허용했다. 이 규정은 라이선스 소지 사용자가 시내에서 400 피트 이하의 고도를 유지하며 낮에만 비행을 하도록 제한한다. 경험과 데이터가 쌓이면 이러한 규제 제한을 안전하게 완화하기 위한 후속 규제가 뒤따를 것이다. 특히 교통부는 현재 특정 유형의 "소형 UAS"가 사람들 머리 위로 운행할 수 있도록 허용하는 체계를 제안하기 위해 ‘발의 예정 법안 고지’를 준비 중이며, 향후 확장된 운용 규칙이 나올 것으로 예상된다.

FAA는 아직 완전 자동 비행을 허용하는 규정을 공개적으로 발표하지는 않았다. 공역에 자율 항공기를 안전하게 도입하는 것은 복잡한 과정이지만 FAA는 자율 항공기와 파일럿이 탑승한 항공기가 완벽하게 통합되어 공역 시스템에서 동시에 비행하는 것이 먼 미래의 기술은 아니며, 그러한 날이 그리 멀지 않다고 보고 대비를 하는 중이다.

항공교통 관리에 대한 새로운 접근법에는 인공지능 기반 항공교통관제시스템의 향상도 포함된다. 현재 공중/지상 통합의 한계와 공중/지상 간 사람들의 커뮤니케이션에 의존하는 구조 탓에 공역 관리 구조 안에서 미래 항공 교통 운영의 다양성을 예측하는 것은 현실적으로 불가능하다. 2007년 미국 내 비행 지연으로 인한 피해는 312억 달러로 추산된다. 일부 비행 지연은 기상 악화 및 기타 제약으로 인해 불가피한 경우들이다. 새로운 항공 기술의 채택 및 정책의 적용, 인프라 업그레이드를 통해 미국 영공 운영의 효율성을 크게 높일 수 있다. 이러한 해결책은 인공지능 및 기계 학습 기반 구축을 통해 파일럿 및 비(非)파일럿 항공기를 포함해 더욱 넓은 범위의 영공 이용자들을 더욱 잘 수용하고, 안전을 침해하지 않으면서 영공을 이용할 수 있게 해준다. 이러한 기술의 개발과 적용은 안전을 증가시키고 비용을 줄이면서 영공 사용자 및 서비스 제공자를 위한 국제 경쟁력을 확보하는데 도움이 될 것이다.


지상 운송과 관련하여 현재 전반적인 프레임을 수립하는 가장 중요한 단계는 2016년 9월 20일 행정부가 발표한 연방 자동화 차량 정책(Federal Automated VehiclesPolicy)으로 주요 내용은 다음과 같다:

·제조업체, 개발자 및 기타 조직을 위한 자동화된 차량의 안전한 설계, 개발, 테스트 및 배치에 대한 15점 척도의 "안전성 평가" 지침.

·연방 정부와 주정부의 책임을 분명히 구분하며, 주 정부에게 실험을 위한 좀 더 많은 기회를 제공하는가운데 자율주행 차량의 시험 및 운영을 위한 일관된 체계를 창출한다는 목표로 주 정부가 고려해야 할 정책 분야를 권장하는 표준 주 정부 정책.

·NHTS가 자동화된 차량의 안전성 개발을 돕기 위해 사용할 수 있는 현재 규제 도구에 대한 분석. 예를 들어 현재의 규칙을 해석하여 디자인에 적절한 유연성을 부여하고, 새로운 차량 디지 안의 테스트를 위한 제한된 예외 적용, 안전하지 않은 자동 차량은 도로에서 제거되도록 보장함.

·새로운 인명구조 기술의 안전하고 효율적인 배치와 안전성 보장을 위해 미래에 추구할 수 있는 새로운 도구 및 기능에 대한 논의.

교통부는 새로운 데이터가 습득되고 연구가 진행됨에 따라 지침 및 정책모델을 주기적으로 업데이트할 것이다.


연구 및 인력

정부는 연구 개발 투자, 숙련되고 다양한 인력을 개발, 개발 과정의 경제적 영향을 관리함으로써 AI 분야를 발전시키는데 중요한 역할을 담당한다. National Artificial Intelligence Researchand Development Strategic Plan은 본 보고서와 동시에 발간되었다. 이 섹션에서는 연구 및 인력 개발과 관련된 추가 정책 이슈에 대해 논의한다.


AI 개발 과정 모니터링

AI의 잠재적 영향을 감안할 때 우리 사회는 AI의 발전 과정에 대한 모니터링과 정확한 예측으로 이익을 얻을 수 있다. 미국은 여러 프로젝트를 통해 AI의 전망을 예측하려 시도하고 있다. 2009년 AAAI Presidential Panel on Long-Term AI Futures, 2015년 Future of AI Conference 은 AI 전문가를 불러 모았다. 또한 스탠퍼드의 One-Hundred Year Study onArtificial Intelligence 연구에서는 "AI가 자동화, 국가 안보, 심리, 윤리, 법, 사생활, 민주주의 및 다른 문제들에 어떻게 영향을 미치는지에 관한 주기적 연구”를 진행할 계획이라고 밝혔다. 이 연구는 2016년 9월에 최초로 발간되었다.

또 다른 유용한 연구 방식은 시간이 흐름에 따라 전문가 판단을 조사하는 것이다. 예를 들어, AI 연구자들을 상대로 한 조사에 따르면 응답자의 80%는 인간 수준의 AI가 결국 달성될 것이라고 믿었으며, 그 중 절반은 2040 년 내에 이뤄질 가능성이 50% 이상이라고 답했다. 대부분의 응답자는 범용 인공지능이 결국은 일반정보 분야에서 인간을 능가할 것이라고 판단했다. 위에서 언급한 것처럼 특정한 예측은 매우 불확실하지만 전문가 판단을 대상으로 한 조사는 유용하다. 이러한 판단을 유도하는 한 가지 방법은 참가자가 정확한 예측을 했을 때 인센티브가 주어지는 예측 시장과 같이 "예측 토너먼트"를 운영하는 것이다.

다른 연구 결과에 따르면 출판 및 특허 데이터의 동향을 분석하여 기술발전을 정확히 예측할 수 있다.

현재 AI의 기본 연구 대부분은 학계 및 상업 연구실에서 정기적으로 결과를 발표하고 연구 문헌에 게시하는 식으로 이뤄진다. 경쟁이 증가하여 비밀리에 실험실을 운영하면 과정을 모니터링하는 것이 어려워진다. 연구 분야에서 의미있는 방향 중 하나는 AI 기능 발전을 보여주는 중요한 증거들을 예측하는 것이다. 특히 범용 인공지능 현실화 증거에 관한 질문에 대해 연구자들은 3가지 유형의 관련 답변을 내놨다.

1.범위가 넓지만 덜 구조화된 작업에서의 성공 : 현재 약한 AI에서 최종 범용 인공지능로의 전환은 약한 AI 시스템의 기능을 점진적으로 확장하여 단일 시스템보다 덜 구조화된 작업 범위를 포괄하는 방식으로 이뤄진다. 이 분야에서의 중요한 증거물은 일상적인 집안일을 도맡아 할 수 있는 청소 로봇이다.

2.AI 방법의 다양한 '스타일' 통합 : 이 관점에서 AI는 현재 서로 다른 유형의 응용 프로그램에 유용한 개별적인 방법이나 접근 방식을 사용한다. 범용 인공지능 현실화 과정은 이러한 방법을 점진적으로 통합하는 것을 필요로 한다. 이전에는 여러가지 방법이 필요한 더 큰 응용 프로그램 영역을 처리하는 단일한 방법을 찾는 것이 이상적인 방향이었다.

3. 전이 학습과 같은 특정 기술 과제 해결: 이 견해에서 범용 인공지능에 대한 경로는 점진적으로 범위를 확장하거나 기존 방법을 통일하는 것이 아니라 새로운 기술적 진보를 통해 새로운 방법을 제시하는 것이다. 가장 일반적으로 언급되는 도전과제는 전이학습이다. 이는 광범위한 새로운 응용 프로그램에 넓게 적용(또는전송)될 수 있는 머신 러닝 알고리즘을 생성하는 식이다. 예를 들어, 전이학습을 통해 모델을 영어에서 스페인어로 번역하도록 훈련을 시키며, 비슷한 방법을 통해 어떠한 지식을 중국어에서 프랑스어로 번역하거나 러시아어로 시를 쓰는 등의 유사한 작업으로 '전이'할 수 있다. 이런 방식으로 새로운 일들을 훨씬 더 빨리 배울 수 있다.


AI 연구를 위한 연방 정부 지원

2015년 AI 관련 기술 연구 개발을 위한 미국 정부의 투자는 약 11억 달러였으며, 2016년에는 예비 추정치가 12억 달러로 증가했다. OSTP가 실시한 AI 워크숍 및 공공 봉사 활동을 통해 정부 관료들은 비즈니스 리더, 기술자 및 경제학자로부터 더 많은 정부투자 요청을 받았다.

AI 분야의 선도적인 연구자들은 최근 AI의 급속한 발전과 광범위한 응용 분야 적용에 대해 낙관적이었다. 동시에 그들은 아직 답변하지 못한 질문이 많이 있으며 범용 인공지능에 대한 명확한 경로가 없다고 강조했다.

연구자들은 AI 연구에 대한 열정과 투자가 최근 수십 년동안 계속 변동되어 왔다고 보고했다. 이 시기 중 한 때는  "AI 겨울"이라고 일컬어지며, 15년 이상 걸리는 주요 컴퓨터과학 전공의 역사를 고려할 때 지속적인 투자의 중요성을 강조했다. 

AI 연구를 위한 연방기금 증가가 발전과정을 촉진시킬 수도 있다. 경제자문위원회(CEA)의 분석에 따르면 모든 연구 영역에서 AI 포함 연구 투자가 2~3배로 증가하면 결과적으로 경제 성장이 증가하여 국가에 긍정적 영향을 미친다. 연구기관들은 인공지능 연구 커뮤니티가 상당한 자금 증가를 생산적으로 흡수할 수 있기 때문에 빠른 속도로 숙련된 AI 전문가 집단을 구축할 수 있다고 보고했다. 제이슨 퍼먼 CEA 회장은 2016년 7월 뉴욕의 AI 워크숍에서 한 연설에서 "지난 10년간 로봇, AI 및 기타 분야에서 상당한 혁신을 이루었다. 그러나 우리는 이 분야에서 훨씬 더 빠른 혁신 속도를 필요로 하고 생산성 향상으로 방향을 전환하게 될 것이다”라고 밝힌 뒤 “AI와 관련한 가장 큰 걱정은 아직 우리가 AI 기술을 더 필요로 한다는 사실’이라고 덧붙였다.

분명 민간 부문은 AI 발전의 주력이 될 것이다. 그러나 과학 지식을 발전시키는 목적으로만 수행되는 장기간의 기초 연구-기반 연구에 대한 투자가 부족하다. 부분적으로 민간 기업이 그런 장기 연구로부터 투자 수익을 얻는 것이 어렵기 때문이다. 결과적으로 현재 수준의 연구 개발 비용은 최적 수준의 경제 성장을 창출하는데 필요한 연구개발 투자 비용의 1/2에서 1/4 수준으로 나타났다.


인력 개발 및 다양성

인공 지능의 급속한 성장은 관련 기술을 가진 사람들의 필요성을 극적으로 증가시켰다. AI 인력에는 AI로부터 근본적인 발전을 이끌어내는 AI 연구원, 특정 응용 프로그램을 위해 AI 방법을 구체화하는 전문가, 특정 설정에서 해당 응용 프로그램을 조작하는 사용자 등이 포함된다. 연구자에게 인공 지능 교육은 본질적으로 학제적이며, 컴퓨터 과학, 통계, 수학 논리 및 정보 이론에 대한 배경지식을 요구한다. 전문가의 경우 일반적으로 소프트웨어 엔지니어링 및 응용분야에 대한 배경 지식이 필요하다. 또한, AI 기술을 안정적으로 적용하기 위해서도 사용자는 AI 기술에 익숙해져야 한다.


정부의 역할

인공 지능 관련 인력 분야의 도전 과제는 NSTC, OSTP 및 기타 기관의 우선과제인 과학, 기술, 공학 및 수학 (STEM) 분야에서 어떻게 교육을 할 것인가이다. NSF와 교육부는 민간 부문 및 정부와 협력하여 지속적인 경제 발전, 포용과 다양성의 확대, 개선된 성과 측정 등의 목표를 달성하기 위해 교육의 질, 유연성 및 영향력을 향상하고 있다. NSTC 과학기술교육위원회(CoSTEM)는 인공지능 교육 등을 위해 STEM 교육 프로그램을 지원하는 연방 기관을 통합하고 있다. AI 지식과 교육은 연방 STEM 교육 프로그램에서 점차 강조되고 있다. 인공 지능 인력 개발에 있어 대학원생 지원, 인공 지능 커리큘럼 과정 설계 및 영향 연구, AI 교육 프로그램 인증 등에 대한 연방 정부의 주요 역할이 있다.


학교와 대학의 역할

국가의 교육 시스템 전반에 걸쳐 인공 지능, 데이터 과학 및 관련 분야를 통합하는 작업은 국가 우선 과제를 해결할 수 있는 인력을 개발하는데 필수적인 과정이다. 교육 기관은 모든 수준에서 AI프로그램을 수립하고 발전시키고 있다. 대학, 컬리지 심지어 중등학교들도 AI 및 데이터 과학 커리큘럼을 확대하고 있으며, 더 많은 프로그램과 교사들이 필요하다. 학술 기관들은 다음과 같은 몇 가지 핵심적인 역할을 수행한다 :

·데이터 과학을 전문으로 하는 컴퓨터 과학자, 통계학자, 데이터베이스 및 소프트웨어 프로그래머, 큐레이터, 사서 및 아키비스트를 포함한 연구원 인력을 구축하고 유지.

·소프트웨어 개발 과정에서 AI 방식 강조, 다른 분야에 대한 AI의 적용과 시연, 산업, 시민 사회 및 정부가 제기한 AI 및 데이터 과학 과제를 적극적인 사례 연구로 통합하여 전문 인력 교육.

·정부 및 학계의 사용자 및 기관의 요구를 충족시키기 위해 사용자 인력이 AI 시스템에 필요한 지식을 갖추고 있는지 확인.

·보조금, 전문 개발 장려금, 인턴십, 동호회 및 여름방학 기간 연구 경험을 통한 훈련 지원

·숙련된 연구자를 위한 학업 급여보다 산업 급여가 더 빨리 증가하기 때문에 교수진을 채용하고 이들을 유지해야 한다.


커뮤니티 컬리지, 2년제 대학 및 자격증 프로그램은 학생들과 전문가들이 시간과 돈을 합리적으로 투자하여 필요한 기술을 습득할 수 있는 기회를 제공하는데 중요한 역할을 한다. 이러한 기회는 기술을 습득하려는 근로자, 복무를 마치고 사회로 돌아오는 군인, 직장 재진입 기회를 모색하는 실업자에게 영향을 끼친다. 

인공 지능이 활성화된 사회는 데이터를 읽고, 사용하고, 해석하고, 의사소통하며 AI로 인해 영향을 받는 문제에 대해 토론할 수 있는, 데이터 활용 능력을 갖춘 시민을 필요로 한다. 초등 또는 중등학교의 데이터 과학 교육은 데이터 활용능력을 향상시키는 동시에 고등 과정 이후 이뤄지는 더욱 자세한 데이터 과학 개념 및 교과 과정을 준비하는 데 도움이 될 수 있다.

인공지능 교육은 유치원부터 고등학교까지 모든 미국 학생들이 컴퓨터 과학을 배우고, 소비자가 아닌 제작자가 되기 위해 필요한 컴퓨터 사고 기술을 갖추도록 돕고자 하는 대통령 계획인 Computer Science forAll 의 한 부분이기도 하다. 미국 경제는 빠르게 변화하고 있으며 교육자와 비즈니스 리더는 컴퓨터 과학(CS)이 경제적 기회와 사회적 이동성에 필요한 '새로운 기본' 기술이라는 점을 인식하고 있다. CS for All은 이미 전국의 학부모, 교사, 교육기관, 주 및 민간 부문 지도자들이 주도해온 노력을 바탕으로 하며 AI 활성화 경제의 필요성에 대비해 미래의 인력을 준비하는 과제를 해결하는 한 가지 방법이다.


다양성을 위한 도전

모든 영역들은 AI 인력을 다양화하는 방법에 관한 과제에 직면하고 있다. 인공지능 인력의 성별과 인종적 다양성 부족은 기술 산업의 다양성 부족과 컴퓨터 과학 분야 전반의 현실을 반영한다. 특히 STEM 분야에서 미국인들의 잠재력을 최대한으로 발휘하는 것은 미국 행정부의 최우선 과제이다. STEM에서 전통적으로 미흡한 인종 및 민족 그룹의 여성, 다양한 배경, 경험 및 정체성을 가진 사람들을 포함시키는 작업은 컴퓨터 과학 및 인공 지능 분야에서 가장 우선적이며 중대한 과제 중 하나이다.

오늘날 컴퓨터 과학 졸업생들 중 여성의 비율은 18%에 불과하다. 1984년 기록한 37%가 역대 최고 수치이다. AI 인력에 대한 인구통계학적 데이터가 일관적으로 보고되지는 않았지만 일부 통계 자료가 존재한다. 2015년 NIPS(Nucleus Information Processing Systems) 회의(AI 연구에 관한 큰 회의 중 하나)에서 참가자 중 13.7%만이 여성이었다. 머신 인텔리전스 회의에서 비슷한 결과를 보았을 때, AI를 채용 정보 텍스트와 채용 이메일에 적용하는 스타트업인 Textio가 7만 8,768 건의 엔지니어링 구직 정보를 분석한 결과 컴퓨터 정보 부서의 소프트웨어 엔지니어를 위한 구인 게시에는 남성 구직자 선호도가 다른 섹터보다 2배 이상 높은 것으로 나타났다. 다양성 문제는 성별에서 끝나지 않는다. 아프리칸 미국인, 히스패닉 및 기타 인종 및 소수 민족 그룹 구성원은 인구 비율에 비해, STEM 인력, 컴퓨터 과학 및 인공지능 분야의 기술 산업 인력 영역에서 심각하게 낮게 나타난다.


AI, 자동화 및 경제

AI의 단기 경제적 효과 중 하나는 이전에는 자동화할 수 없었던 작업들의 자동화이다. 정부는 잠재적 영향을 이해하고 AI의 이익을 지원하고 비용을 절감할 수 있는 정책과 제도를 마련할 수 있어야 한다.

과거의 혁신과 마찬가지로 AI는 이익과 비용을 창출할 것이다. 이전 자동화의 이점은 생산성 향상이었다. 오늘날 자동화 프로세스도 마찬가지다. 예를 들어, 17개국에서 2015년에 진행한 로봇 관련 연구에 따르면 1993년과 2007년 사이 연평균 GDP 성장률은 평균 0.4%가 증가된 것으로 나타났다. 그러나 과거 자동화 프로세스에서 비롯된 한 가지 중요한 관심사는 특정 유형의 일자리와 영역에 잠재적인 영향을 미쳐 결과적으로 소득 불평등이 발생했다는 사실이다. AI는 일부 직업, 특히 저숙련 직업의 임금을 없애거나 낮출 가능성이 있기 때문에 정책 개선을 통해 AI의 경제적 이익이 광범위하게 공유되고 불평등이 감소하며 더 이상 악화되지 않도록 막는 것이 필요하다. 백악관은 자동화가 경제에 미치는 경제적 영향에 대한 추가 조사를 실시하고 향후 몇 개월 내에 발표될 권고 대응책들을 실행할 예정이다.


공정성, 안전성 및 통치

인공 지능 기술이 광범위하게 배포됨에 따라 기술 전문가 및 정책 분석가는 의도하지 않은 결과에 대해 우려를 제기했다. 사회에 대한 필연적인 결정을 내리기 위해 인공지능을 사용하고, 종종 인간의 생각과 기관의 결정을 대체하는 것은 정의, 공정성 및 책임을 보장하는 것에 대한 우려로 이어진다. 이는 이전에 "빅 데이터" 상황에서 제기된 것과 동일한 우려다. 물리적인 장비를 제어하기 위해 AI를 사용하고, 특히 시스템이 사회 환경의 복잡성에 노출될 때 안전에 대한 우려가 발생할 수 있다.

기술 부분에서는 공정성과 안전성의 문제가 제기될 수 있다. 두 경우 모두 실무자는 의도적인 차별이나 실패를 방지하고 의도하지 않은 결과를 피하며, 의도하지 않은 오류가 발생하지 않을 것이라는 확신을 얻는데 필요한 증거를 생성하고자 노력한다.


정의, 공정성 및 책임

Law and Governance, AI for Social Good 및 Social and Economic Impacts 워크숍에서 도출된 공통된 주제는 AI가 정의와 공정성을 보장하고 AI 기반 프로세스가 투자자들의 이해를 보장해야 한다는 것이다. 이 문제는 2016년 5월에 게시된 행정부의 첫 번째 빅 데이터 보고서와 2016년 5월에 게시된 후속 보고서에서 강조되었다.

형사 사법 시스템에서 빅 데이터의 가장 큰 관심사는 데이터 부족과 품질 부족이다. AI는 훌륭한 데이터를 필요로 하며 데이터가 불완전하거나 편향된 경우 AI는 편견의 문제를 오히려 악화시킬 수 있다. 형사사법 맥락에서 AI를 사용하는 사람은 누구나 현재 데이터의 한계를 인지하고 있어야 한다.

워크숍에서 흔히 인용되는 사례는 ProPublica 기사에 상세히 설명되어 있는 것처럼 형사 선고와 보석금 재판 사례뿐만 아니라 일부 구금 시설 및 가석방 결정 관계자를 포함한 몇몇 재판관들이 편향된 '위험 예측'  도구를 사용하는 것이다. 이 기사는 일부 재판관이 사용하는 위험평가 도구가 편향된 점수를 생성한다는 증거를 제시했다. 업톤(Upturn)의 별도 보고서는 치안 도구의 공정성과 효용성에 의문을 제기했다.

비슷한 문제는 채용 과정에도 영향을 미칠 수 있다. 머신러닝 모델을 사용하여 구직자를 선별하고, 모델을 학습시키는 데 사용된 데이터가 과거에 있었던 편향된 결정을 반영하는 경우라면 오히려 과거의 편견을 영속화할 수 있다. 예를 들어, 과거 채용 사례와 유사한 후보자를 찾는 것은 지원자의 다양성 내에서 최고의 후보자를 고려하는 것이 아니라 이미 채용된 사람들과 비슷한 지원자들을 고용하는 쪽으로 시스템을 편향시킬 수 있다.

이러한 우려에 대해 여러 워크숍 강연자들은 인공지능 도구가 공공 목적으로 사용될 때 투명성을 필요로 한다고 주장했다. 한 강연자는 대중적인 의사 결정에서 행정 기관의 역할과 AI의 역할을 비교했다. 행정 당국은 기관이 가진 전문 지식 덕에 업무를 위임받지만, 절차 보호, 투명성을 촉진하는 조치 및 위임된 권한 범위 내 제한 등의 제약을 받는다. 일부 강연자는 의사 결정권을 컴퓨터에 위임할 때 책임을 유지하는 방법에 대한 유사 이론을 개발할 것을 요구했다. 투명성 문제는 사용된 데이터 및 알고리즘뿐만 아니라 AI 기반 결정에 대한 설명이 중심이 된다.

AI 전문가들은 시스템의 복잡성과 사용되는 많은 양의 데이터 때문에 고급 인공 지능 시스템의 동작을 이해, 예측, 설명하는데 문제가 있다고 경고했다.

머신러닝 결과를 이해하는데 발생하는 어려움은 ‘복잡한 알고리즘은 항상 개발자가 입력한 것을 수행한다’는 일반적인 오해에 있다. 개발자가 스스로 의식적이거나, 무의식적인 편향으로 인한 영향을 받는 경우에만 이 같은 편향이 알고리즘에 포함된다. 알고리즘을 편향된 목적으로 생성하려는 기술 개발자는 본인 뜻대로 진행을 할 수 있으며, 의도적이지 않은 편향이 생성된 알고리즘 개발자는 편견을 방지하는데 충분한 노력을 하지 않았다는 것이다. 그러나 실제로 AI 시스템 개발자도 의도하지 않은 결과를 막을 정도로 충분히 이해를 하지 못하는 경우도 있기 때문에 최선의 의도를 가진 개발자도 실수로 편향된 결과 시스템을 생성시킬 수 있다.

Carnegie Mellon University의 컴퓨터 과학 부장인 앤드류 무어(Andrew Moore)는 인공 지능의 도전과 인공 지능 기술, 안전 및 제어에 관한 워크숍에서 예상하지 못한 결과에 대한 자신의 관점을 제시했다. 그는 오늘날 AI 알고리즘의 불투명성으로 인해 발생하는 의도하지 않은 결과의 위험을 최소화하는 가장 효과적인 방법은 광범위한 테스트를 하는 것으로, 본질적으로 발생할 수 있는 부정 결과 유형을 목록으로 작성하고 결과를 찾기 위해 많은 테스트를 만들어 결과를 얻어야 한다고 주장했다.

광범위한 테스트가 없는 상황에서 잘못이 발생할 수 있는 한 가지 예는 자동으로 사진에 설명을 다는 훈련된 모델이다. 이 모델은 어두운 피부의 사람 얼굴을 클로즈업 한 사진에 '고릴라' 캡션을 달았다. 이는 개발자의 가치와 대조적이었으며 모델 테스트 결과 모든 사진들에서 높은 비율로 정확한 결과를 산출했음에도 불구하고 이러한 문제가 발생했다. 이러한 특별한 오류는 드문 경우지만, 인종에 대한 기본 개념이 없거나 관련 역사적 맥락에 대한 이해가 없는 모델로 인해 부정적인 결과를 초래한 사례다. 이러한 유형의 오류를 방지하는 한 가지 방법은 모델이 캐치할 수 없는 결과를 인식할 수 있도록 이러한 결과를 사람이 조사하는 것이다. 특히 인간의 얼굴이 어떻게 구별되는지를 면밀히 조사하는 알고리즘에 대한 광범위한 테스트가 필요했다.

인공 지능 실무자와 학생들을 위한 윤리적인 훈련은 해결책의 한 부분을 이룬다. 이상적으로 AI, 컴퓨터 과학 또는 데이터 과학을 배우는 모든 학생들은 관련 윤리 및 보안 주제에 대한 교과 과정 및 토론에 노출될 것이다. 그러나 윤리만으로는 충분하지 않다. 윤리는 실무자가 모든 관계자에 대한 책임을 이해하도록 도울 수 있지만, 윤리적인 훈련은 시스템이 구축되고 시험될 때 기술적 예방 조치를 취함으로써 좋은 의도를 실천하기 위한 기술적 능력으로 보강되어야 한다.

실무자들이 인공지능시스템을 보다 공정하고 책임 있게 만들기 위해 노력함에 따라, 기술이 책임성을 가로막는 장애물이 아니라, 책임성을 지원하는 수단으로 만들 수 있는 기회들이 생겨나고 있다. 머신러닝 결과의 해석 가능성을 향상하기 위한 연구가 한 가지 예이다. 사람들이 의사 결정을 이해하는데 도움이 되는 해석 가능한 모델을 사용함으로써 의사 결정의 이면에 있는 가정과 프로세스를 이해할 수 있다.

복잡한 알고리즘 결정의 책임성과 견고함을 높이기 위한 몇 가지 기술적 접근 방법이 있는데, 상황을 제시하고 행동을 관찰함으로써 시스템을 "실제로" 테스트하는 식이다. 시스템은 블랙박스 테스트처럼 진행될 수 있으며, 복합적인 입력을 사용하여 동작을 관찰함으로써 자연적으로 발생하지 않는 시나리오에서 동작을 테스트할 수 있다. 시스템 설계의 기술적 세부 사항 중 일부 또는 전부가 나타나게 되면 분석가는 이를 재현하고 테스트만으로 특성화하기 어려운 내부 동작들의 측면을 분석할 수 있다. 


안전 및 제어

AI 전문가들은 현실 세계에서 인공지능의 배치를 제한하는 주요 요인 중 하나는 안전과 제어에 대한 우려라고 말했다. 실무자가 시스템을 안전하게 제어할 수 있다는 확신을 얻을 수 없으면 시스템을 배치해도 부정적 결과가 초래될 수 있으며 결국 시스템을 배치할 수 없게 된다.

안전과 통제의 주요 과제는 실험실의 "폐쇄된 세계"에서, 예측 불가능한 일이 발생할 수 있는 외부의 "개방된 세계"로 안전하게 전환할 수 있는 시스템을 구축하는 것이다. 예상치 못한 상황에 적절하게 대응하는 능력 개발은 다소 어렵지만 필수적이다. 

AI의 안전성과 예측 가능성에 관한 주제에 관해, 여러 강연자 들은 최근 발표된 "AI 안전성의 구체적인 문제" 논문을 언급했다. 이 논문은 집안 청소를 하는 자율 로봇의 실행 예제를 사용한다. 이 논문의 개요는 그러한 로봇을 효과적이고 안전하게 만드는 데 발생하는 실용적인 문제의 확장된 목록들을 제공한다 : 

부정적인 부작용 회피 : 청소 로봇이 목표를 달성하는 동안 불필요한 행동을 하지 않도록 어떻게 보장할 수 있을까? 예를 들어, 화병을 넘어트리면 신속하게 청소할 수 있기 때문에 로봇의 불필요한 행동을 수동으로 지정하지 않고도 이 작업을 수행할 수 있을까? 

보상 조작 회피 : 어떻게 우리는 청소 로봇 이보상 기능을 조작하지 않도록 할 수 있을까? 예를 들어, 로봇이 깨끗한 환경을 만들기 위해 로봇에게 보상한다면 로봇이 자발적으로 시야를 제어해 더러운 곳을 인식하지 않거나 다른 사물로 덮어버리거나 인간이 있을 때는 숨길 수 있다.

확장성 있는 관리 : 우리는 청소 로봇이 과정에서 사물의 가치 평가 판정을 어떻게 효율적으로 준수할 수 있을까? 예를 들어, 주인이 없는 사물은 버리고 주인이 있는 사물은 보관할 수도 있다. 로봇은 과연 제한된 정보에도 불구하고 올바른 일을 할 수 있는 방법을 찾을 수 있을까?

안전한 활동 : 청소 로봇이 악영향을 미칠 수 있는 활동을 하지 않도록 어떻게 보장할까? 예를 들어, 로봇이 전기 콘센트에 젖은 걸레를 넣는 불필요한 활동을 실행할 가능성도 제기된다.

업무 전환에 대한 견고성: 로봇이 훈련 환경과 다른 환경에서 인식하고 견고하게 작동하도록 하려면 어떻게 해야 할까? 예를 들어 공장 작업장 청소를 위해 배운 지식을 사무실에서 적용하려면 효율이 떨어질 수 있다.


위에 설명된 예처럼 인공 지능 시스템의 "지능"은 똑똑하지만 다소 한정적일 수 있는 가능성을 가진다. 시스템은 청소의 필요성을 감지하고 걸레질을 통해 인간이 닿지 않는 곳에서 능력을 발휘할 수 있지만 전기 콘센트에 젖은 걸레질을 하면 안 된다는 사실은 알지 못한다. 이 전반적인 문제를 해결하는 한 가지 방법은 지능 머신에 기본 상식을 부여하는 방법이다. 연구자들은 이러한 종류의 문제에 대해 느리지만 조심스럽게 연구를 진행 중이다.


AI 안전 엔지니어링

기술, 안전 및 제어 워크숍의 공통된 주제는 개방된 인공 지능과 광범위한 안전 엔지니어링 분야를 서로 연결해야 한다는 것이다. 항공기, 발전소, 교량 및 차량과 같은 다른 유형의 필수적인 안전 시스템 구축 경험을 통해 AI 실무자는 검증, 안전한 기술을 구축하는 방법, 위험을 관리하는 방법 및 위험에 대해 관계자와 소통하는 방법을 습득할 필요가 있다

현재 인공지능의 실행은 머신 러닝처럼 빠르게 발전하는 영역에서는 예술처럼 여겨질 수 있다. 일부 실행은 잘 뒷받침된 이론이 아닌 실무자의 직관적인 판단과 실험에 의존한다. 이는 새로운 기술 분야에서는 드문 일이 아니지만 실제로는 이 기술의 적용을 제한한다. 일부 투자자는 AI를 엔지니어링 분야로 더 발전시켜야 한다는 필요성을 제시했다.

일반적으로 발달된 엔지니어링 분야는 예측이 가능하고, 신뢰성 있고, 견고하며, 안전하고, 보안성이 있는 시스템을 만드는 데 더 큰 성과를 거두고 있다. AI가 엔지니어링 분야로 성장해가는 지속적인 발전은  좀 더 복잡한 시스템이 구축되면서 안전성과 제어 능력을 갖추게 하는 핵심 요소 중 하나가 될 것이다.


글로벌 사회에 대한 고려 사항 및 보안

AI의 장기적인 도전과 공정성, 안전성과 관련된 특정 문제 외에도 AI는 국제 관계, 사이버 보안 및 국방분야에서 중대한 정책적 질문을 제기한다.


국제 협력

AI는 국가, 다자간 기관 및 기타 이해 관계자가 AI의 이점과 도전 과제를 평가하기 시작하면서 최근의 국제적인 논의에서 관심을 끄는 주제이다. 단체들 간의 대화와 협력은 인공지능 연구 개발을 향상하고 인공 지능을 올바르게 활용하는데 도움이 될 뿐만 아니라 여러 이슈를 해결할 수 있다. 다른 디지털 정책과 마찬가지로 각 국은 협력 기회를 모색하고 AI 연구 개발을 촉진하고 문제를 해결하는데 도움이 되는 국제적 방안을 개발해야 한다. 인공 지능 연구 개발 분야의 리더인 미국은 정부 간 대화와 파트너십을 통해 글로벌 연구 조정에 핵심적인 역할을 계속할 것이다.

건강 관리, 제조 자동화, 정보 통신 기술(ICT) 분야에서 인공 지능 응용 프로그램을 완전히 탐구하기 위해서는 국제적 교류가 필요하다. 인공지능 응용 프로그램은 또한 재해 대비 및 대응, 기후 변화, 야생동물 밀매, 정보 격차, 직업 및 스마트 도시와 같은 세계적 문제를 해결할 수 있는 잠재력을 가지고 있다. 미 국무부는 개인 정보 보호 문제, 자율 차량의 안전성, AI가 장기적인 고용 추세에 미치는 영향을 AI 관련 정책 영역으로 국제적인 맥락에서 예견한다.

미국의 국제 지도력과 경제 경쟁력 확보를 포함한 미국의 외교 정책 우선순위를 지원하기 위해 미국 정부는 일본, 한국, 독일, 폴란드 등 다른 국가와의 양자 회담에서 AI 연구 개발 및 정책 문제에 집중하고 있다. 유엔, G-7, OECD 및 아시아 태평양 경제 협력체(APEC)에서도 국제 AI 정책 이슈와 AI의 경제적 영향이 제기되었다. 미국 정부는 인공 지능이 국제 계약의 관심 주제가 될 것으로 기대하고 있다.

미국은 업계 주도적인 방식으로 국제 표준 개발을 촉진하고 산업 및 관련 표준 기구와 협력하기 위해 자발적; 합의 주도; 투명성, 개방성 및 시장 요구의 원칙을 기반에 두고 노력해 왔다. 미국의 접근법은 법률(NTTAA, PL 104-113) 및 정책(OMB Circular A-119)의 형태로 공식화되어 있다.


인공 지능과 사이버 보안

오늘날 약한 AI는 사이버 보안에서 중요하게 응용되고 있으며, 방어적인 (반응) 조치와 공격적인 (능동적인) 조치 모두에서 그 역할이 증가할 것으로 예상된다.

현재는 보안 시스템을 설계하고 운영하려면 많은 시간과 노력이 필요한다. 이 전문 작업을 부분적으로 또는 전체적으로 자동화하면 훨씬 더 광범위한 시스템 및 애플리케이션에서 저렴한 비용으로 보안을 강화하고 유지할 수 있다. 사이버 방어의 민첩성도 향상된다. AI를 사용하면 끊임없이 진화하는 사이버 위협 상황을 감지하고 대응하는데 필요한 신속한 대응을 유지할 수 있다. 인공 지능, 특히 머신 러닝 시스템은 사이버 공간의 복잡성을 극복하고 사이버 공격에 대한 효과적인 판단을 지원할 수 있다.

미래 AI 시스템은 끊임없이 변화하는 불완전한 데이터 소스로부터 실시간 위협 모델을 생성하고 예측 분석을 시행하여 사이버 공격을 예측할 수 있다. 이러한 데이터에는 네트워크 노드, 링크, 장비, 아키텍처, 프로토콜 및 네트워크의 위상 및 상태가 포함된다. AI는 이러한 데이터를 해석하고, 사전에 취약점을 식별하고, 미래의 공격을 예방하거나 완화하기 위한 조치를 취하는데 가장 효과적인 방식일 수도 있다.

AI 시스템에는 자체적인 사이버 보안 요구 사항이 있다. AI기반 응용 프로그램은 데이터 및 기능의 무결성을 보장하고 개인 정보 및 기밀을 보호하며 가용성을 유지하기 위해 건전한 사이버 보안통제를 구현해야 한다. 

마지막으로 AI는 미국 정부 네트워크와 시스템을 효과적으로 운영하고 방어를 위한 활동 계획, 조정, 통합, 동기화 및 지시를 지원하고 민간 부문 네트워크와 시스템의 안전한 운영을 위한 지원을 제공한다. 


무기 체계의 인공 지능

미국은 지난 수십 년 동안 특정 무기 체계에 자치권을 도입했다. 이러한 기술 향상은 무기체계의 사용을 좀더 인간적으로 만들며 군사 작전의 정밀도를 높일 수 있다. 정밀 유도 탄약은 더 적은 양의 무기로 부수적인 피해를 최소화하면서 작전을 완료할 수 있게 해주며, 원격 조종사는 군인들에게 가해지는 위험을 줄일 수 있다. 그럼에도 불구하고 무기 시스템을 직접적인 인간 통제 밖에 두는 것은 몇 가지 중대한 위험이 수반되며 법적, 윤리적인 문제가 제기된다. 자율 무기 시스템을 미국의 국방 계획 및 군대 구조에 추가로 통합하는 열쇠는 자율 무기 시스템을 포함한 모든 무기 시스템이 국제 인도법과 일관된 방식으로 사용하는 것이다. 또한 미국 정부는 핵 확산을 통제하고 파트너 및 동맹국과 협력하여 무기 시스템의 개발 및 사용과 관련된 표준을 개발하기 위해 적절한 조치를 취해야 한다.

지난 수년 동안 소위 "치명적인 자율 무기 체계(LAWS)”의 개발과 관련된 문제는 국제 사회에서 기술 전문가, 윤리학자 및 다른 사람들에 의해 제기되었다. 미국은 적극적으로 특정 LAWS관련 협약(CCW)의 맥락에서 계속되는 국제적 논의가 계속될 것으로 기대하고 있다.

CCW의 당사자는 신흥 기술과 관련된 기술적, 법적, 군사적, 윤리적 및 기타 문제를 논의하고 있지만 LAWS에 대한 일반적인 이해가 없다는 사실은 명백하다. 일부 국가는 LAWS를 군용 무인항공기와 합쳐버렸는데 이는 미국의 입장과 상충된다. 원격조정 항공기는 유인 항공기와 마찬가지로 인간에 의해 직접 통제되기 때문이다. 다른 지역은 인공 지능, 로봇 군대가 생사 결정 판단 여부에 초점을 맞추고 있다. 미국의 우선순위는 자율 또는 기타의 무기 체계가 구별과 비례의 원칙을 포함하여 국제 인도법에 부합해야 한다는 것이다. 이런 이유로 미국은 새로운 무기 체계의 개발과 채택을 위한 무기 검토 절차의 중요성을 지속적으로 주목해왔다. CCW는 2016년 12월 재검토 회의에서 법률 및 관련 문제에 대한 향후 회의를 수행할지 여부와 방법을 결정할 것이다.

또한, 미국 정부는 국방 시스템의 자율성에 대한 포괄적인 검토를 실시하고 있다. 2012년 11월 국방부 (DoD)는 자율 반자동무기의 개발 및 수비 요구 사항을 설명하는 DoD Directive 3000.09, "Autonomyin Weapon Systems" 지침서를 발간했다. 자율적으로 목표를 선택하고 치명상을 입힐 수 있는 무기 시스템은 무기 시스템이 공식 개발에 들어가기 전에 국방부의 검토 및 승인을 받아야 한다. 국방부 지침은 그러한 개발을 금지하거나 제한하지 않지만 국방부 고위급 관리자가 검토하고 승인한 후에만 신중하게 진행해야 된다. 무엇보다 국방부 지침은 자율 및 반(semi) 자율 무기 시스템을 엄격하게 테스트하고, 요원들이 무력 충돌과 관련된 국제 규범을 증진시키는 방향으로 이러한 무기들을 사용하도록 적절한 훈련을 받을 것을 요구한다.

AI는 다양한 방위 활동에 걸쳐 상당한 이익을 제공할 수 있다. 물류, 유지 보수, 기지 운영, 군인의 건강 관리, 인명 구조 전장 의료 지원 및 사상자 피난, 인력 관리, 탐색, 통신, 사이버 방어 및 정보 분석과 같은 치명적이지 않은 활동 은인 공 지능을 활용하여 미군을 더욱 안전하게 만든다. 인공 지능은 사람과 자산을 보호하고 치명적이지 않은 수단을 통해 공격을 차단하는 새로운 시스템에서 중요한 역할을 할 수 있다. 궁극적으로, 이러한 응용 프로그램은 국방부에서 가장 중요한 요소로 판명될 수 있다.


군사 기술과 인공 지능의 발전이 보다 광범위하게 이루어지면서 과학자, 전략가 및 군사 전문가들은 법에 대한 전망을 예측하기 어렵고 빠른 변화 속도에 동의한다. 많은 새로운 기능들이 곧 가능할 것이며, 신속하게 개발되고 운영될 수 있을 것이다. 행정부는 사회의 인간 가치, 국가 안보 이익 및 국제 및 국내 의무에 부합하는 자치 무기에 대한 정부 차원의 정책을 추진하기 위해 적극적이고 지속적인 정부 간 협의를 진행하고 있다.


결 론      

AI는 산업, 시민 사회, 정부 및 대중이 잠재력에 신중한 주의를 기울이고 위험을 관리하면서 기술 개발을 지원하기 위해 협력한다면 경제성장과 사회적 진보의 주요 동력이 될 수 있다.

정부는 여러 가지 역할을 수행하며 중요 문제에 관한 커뮤니케이션을 모으고 대중 토론을 위한 의제를 설정하는데 도움이 제공해야 한다. 또한 응용 프로그램 개발 시 안전성과 공정성을 모니터링하고 대중을 보호하면서 혁신을 촉진하는 규제 프레임 워크를 선정해야 한다. 더불어, 숙련되고 다양한 노동력의 개발은 물론 공공재에 대한 기초연구와 AI의 적용을 지원해야 한다. 정부는 대중들에게 신속하고, 효율적이고, 비용이 적게 드는 AI를 제공해야 한다.

인공 지능의 지속적 발전에 따라 교육과 경제 안전망에서부터 방위, 환경 보전, 형사사법에 이르기까지 공공 정책의 많은 분야에서 새로운 기회와 새로운 과제가 등장하게 될 것이며, 정부는 이러한 변화를 이해하고 적응할 수 있는 역량을 지속적으로 구축해야 한다.

인공 지능의 기술이 계속 발전함에 따라 실무자는 인공지능 활성화 시스템을 관리할 수 있어야 하며; 공개적, 투명성, 이해성 유지하고; 인력과 효율적으로 협동해야 하며; 인간의 가치와 포부와 일치하게 운영해야 하며; 연구자와 실무자들은 이러한 문제에 관심을 기울이고 지속적으로 문제 해결에 집중해야 한다.

기계 지능을 개발하고 연구하면 인간 지능을 더 잘 이해하는데 도움이 될 수 있다. 신중하게 사용된다면, 인공 지능은 우리의 지능을 보강하여 더욱 현명하고 나은 미래를 그릴 수 있도록 도와준다.


  

권고안 (Recommendations in this Report)


아래 내용은 보고서에 게재된 권고안들을 정리한 것입니다.


권고안 1:  민간 및 공공 기관은 AI와 머신러닝의 사회적 혜택을 높이고 이 기술들을 책임 있게 활용할 수 있는 방법을 연구할 것.  


권고안 2: 연방 기관은 AI 공개 훈련 데이터(open training data)와 공개 데이터 표준화(open data standards)에 우선순위를 두어야 한다. 


권고안 3 : 연방정부는 주요 기관들이 AI를 적용하여 그들의 역량을 개선하기 위한 방법을 모색해야 한다 


권고안 4 : 국가과학기술위원회(NSTC) 머신러닝 및 인공지능(MLAI) 소위원회는 정부 내 AI 실무자들을 위한 학습 공동체(a community of practice)를 구축해야 한다. 


권고안 5: 기관은 AI 활용 제품에 대한 규제 정책을 설정할 때 적절한 고위급의 기술전문가를 활용해야 한다. 


권고안 6: 기관은 기술 현황에 대한 좀 더 다양한 관점을 가진 연방기관 인력을 양성하기 위해 폭넓은 인력 배치 및 교환 모델(personnel assignment and exchangemodels)을 사용해야 한다. 


권고안 7 : 교통부(TheDepartment of Transportation)는 관련 업계 및 연구자들과 협업하여 안전, 연구, 기타 목적을 위한 데이터 공유를 확대하는 방안을 모색해야 한다. 


권고안 8 : 미국 정부는 확장 가능성이 높고 자율비행 항공기 및 유인 항공기 모두 충분히 수용할 수 있는 첨단, 자동 항공교통관리시스템을 개발하고 실행하는데 투 자해야 한다. 


권고안 9 : 교통부(The Department ofTransportation)는 완전자율주행차량(fully automated vehicles)과 무인항공시스템(UAS)을 교통시스템에 안전하게 통합하는 작업을 가능케 하는 규제 프레임워크의 개발을 지속해야 한다.

 

권고안 10 : 국가과학기술위원회(NSTC)의 머신러닝 및 인공지능(MLAI) 소위원회는 AI의 발전을 모니터링하고 그 현황을 주요 단계(milestones) 별로 고위 관리자에 정기적으로 보고해야 한다.


권고안 11 : 정부는 다른 국가의 AI 현황을 모니터링해야 한다.  


권고안 12 : 산업계는 곧 도달할 주요 단계(milestones)의 가능성 등 산업계 내 AI의  발전에 대해 정부가 항상 최신 정보를 인지할 수 있도록 협업해야 한다. 


권고안 13 : 연방 정부는 기초 및 장기적 AI 연구에 우선순위를 두어야 한다 


권고안 14 : 국가과학기술위원회(NSTC) 소속 머신러닝 및 인공지능(MLAI) 소위원 회와 과학기술공학교육위원회(CoSTEM)는 공동으로 AI 연구자, 전문가, 사용자 등 AI 인력의 규모, 우수성, 다양성을 적절히 증가시키는 조치를 개발하기 위한 AI 인력 공급방안(AI workforce pipeline) 연구를 시작해야 한다. 


권고안 15 : 대통령실은 미국 고용 시장에 AI와 자동화가 끼치는 영향을 추가 조사하고 권고 정책들의 대응 개요를 제시하는 후속 보고서를 금년말까지 발표해야 한다. 


권고안 16 : AI 기반 시스템을 사용하여 개인에 대한 결과 결정을 내리는 의사 결정 지원을 하거나 증거 기반 검증 시스템은 효용성 및 공정성을 보장하기 위해 특별한 주의를 기울여야 한다. 


권고안 17 : 개인에 대한 중대한 결정에 AI 기반 시스템을 이용하는 주 정부, 그리고 지방 정부에게 보조금을 주는 연방 기관은 연방 보조금으로 구입한 AI 기반 제품이나 서비스가 매우 투명한 방식으로 성과를 내며 효율성과 공정성에 기반한 지원이 이뤄지도록 보조금 조건을 검토해야 한다. 


권고안 18 : 학교와 대학은 AI 커리큘럼의 핵심 부분에 윤리학과 보안, 프라이버 시, 안전과 관련된 주제들, 머신러닝, 컴퓨터 사이언스, 그리고 데이터 사이언스를 포함시켜야 한다. 


권고안 19 :. AI 전문가, 안전 전문가, 각 전문가 단체는 성숙한 AI 안전 공학 분야를 목표로 계속 협력해야 한다. 


권고안 20 : 미국 정부는 AI 관련 국제적 참여를 위한 범정부 차원의 전략을 수립하고, 국제적 참여 및 모니터링이 필요한 AI 분야 목록을 작성해야 한다. 


권고안 21 : 미국 정부는 AI R&D에 대한 정보를 교환하고 협력을 촉진하기 위해 주요 국제 이해당사자와 긴밀히 교류해야 한다. 


권고안 22 : 기관의 계획과 전략은 AI가 사이버 보안에 미치는 영향과 사이버 보안 이 AI에 미치는 영향을 설명해야 한다. 


권고안 23 : 미국 정부는 국제인도법(international humanitarian law)에 부합하는 자율 및 반 자율 무기(autonomous and semi-autonomousweapons)에 대한 정부 차원의 단일 정책을 개발해야 한다. 

/끝/



매거진 선택

키워드 선택 0 / 3 0
브런치는 최신 브라우저에 최적화 되어있습니다. IE chrome safari
;