혁신 촉진과 위험 관리 사이에서 균형을 찾아가는 길목에 있음
제시된 텍스트는 미국 의회조사국(Congressional Research Service, CRS) 보고서(R48555, 06/04/2025)<https://www.congress.gov/crs-product/R48555>는 미국 연방 정부 차원의 인공지능(AI) 거버넌스 및 규제 현황, 입법 및 행정부의 접근 방식, 국내외 논의를 포괄적으로 분석하고 있다.
미국은 AI 기술의 개발 및 활용에서 막대한 잠재적 이익과 함께 중대한 도전들을 동시에 직면하고 있으며, 민간 및 공공 부문 모두에서 AI 기술을 수용하는 방안에 대한 광범위한 논의가 진행되어 왔다. 이러한 논의의 핵심은 AI 기술의 기회, 즉 정부 운영 및 노동자 효율성의 향상을 최대한 활용하는 동시에, 편향(bias) 및 부정확성 등 AI가 생성하는 결과물에서 비롯될 수 있는 잠재적 문제들을 최소화하는 방법에 집중된다.
현재까지 AI의 개발 또는 사용에 대한 광범위한 규제 권한을 설정하거나 금지하는 연방 법률은 제정되지 않았으며, 최근 의회는 보다 표적화된 AI 관련 조항들을 통과시키는 데 주력해 왔다. 미국의 이해관계자들은 AI 혁신과 규제에 대한 접근 방식을 두고 논쟁하고 있다. 광범위한 연방 AI 규제를 지지하는 측은 그러한 규제가 AI 개발자들에게 법적 불확실성을 줄이고 공공의 AI 시스템에 대한 신뢰를 개선하여 AI 혁신을 지원할 것이라고 주장한다. 반면, 광범위한 규제에 반대하는 측은 AI 산업이 이미 자체 규제를 위한 조치를 취하고 있으며, 추가적인 규제는 국제 AI 경쟁이 가속화되는 시점에 혁신과 경쟁력을 억압하여 미국에 부정적인 경제적 및 국가 안보적 결과를 초래할 수 있다고 주장한다. 그러나 다른 분석가들은 이러한 대립이 규제와 혁신 간의 잘못된 이분법을 제시한다고 비판하며, AI 기술과 그 적용 분야에 따라 표적화되고 유연한 접근 방식의 혼합을 지지한다.
AI 기술은 그 자체로 내재적으로 선하거나 악하지 않다. AI는 생산성 향상, 연구 발견 가속화, 사이버 보안 대응 개선과 같은 많은 이점을 제공하지만, 동시에 일자리 손실, 편향으로 인한 시민 자유 침해, 감시 기술을 통한 사생활 침해와 같은 도전과 위험을 제시한다. 추가 규제 지지자들은 AI 시스템이 위험하거나 예측 불가능하게 기능할 수 있는 잠재적 위험을 완화하여 안전성을 개선하기 위해 규제가 필요하며, 특히 소외된 집단에 불균형적으로 영향을 미칠 수 있는 차별적 결과로부터 보호하고 AI 오류 또는 오용 시 책임을 결정하는 데 규제가 필요하다고 주장한다. 반면, 규제 반대론자들은 기존 연방 법률과 기관 권한을 AI 기술에 적용하여 충분히 위험을 완화할 수 있으며, 첨단 기술에 대한 새로운 규제를 너무 일찍 개발하고 최적화하기는 어렵다고 주장한다.
미국 AI 거버넌스 및 규제 노력은 광범위한 프레임워크 외에, (1) 연방 기관들의 기존 규제 권한 평가 및 집행, (2) 개별 기관들이 추가적인 권한을 필요로 하는지 탐색, (3) 산업계로부터 자발적 약속 확보에 중점을 두고 있다. 전반적으로 미국 연방 정부의 접근 방식은 민간 부문의 AI 규제에 대해서는 신중한 접근을 취하며, 연방 정부 자체의 AI 사용에 대한 감독에 더 집중하는 것으로 보인다. 연방 차원의 규제가 없는 상황에서, 각 주(state)들이 독자적인 법률을 제정하고 있으며, 비판론자들은 이러한 규제의 단편화(patchwork)가 기업들에게 어려움을 초래하고 있으며, 전국적인 규제 구조가 제품 개발을 촉진할 수 있다고 지적한다.
AI의 정의에 있어서도 통일된 합의는 없으나, 2020년 국가 AI 이니셔티브법은 AI를 "주어진 인간 정의 목표에 대해 실제 또는 가상 환경에 영향을 미치는 예측, 권고 또는 결정을 내릴 수 있는 기계 기반 시스템"으로 정의했다. 또한, 국립표준기술연구소(NIST)의 AI 위험 관리 프레임워크(AI RMF)는 OECD의 정의를 통합하여 AI 시스템을 규정하며, 2024년 3월 OECD는 정의를 업데이트하여 생성형 AI의 출현에 대응하여 "콘텐츠 생성"을 더욱 명시적으로 언급했다. 이러한 정의의 복잡성은 AI 기술과 애플리케이션이 빠르게 진화하고 있기 때문이며, 의회는 법률의 미래 적용 가능성을 저해하지 않으면서도 법이 영향을 미치는 주체에 대한 명확성을 제공할 수 있도록 정의를 신중하게 조정해야 하는 과제에 직면한다.
미국 연방 정부의 AI 활동은 행정부와 입법부 모두에서 진행되고 있다. 입법부는 2020년 국가 AI 이니셔티브법을 통해 연방 AI 활동을 지원하는 국가 AI 이니셔티브 사무소를 설립하고, 연방 프로그램 조정을 위한 기관 간 위원회 및 국가 AI 자문 위원회를 설립했다. 이 법은 AI에 대한 광범위한 규제 권한이나 금지 조항을 설정하지는 않았다. 'CHIPS 및 과학법'(CHIPS and Science Act)은 AI R&D 활동 및 안전하고 신뢰할 수 있는 AI 시스템 관련 기술 표준 개발을 지원하도록 연방 과학 기관에 지시했다. 또한, 2020년 정부 AI 법은 연방 정부의 AI 채택을 촉진하기 위해 GSA(General Services Administration) 내에 AI 우수 센터를 설립했고, 미국 AI 진흥법은 OMB(Office of Management and Budget)가 연방 정부의 AI 사용 지침 개발 시 추가 고려 사항을 포함하고 연방 기관장에게 현재 및 계획된 AI 사용 사례 목록을 작성하도록 요구했다.
행정부는 여러 행정명령을 통해 AI 정책을 설정했으며, 이는 행정부 교체에 따라 그 방향이 변화해 왔다. 바이든 행정부의 2023년 행정명령 E.O. 14110(Safe, Secure, and Trustworthy Development and Use of Artificial Intelligence)은 50개 이상의 연방 기관에 100개 이상의 구체적인 조치를 지시했으며, 특정 이중 용도 AI 모델을 개발하는 기업들에게 모델 훈련 및 테스트 등에 대해 정부에 보고하도록 요구하기 위해 국방 생산법(Defense Production Act) 권한을 사용했다. 그러나 이 행정명령은 두 번째 트럼프 행정부의 2025년 행정명령 E.O. 14179(Removing Barriers to American Leadership in Artificial Intelligence)에 의해 폐기되었다. 트럼프 행정부의 E.O. 14179는 "미국의 글로벌 AI 지배력을 유지하고 향상"시키는 정책을 설정하며, 2025년 7월 30일까지 'AI 행동 계획'(AI action plan)을 수립하도록 요청했고, 이는 과도하게 예방적인 규제 체제를 피하는 방향으로 특징지어진다. 연방 기관들은 'AI 사용 사례 목록'(AI use case inventory)을 통해 내부 AI 사용을 보고하고 있으며, 2025년 1월 23일 기준으로 1,990개 이상의 현재 및 계획된 AI 사용 사례가 보고되었다. 이 목록은 투명성을 높여 감독을 지원하기 위한 것이지만, GAO(Government Accountability Office)는 목록의 포괄성 및 정확성에 대한 우려를 제기하며 다수의 연방 AI 요구 사항이 미이행 상태임을 지적했다.
미국의 AI 규제 접근 방식은 크게 세 가지로 구분된다. 첫째, AI 기술 자체를 규제하는 방식은 컴퓨팅 파워와 같은 기술적 임계값이나 투명성 요구 사항(예컨대, 생성형 AI 출력물에 대한 고지 의무)을 사용한다. 둘째, AI 기술의 사용을 부문 간에 규제하는 방식은 기술 중립적인 접근 방식을 취하며, FTC가 자동화된 의사결정 시스템(ACDP)에 대한 영향 평가를 요구하는 알고리즘 책임법과 같은 제안에서 나타난다. 이 법안은 대기업에만 요구사항을 부과하게 되므로, 중소기업이 주 정부 등에 제공하는 제품의 위험을 다루지 못한다는 비판을 받는다. 셋째, AI 기술의 사용을 특정 부문 내에서 규제하는 방식으로, 금융, 선거, 의료와 같은 특정 분야에 초점을 맞춘 법안들이 발의되었다.
미국의 접근 방식은 국제적 접근 방식과 비교되며 그 특징이 명확해진다. 영국은 미국과 유사하게 AI에 대한 일반적인 법률 규제를 두지 않고, AI가 사용되는 부문의 기존 법적 프레임워크를 통해 규제하고 있다. 영국의 정책 백서(AI Regulation: A Pro-Innovation Approach)는 민첩하고 반복적인 접근 방식을 통해 안전/보안 및 견고성, 적절한 투명성 및 설명 가능성, 공정성, 책임성 및 거버넌스, 그리고 이의 제기 가능성 및 구제라는 다섯 가지 원칙을 기존 규제 기관을 통해 이행하도록 하는 프레임워크를 제시했다.
반면, 유럽 연합(EU)은 'AI 법'(AI Act)을 통해 광범위한 규제 접근 방식을 채택했다. 이 법은 위험 기반 접근 방식을 채택하여 AI 시스템을 용납할 수 없는 위험(금지), 고위험(사전 및 사후 평가), 투명성 위험(고지 및 라벨링) 및 최소 또는 무위험 범주로 분류하고, 각 범주에 따라 차등적인 의무를 부과한다. 특히 고위험 시스템은 시장 출시 전 평가 의무와 고품질 데이터셋 사용 의무를 포함하며, 용납할 수 없는 위험 시스템(예: 사회적 점수, 감정 인식 등)은 금지된다. 범용 AI(GPAI) 모델 역시 컴퓨팅 파워 임계값[10의 25승 FLOPs{컴퓨터가 1초 동안 수행할 수 있는 부동 소수점 연산(Floating-point Operations)의 횟수}]을 초과할 경우 시스템적 위험을 초래하는 것으로 추정되어 추가적인 위험 평가 및 완화 의무를 부과받는다. 일부 비판론자들은 AI 법이 기업들에게 장벽을 만들고 규정 준수 비용을 높인다고 주장하지만, 지지자들은 표준화된 규정을 통해 혁신을 촉진하고 신뢰할 수 있는 AI 제품에 경쟁 우위를 부여할 수 있다고 주장한다.
중국은 2017년 신세대 인공지능 발전 계획 이후 특정 AI 기술 및 부문별 응용 분야에 초점을 맞춘 규제(예: 딥 신세시스 규정, 생성형 AI 잠정 조치)를 시행해 왔다. 중국의 접근 방식은 국가 안보 및 경제 개발 목표에 영향을 받은 수직적, 기술 특정적 프레임워크로 특징지어지며, 정부가 AI 개발을 지원하고 지시하는 막대한 역할을 수행한다. 이는 미국, 영국, EU의 보다 독립적인 민간 부문 AI 활동과 대비된다.
미국 의회는 AI 규제에 대한 논의를 지속하면서 기존 프레임워크 활용, 새로운 AI 규제 또는 기관 권한 생성, 그리고 국제 규제 노력 참여라는 세 가지 광범위한 정책적 옵션을 평가해야 한다. 기존 프레임워크 활용은 추가 규제 제약을 피할 수 있으나, 주(州) 법률의 난립을 초래할 수 있다. 새로운 AI 규제 또는 권한 생성은 영향 평가, 제3자 감사, 라벨링 요구사항 등 투명성과 책임성을 위한 교차 부문 규제를 포함하며, 이는 AI 모델 및 도구에서 발생할 수 있는 잠재적 위험을 해결하기 위한 것이다. 일부 업계 관계자들(예: OpenAI CEO 샘 알트만)은 특정 규모 이상의 개발 노력에 대한 라이선스 부여 및 독립적 감사와 같은 규제를 제안했으나, 이는 스타트업의 진입 장벽을 높일 수 있다는 우려를 낳았다.
의회는 또한 국내 AI 개발 지원을 위한 조치들을 고려할 수 있다. 이는 NIST AI RMF(NIST Artificial Intelligence Risk Management Framework: 국립표준기술연구소 인공지능 위험 관리 프레임워크)를 특정 부문이나 중소기업에 맞게 조정하도록 지시하거나, 기업들이 규제 감독 하에 신제품을 테스트할 수 있도록 규제 샌드박스를 생성하는 권한을 부여하는 것을 포함한다. 국가 인공지능 연구 자원(NAIRR)을 법제화하는 노력(H.R. 2385)은 연구원, 학생, 중소기업 및 스타트업에게 핵심 자원에 대한 접근을 민주화하여 국내 혁신과 경쟁을 증가시키는 것을 목표로 한다.
마지막으로, 의회는 국제 규제 노력 참여를 통해 자국 규제 메커니즘을 다른 국가의 메커니즘과 정렬시켜 무역을 촉진하고 국제 협력을 개선하는 것을 고려해야 한다. 이는 G7 합의 및 OECD AI 원칙과 같은 다자간 노력에 참여하고, 미국-EU 및 미국-영국과 같은 양자 간 협력을 통해 AI 거버넌스를 조화시키는 것을 포함한다. 그러나 AI R&D 및 혁신에서의 국제 경쟁 심화에 대한 우려도 공존하며, 의회는 국제 협력과 국내 AI 개발 지원 사이에서 균형을 맞추는 방법을 고려해야 한다. 이는 빠른 개발을 추구하는 과정에서 AI 시스템이 안전하지 않게 되는 "바닥을 향한 경쟁"의 위험을 인정하고 이를 방지하는 노력을 포함한다.
궁극적으로 미국 AI 거버넌스는 기존 법적 프레임워크 내에서 혁신을 육성하는 동시에, 급변하는 기술과 새로운 행정부의 정책 변화에 유연하게 대응하면서, 공정성, 투명성, 안전성이라는 공공의 가치를 보호하는 섬세한 균형점을 찾아가는 과정에 있다.