출처: Harvard Business School, The AI revolution: Myths, risks, and opportunities
AI is a power tool, so be careful. — Oren Etzioni
에치오니는 강하게 경고합니다.
AI는 잘못 쓰이면 바이오 무기 제작 같은 심각한 위협을 낳을 수 있습니다.
"AI를 이용해 생물학적 무기를 만들지 못하도록 해야 합니다."
따라서, AI 시스템에는 위험한 결과를 식별하고 차단하는 '가드레일'이 반드시 필요합니다.
에치오니는 이미 2017년 뉴욕타임스 기고문에서 강조했습니다.
"AI 시스템에는 절대 꺼낼 수 있는 오프 스위치(impregnable off switch)가 필요합니다."
이 스위치는 긴급 상황에서 인간이 직접 개입할 수 있는 최후의 안전장치가 되어야 합니다.
AI가 아무리 발전하더라도, 인간이 최종 통제권을 가져야 한다는 원칙은 변하지 않습니다.
에치오니는 규제에 대해 균형 잡힌 관점을 제시합니다.
"규제가 없으면 도시마다, 주마다 규제가 달라져서 문제가 됩니다."
그는 주장합니다.
우리가 필요한 것은 무조건 규제를 늘리는 것이 아니라,
통일되고 합리적인 규제를 만들어야 한다는 것입니다.
AI는 사이버 공격의 수준도 높이고 있습니다.
"피싱 공격이나 네트워크 취약점 탐색이 AI로 인해 훨씬 정교해지고 있습니다."
AI가 사이버 공격에 악용될 가능성이 높아진 만큼,
AI를 이용한 방어 체계 역시 강화해야 한다고 에치오니는 강조했습니다.
에치오니는 현재 많은 기업과 사회 시스템이
AI의 위협과 기회 모두에 충분히 대비하지 못하고 있다고 지적했습니다.
"우리는 아직 수천 개의 딥페이크가 한꺼번에 퍼지는 공격에 대응할 준비가 되어 있지 않습니다."
이제는 단순한 '단일 영상 삭제' 대응이 아니라,
대규모·동시다발적 공격을 막을 수 있는 시스템을 구축해야 할 시기입니다.
나는 AI가 초래할 수 있는 최악의 시나리오까지 준비하고 있는가?
AI 시스템에 최후 통제 수단(오프 스위치)을 설계하고 있는가?
AI 규제에 대해 단순 찬성/반대가 아니라, '더 나은 방법'을 고민하고 있는가?
사이버 보안 체계를 AI 시대에 맞게 강화할 준비가 되어 있는가?