블룸버그 칼럼니스트 파미 올슨이 쓴 패권: 누가 AI 전쟁의 승자가 될 것인가를 읽고 흥미로웠던 대목 중 하나는 AI 업계 리더들이 AI가 몰고올 무시무시한 위협을 알아서 먼저 경고하는 이유에 대한 것이다.
저자에 따르면 AI 분야 리더들이 편향과 차별 등 AI를 둘러싼 지금 현재 문제들에 대한 언급은 피하면서 먼 미래가 있을 수도 있는 위협에 대해서는 공개 석상에서 언급하는 것을 주저하지 않는다.
이유는 2가지다.
AI가 이미 현재의 사람들에게 실질적인 해를 입히고 있는데도 실리콘밸리에서 막강한 영향력을 행사하는 이들은 어째서 AI가 인류 종말을 초래할 위험에만 그토록 집중하는가? 가능성 있는 대답은 두 가지였다.첫쨰, 오픈AI와 딥마인드의 리더 중에 인종차별이나 성차별을 겪어본 사람이 거의 없었고 앞으로도 그럴 것이기 때문에. 둘째, 역설적이지만 인간을 뛰어넘는 막강한 초지능 존재가 인류 존속을 위협할 가능성을 강조하면 기업에 이익이 되기 때문에. 자신이 필려는 제품의 위험성을 사람들에게 경고하는 것은 얼핏 말이 안 되는 것 같지만 알고 보면 대단히 영리한 마케팅 전략이었다. 대개 사람들은 막연한 먼 미래의 위험보다는 눈앞의 현실을 더 중시하는 경향이 있기 때문이다. 또 사람들은 AI가 언젠가 인류를 전멸시킬 수도 있는 기술이라면 그만큼 잠재력이 엄청난 매력적인 기술이라고 느끼기 쉽다.
미래 있을 수도 있는 큰 위협에 대해 경고하면 지금 AI가 풀어야할 과제들에 대한 주위 시선을 분산시키는 효과도 있다.
또한 이 전략은 기업이 조치를 취할 수도 있는 골치 아픈 눈앞의 문제들로부터 대중의 관심을 딴 데로 돌리는 영리한 방법이었다. 그런 문제를 해결하려면 개발 속도를 늦추고 AI 모델의 성능을 억제해야 하기 때문이다. AI 모델이 편향된 결정을 내리지 못하게 막는 방법 한 가지는 모델을 학습시키는 데 사용하는 데이터의 분석에 더 많은 시간을 쏟는 것이었다. 제한된 분야에서 특정 작업을 수행하는 AI 모델에 주력하는 방법도 있지만 그러면 다양한 영역에서 인간이 할 수 있는 모든 지적 작업을 수행하는 AI를 개발한다는 목표 달성에 차질이 생길 터였다.