MIT Tech Review, 인공지능, 기업전략
얼마전에 MIT 테크 리뷰에서 발행한 재미있는 리포트를 하나 입수 했다. 오늘은 해당 리포트에서 발췌한 내용을 풀어 보고자 한다.
대한민국은 백이면 백 챗지피티같은 생성형 AI를 떠들고 있지만, 실제 비지니스는 그렇지 않다. 더구나 큰 회사일 수록 이들이 원하는건 특정 분야에 특화된 AI 응용이나, 자기 회사에 맞는 특수한 AI 응용을 더 선호 한다 (생성형 AI는 오히려 빛좋은 개살구에 가깝다).
AI 응용의 분류를 크게 생성형AI모델과 분석형AI모델(생성형 이전의 AI모델들)로 나누었을때, 여전히 큰비중을 차지 하는 것은 분석형 AI모델이다(기존의 CNN, ANN, SVM, KNN같은 모델들). 분석형 AI모델들은 생성형모델에 비해 덜 화려 하다. 하지만, 기본이 된다.
테크 리뷰의 내용에 다음과 같은 이야기가 있다.
“AI is not cheap. A lot of our customers are shocked when they realize how much infrastructure they have to have to get the performance that they need.”
고객들의 기대를 맞추기 위한 AI 인프라 구축은 결코 만만한 일이 아니다. 대부분의 회사들이 내년을 위해 20%이상 AI 인프라 구축을 위한 투자를 계획하고 있다.
위의 도표에도 언급 된 것처럼, 70%이상의 기업들이 50%이상을 투자할 계획을 가지고 있다.
혹자는 제대로된 AI모델을 만드는데, 데이터가 없어도 된다고 이야기하지만, 그말은 사실이 아닌듯 하다. 실제로 많은 회사들이 AI모델을 응용하는(혹은 만드는)데 있어서 중요하게 생각하는게 바로 데이터 이다. 그리고, 그중에 가장 중요한 팩터는 역시 데이터의 질 (도표3 참조). 내가 이전 책("데이터는 예측하지 않는다")에서도 언급 했던 내용이다.
AI를 적용하는데 있어서, 아직도 여러가지 위험성이 존재 한다. 대략 리스트만 정리 하면 다음과 같다.
4.1. Hallucinations, errors, and bias (환각, 에러, 편협성)
AI는 정답을 주는 도구가 아니라, 학습에 가장 근접한 근사값을 제공한다. 그렇기에 여전히 정답이 존재하는 문제를 해결 하는데 있어서는 여전히 그 위험성을 가지고 있다.
4.2. Cyber Risk (사이버 공격)
이에 대해서는 여러 기업들이 가장 문제 삼는 일이라, 이에 대해서는 따로 언급하지 않겠다. 궁금 하신 분들은 본문을 참고 하시라.
4.3. Data privacy and protection (데이터 보안 및 보호)
데이터의 프라이버시 및 보호. 특히, 학습 데이터에 대한 프라이버시 및 보호는 가장 위험 중 하나 이다.
그렇기에 많은 기업들이 AI를 적극 적용할 것인에 대해서 의견이 엇갈리는 형국이다. 규모가 큰 회사들은 적극적면이 강하지만, 규모가 작은 기업들은 오히려 보수적인 경향이 강하다 (도표4 참조).
덧.
위의 내용은 얼마전에 MIT리뷰에서 발표한 "A playbook for crafting AI strategy" 리포트에서 발췌한 내용이다. 원문이 궁금하신 이들은 아래의 링크에서 Full Report를 다운 받아보시길 바란다.
원문:
https://www.technologyreview.com/2024/08/05/1095447/a-playbook-for-crafting-ai-strategy/