학습 차원에서 틈틈이 해외 전문가들이 블로그나 미디어 그리고 책에서 쓴 글을 번역 또는 요약 정리하고 있습니다. 이번 포스팅도 그중 하나고요. 거칠고 오역된 부분이 있을 수 있습니다. 제대로 번역되지 않은 부분은 확인 주시면 반영토록 하겠습니다. 의미 전달이 애매한 일부 문장은 삭제했습니다. 이번 글은 미디엄에 올라온 Pragmatic Coders의 글을 정리한 것입니다.
전 세계 AI 시장이 2025년까지 연평균 36.62% 성장해 1,906억1000만 달러에 달할 것으로 예상된다는 사실을 알고 있는지? AI 소프트웨어는 세상을 빠르게 변화시키고 있으며, 이러한 추세는 앞으로 몇 년 동안 더욱 가속화될 것이다. 2024년에 혁명을 일으킬 13가지 AI 트렌드 가이드를 통해 AI의 미래에 대해 자세히 알아보자. 생성 AI의 부상부터 BYOAI와 AI 법안까지, AI가 우리 주변 세상을 어떻게 바꾸고 있는지 알아보자.
1. 생성AI, 지난 10년 간 가장 파괴적인 트렌드
생성 AI(GenAI)는 텍스트, 코드, 스크립트, 음악, 이메일, 편지 등과 같은 새롭고 창의적인 콘텐츠를 생성할 수 있는 AI 한 유형이다. 생성AI 모델은 방대한 양의 데이터로 학습되며, 데이터 패턴을 학습하고 이러한 패턴을 사용해 새로운 결과물을 생성할 수 있다.
생성AI는 작가와 그래픽 디자이너를 대체하지는 못하지만(DALL-E 3는 여전히 생성된 이미지에서 단어를 제대로 인식하지 못함), 이미지와 텍스트를 생성하고, 문구를 바꾸고, 더 짧게, 길게, 더 간단하게 만들고, 사실과 문법을 확인함으로써 전체 프로세스 속도를 크게 높여준다.
생성 AI가 작업 속도를 높이는 추세는 모든 업무와 활동에 적용된다. 작업을 자동화하고, 생산성을 높이고, 비용을 절감하고, 새로운 성장 기회를 제공할 수 있는 잠재력을 제공한다.
때문에 정보와 기술에 대한 접근을 민주화하는 AI 콘텐츠 제작 도구의 광범위한 보급은 이번 10년 동안 가장 파괴적인 트렌드 중 하나가 될 것이다. 가트너 예측에 따르면, 2026년까지 생성 AI 도입이 급증해 현재 5% 미만에서 기업 80% 이상이 생성 AI API, 모델, 애플리케이션을 운영에 통합할 것으로 예상된다.
2. 증강 작업(Augmented working), BYOAI와 쉐도우(Shadow AI)
BYOAI(Bring Your Own Artificial Intelligence)는 직원들이 자신만의 AI 도구와 애플리케이션을 업무에 활용하는 새로운 업무 환경 트렌드다. 저렴하고 사용하기 쉬운 AI 도구 가용성이 높아지고 AI 기술에 대한 직원들 수요가 증가함에 따라 이러한 트렌드가 확산되고 있다. 포레스터에 따르면 근로자 60%가 업무 수행에 개인 AI를 활용할 것이라고 한다.
생산성 및 혁신 증대, 직원 만족도 향상, 비용 절감 등 BYOAI에는 많은 이점이 있다. BYOAI는 직원들에게 좋은 기회이지만, 쉽게 통제 불능 상태가 될 수도 있다. AI를 위한 쉐도우 IT라고도 하는 쉐도우 AI는 IT 부서 모르고 있거나 IT부서 감독 없이 조직 내에서 인공지능 애플리케이션과 도구를 사용하는 것을 말한다.
쉐도우AI는 다음과 같은 몇 가지 위험을 초래할 수 있다.
데이터 프라이버시 및 보안 침해: 승인되지 않은 AI 도구는 공식적인 도구와 동일한 보호 기능을 제공하지 않을 수 있으므로 민감한 정보가 도난당하거나 손실될 수 있다.
규정 준수 위반: 마찬가지로 이러한 도구는 중요한 규정을 따르지 않을 수 있으며, 이로 인해 법적 문제가 발생할 수 있다.
3. 오픈소스AI
2023년 생성AI 붐은 대부분 오픈AI 독점 모델에 의해 주도됐고 우리도 챗GPT 3.5 터보를 사용해 실용적인 AI 챗봇을 구축했다.
하지만 이제 많은 조직에서 GPT-J와 같은 오픈 소스 모델을 채택하고 있다. 오픈 소스 모델은 독점 모델보다 투명하고 유연하며 사용자 정의가 가능하고 비용 효율적이다. 독점 모델이 곧 사라질 것이라는 의미는 아니지만, 포레스터에 따르면 기업들 85%가 오픈소스 AI 모델을 기술 스택에 통합하는 등 향후 오픈소스 솔루션들이 파고들 공간이 더 많이 남아 있다.
4. AI 리스크 환각 정책(AI risk hallucination policy)
생성AI는 강력한 도구지만, 마치 사실인 것처럼 보이는 잘못된 결과를 생성할 가능성도 있다. 이러한 잘못된 결과물을 환각(hallucinations)이라고 합니다. 생성AI가 보다 널리 사용됨에 따라 환각의 위험에 대한 우려가 커지고 있으며, 보험 적용에 대한 수요도 증가할 것이다.
AI 위험 환각 보험 시장은 아직 초기 단계에 있지만 향후 몇 년 안에 빠르게 성장할 것으로 예상된다. 포레스터 2024년 AI 예측 중 하나에 따르면, 주요 보험사가 특정 AI 위험 환각 보험을 제공할 것이라고 한다. [...] 실제로 환각 보험(hallucination insurance)은 2024년 큰 수익을 창출할 것이다.
5. AI 코딩
가트너에 따르면 2028년까지 엔터프라이즈 소프트웨어 엔지니어 4명 중 3명이 AI 비서를 사용하여 코드를 작성할 것이라고 한다. 비교하자면 2023년 초에는 소프트웨어 엔지니어 10명 중 1명 미만이 이러한 비서를 사용했다.
왜 트렌드일까? AI는 다음과 같은 다양한 방식으로 개발자를 돕는다.
반복적인 작업 자동화(코드 생성, 문서 서식 지정, 애플리케이션 테스트),
창작 과정 최적화,
코드 품질 개선,
문제 해결 지원.
AI가 개발 프로세스를 크게 개선했기 때문에 주변 모든 사람들이 이미 생산성과 시장 출시 시간을 단축하기 위해 AI 도구를 사용하기 시작했다고 가정해야 한다.아직은 아니더라도 머지않아 AI 코딩 도구를 사용하는 것이 표준 관행이 될 것이다. 제때 이를 도입하지 않는 기업은 곧 경쟁사에 뒤처지게 될 것이다.
6. AI TRiSM
AI TRiSM은 AI 신뢰, 위험 및 보안 관리 약자로 조직이 AI 모델을 개발하고 배포할 때 발생하는 위험을 관리하는 데 유용한 프레임워크다.
AI TRiSM은 5가지 핵심 영역을 다룬다:
설명 가능성: AI TRiSM은 조직이 AI 모델이 의사 결정을 내리는 방식을 이해하고 잠재적인 편향성을 식별할 수 있도록 지원한다.
모델 운영: AI 모델은 다른 소프트웨어 시스템과 마찬가지로 관리 및 유지 관리가 필요하다. AI TRiSM은 AI 모델 수명 주기를 자동화하고 모니터링하기 위한 도구와 프로세스를 제공한다.
데이터 이상 탐지: AI 모델은 데이터를 기반으로 학습하기 때문에 데이터가 부정확하면 결과물도 만족스럽지 않다. AI TRiSM은 AI 모델에 오류를 일으킬 수 있는 데이터 이상 징후를 식별하고 해결할 수 있도록 지원한다.
적대적 공격 방어: AI TRiSM은 적대적 공격을 방어하기 위한 도구와 기술을 제공한다.
데이터 보호: AI 모델에는 민감한 개인 데이터가 포함되어 있는 경우가 많다. AI TRiSM은 조직이 데이터 프라이버시 규정을 준수하고 개인의 프라이버시를 보호할 수 있도록 지원한다.
조직이 더 많은 AI를 채택함에 따라 AI TRiSM 중요성이 점점 더 커지고 있다. 가트너에 따르면 2026년까지 AI TRiSM을 사용해 AI 시스템을 관리하는 기업은 부정확하거나 가짜인 데이터 80%를 제거해 더 나은 의사결정을 내릴 수 있을 것이라고 한다.
7. 인텔리전스 앱과 AI 개인화(Intelligent apps & AI for personalization)
핀테크 전망, 은행의 미래, 2024년 디지털 건강 트렌드에 관한 최근 몇 개 기사들을 읽어보면 '개인화'라는 단어가 자주 등장하는 것을 볼 수 있다. AI의 부상은 우리가 기술과 상호작용하는 방식을 변화시키고 있으며, 이는 특히 개인화의 영역에서 두드러진다. 가트너에 따르면 2026년까지 모든 신규 앱 3분의 1이 AI를 사용해 개인화된 적응형 사용자 인터페이스를 구현할 것으로 전망된다. 이는 약 5% 앱만이 이러한 방식으로 AI를 사용하는 현재에 비해 크게 증가한 것이다.
왜 트렌드일까? 지능형 앱은 AI 알고리즘을 활용해 사용자 데이터와 선호도를 분석함으로써 콘텐츠, 추천, 사용자 경험을 각 사용자에게 맞춤화할 수 있다. AI 기반 개인화는 사용자 참여도와 전환율에 큰 영향을 미친다. 예를 들어, 맥킨지 연구에 따르면 개인화에 뛰어난 기업은 이러한 활동을 통해 평균적인 기업보다 40% 더 많은 수익을 창출하는 것으로 나타났다.이는 개인화된 추천이 사용자 관심사에 맞춰줘 사용자가 제품을 클릭하고 구매할 가능성이 더 높기 때문이다.
8. 퀀텀 AI(Quantum AI)
양자 컴퓨팅과 AI의 결합, 즉 양자 AI는 빠르게 부상하고 있는 분야로 많은 가능성을 열어주고있다. 전 세계 퀀텀 AI 시장은 2030년까지 연평균 34.1% 성장한 18억 달러에 이를 것으로 예상된다. 양자 컴퓨터는 복잡한 AI 모델을 훈련하고 실행할 수 있는 연산 능력을 제공하고, AI 알고리즘은 양자 리소스를 효율적으로 최적화하고 활용할 수 있다.
이러한 시너지 효과는 다음과 같은 분야에 혁신을 가져올 수 있는 잠재력이 있다.
재무 모델링 및 리스크 평가: 퀀텀 AI는 방대한 양의 금융 데이터를 분석해 패턴을 파악하고 시장 움직임을 예측해 리스크 관리와 투자 전략을 개선할 수 있다.
신약 발견 및 개발: 과학자들은 양자 알고리즘을 통해 약물 설계를 최적화하고 분자 상호작용을 시뮬레이션해 새롭고 효과적인 치료법 발견 속도를 높일 수 있다.
인공 일반 지능(AGI): 양자 AI는 기계가 인간이 할 수 있는 모든 지적 작업을 수행할 수 있는 능력, 즉 인공 일반 지능(AGI)을 달성하는 데 중요한 역할을 할 수 있다.
9. AI 법제화(AI Legislation)
AI가 점점 더 정교해지고 우리 생활에 통합됨에 따라 AI가 개발과 사용을 규율하는 법률의 필요성이 커지고 있다. AI는 다양한 긍정적, 부정적 목적으로 사용될 수 있으며, 이를 책임감 있고 윤리적으로 사용할 수 있도록 법률을 마련하는 것이 중요하다.
EU AI 법
유럽연합은 2021년 유럽연합 집행위원회가 AI법을 제안하는 등 AI 법제화를 선도하고 있다. AI법은 AI 거버넌스를 위한 최초 글로벌 프레임워크가 될 것이다. EU AI 법은 2024년 6월 유럽의회 선거 이전인 2024년 초 채택될 가능성이 높다.
AI 세이프티 서밋 2023
2023년 11월, 정부, AI 기업, 시민사회 전문가 그룹이 AI 세이프티 서밋(AI Safety Summit)에서 AI 위험성, 특히 가장 최신 첨단 AI 기술에 대해 논의했다. 이 서밋은 2023년 11월 1~2일 영국 밀턴 케인즈 블레클리 파크에서 열렸다. 이 서밋은 인공지능에 관한 최초의 글로벌 서밋이었다.
10. 윤리적 AI
윤리적 AI는 AI가 갖는 윤리적 의미를 검토하는 응용 윤리학 한 분야다. 여기에는 다음과 같은 광범위한 주제가 포함된다.
편견과 공정성
AI 기술은 제작자 편견을 반영하고 증폭시킬 수 있다. 이는 결과적으로 특정 집단에게 불공정한 결과를 초래할 수 있다.
그렇다, 알고리즘은 인종 차별적일 수 있다. 흑인 학자들이 수행한 연구에 따르면 백인 남성 오인율이 거의 제로에 가까운 데 비해 흑인 여성 오인율은 35%에 육박하는 등 얼굴 인식 소프트웨어에 심각한 인종적 편견이 있는 것으로 나타났다.
투명성 및 설명 가능성
AI가 내놓은 결과의 논리는 전문가라도 이해하기 어려울 수 있다. 이러한 '블랙박스 문제'로 인해 AI가 내린 결정을 신뢰하기 어렵고 AI 개발자가 자신의 창작물에 대한 책임을 지는 것이 어려워질 수 있다.
개인정보 보호
AI는 대량의 개인 데이터를 수집하고 사용하는 경우가 많기 때문에 개인정보 보호 및 데이터 보호에 대한 우려가 제기된다.
안전 및 보안
AI 시스템은 자율 무기를 개발하거나 잘못된 정보를 퍼뜨리는 등 해를 끼치는 데 악용될 수 있다. 예를 들어, 챗GPT 첫 번째 버전은 허용되지 않은 콘텐츠를 생성하도록 조작될 수 있었다. AI 개발과 배포에 있어 윤리적 문제를 고려하는 것이 중요하다는 인식이 확산되고 있다.
2019년, 유럽연합은 윤리적 AI 개발과 사용을 위한 일련의 가이드라인을 발표했다. 2023년 미국 대통령은 안전하고 안전하며 신뢰할 수 있는 AI 개발 및 사용에 관한 행정 명령을 발표했다.
11.새로운 AI 직업의 등장
AI가 다양한 산업에 지속적으로 침투하면서 두 가지 직업 트렌드를 관찰할 수 있다. AI 업스킬링 - 직무 수행 능력이나 경력 전망을 개선하기 위해 AI와 관련된 새로운 기술과 지식을 학습하는 과정을 한다.
2024년 이후 각광받을 것으로 예상되는 AI 직업은 다음과 같다.
AI 제품 관리자: AI 기반 제품 개발과 출시를 감독해 시장 요구를 충족하고 비즈니스 목표에 부합하는지 확인하는 역할을 담당한다.
AI 엔지니어(AI 연구 과학자, 비즈니스 인텔리전스 개발자, 컴퓨터 비전 엔지니어, 머신 러닝 엔지니어, 자연어 처리 엔지니어 등)
AI 윤리 전문가: 편향성, 공정성, 개인정보 보호, 투명성 문제를 해결해 AI 시스템이 윤리적이고 책임감 있게 개발 및 배포되도록 한다.
AI 입력 및 출력 관리자: AI 시스템에 입력되는 입력 데이터를 관리하고 시스템에서 생성된 출력을 해석한다.
감정 분석기: 고객 피드백, 소셜 미디어 댓글 및 기타 형태 텍스트 데이터를 분석해 대중 정서와 의견을 파악한다.
AI 규제 전문가: AI와 관련해 진화하는 규제 환경에 대한 최신 정보를 파악하고 기업이 관련 규정을 준수할 수 있도록 지원한다.
AI 인간-컴퓨터 상호 작용(HCI) 디자이너: AI 기반 제품 및 애플리케이션 사용자 인터페이스를 설계하해 사용자 경험을 개선하고 직관적인 상호 작용을 보장한다.
12. AI 기반 온라인 검색
AI는 온라인 검색을 혁신해 개인화되고 맥락에 맞는 예측 가능한 경험을 제공한다. AI 알고리즘은 사용자 선호도에 따라 결과를 맞춤화해 보다 관련성 높고 시의적절한 정보를 제공한다. 문맥 이해를 통해 복잡한 쿼리에 대해서도 정확한 결과를 제공한다. 자연어 처리 기반 대화형 검색은 검색 엔진과 자연스러운 상호 작용을 가능하게 한다. 시각적 검색을 통해 사용자는 이미지나 동영상을 사용해 검색할 수 있다.
AI 영향력은 SEO와 콘텐츠 제작에서 분명하게 나타난다. 그러나 AI 검색 기반 기업이 직면한 주요 과제는 고객 신뢰를 얻는 것이다. 2023년 2월 Statista 조사에 따르면 소비자들은 AI 기반 검색에 호기심을 갖고 있지만 정확성과 편향성에 대한 우려를 가지고 있는 것으로 나타났다. 설문조사에 참여한 미국 성인 39%는 데이터 프라이버시를 존중하는 AI 도구를 신뢰하지 않는다고 답했다.
소비자들은 안전, 사용 편의성, 기존 디지털 플랫폼과 통합을 우선한다. 일부는 AI로 향상된 검색 결과를 원하지만, 다른 일부는 전통적인 검색 방법을 선호한다. 2023년 2월 한 설문조사에 따르면 미국 성인 절반 이상이 AI 기반 검색 엔진으로의 전환을 주저하는 것으로 나타났다. 이러한 저항은 베이비붐 세대 사이에서 더욱 두드러졌다. 젊은 응답자의 54%도 주저하는 것으로 나타났다. 반대로 밀레니얼 세대는 AI 기반 검색에 대해 더 개방적인 태도를 보였으며, 40%가 전환할 의향이 있다고 답했다.
13.고객 서비스 분야 AI
마지막으로 인터콤이 발표한 '고객 서비스 분야 AI 현황: 2023년 보고서'를 통해 AI 트렌드가 고객 서비스를 어떻게 변화시킬 것으로 예상되는지 살펴보라.
1. 기업들이 고객 서비스를 위해 AI에 더 많은 투자를 하고 있다.
고객 서비스 리더들은 AI 잠재력에 큰 기대를 걸고 있으며 향후 몇 년 동안 AI에 더 많이 투자할 계획이다. 실제로 고객 서비스 리더 69%는 향후 1년간 AI에 더 많은 투자를 할 것이라고 답했다.
2. AI는 고객 서비스 업무를 대체하는 것이 아니라 개선할 것이다.
AI는 인간 고객 서비스 담당자를 대체하는 것이 아니라 그들 업무를 더 쉽고 효율적으로 만들어줄 것이다. 고객 지원 분야 리더 4분의 3 이상(78%)이 향후 5년 내에 AI가 고객 지원 경력을 변화시킬 것으로 예상한다.
3. AI는 기업 비용 절감과 효율성 향상에 도움이 될 수 있다.
고객 서비스 툴킷에 AI와 자동화를 추가하면 비용을 절감하고 효율성을 개선하는 데 도움이 될 수 있다. 비즈니스 회복탄력성이 그 어느 때보다 중요한 이 시기에 고객 지원 부문 리더 66%는 내년에 AI와 자동화를 사용해 팀의 효율성을 높일 수 있을 것으로 기대하고 있다.
4. AI는 기업이 고객 서비스에서 경쟁 우위를 확보할 수 있게 해준다.
고객 경험은 요즘 시장에서 핵심적인 차별화 요소이며, AI는 기업이 더 나은 고객 서비스를 제공하고 경쟁력을 갖출 수 있도록 도와준다. 실제로 고객 지원 부문 리더 73%는 고객이 향후 5년 내에 AI 지원 고객 서비스를 기대할 것이라고 생각한다.
5. 고객 서비스 분야 리더와 고객 서비스 실무 담당자들이 AI에 대해 알고 있는 내용 간에는 차이가 있다.
고객 서비스 분야 리더들 중 3분의 2 이상이 고객이 AI 챗봇과 상호작용할 준비가 되어 있다고 확신하는 반면 실무자들은 절반이 같은 생각을 갖고 있다. 고객 서비스 분야 리더들은 인공지능 사용에 대해 낙관적이지만 소비자들은 챗봇 사용에 대해 그다지 열의가 없다(Gartner의 이 연구 참조). 이는 고객 서비스 분야에서 가까운 미래에 AI에 대한 의구심을 불러일으킨다.