반도체 시장에 부는 AI 바람

AI 맞춤형 프로세서 속속 등장

by 사이언스타임즈

국내 반도체 시장이 위축되는 조짐을 보이고 있다.


작년 12월 28일 통계청은 ‘2018년 11월 산업 활동 동향’을 발표하며 “국내 반도체 시장이 전월 대비 감소했다”고 밝혔다.

통계청에 따르면, 반도체 생산 자체는 2017년 11월 대비 17.5%나 늘었다. 그러나 2018년 10월과 비교하면 5.2% 감소한 수치를 기록했다.

이에 많은 연합뉴스, 매일경제 등 많은 언론사들이 2019년도 국내 반도체 시장 위축 가능성에 대한 보도를 연이어 내보내고 있다.

언론 보도에 따르면, 그 이유는 크게 두 가지로 압축된다.

첫 번째는 글로벌 정보통신기술(ICT) 기업들의 설비 투자가 위축되고 있다는 것이다.

두 번째는 중국 반도체 제조기업들이 점차 경쟁력을 갖추고 있다는 분석이다.

에이아이.jpg

반도체 시장의 새로운 성장 동력으로 떠오르고 있는 ‘AI 프로세서’ ⓒ Flickr


그러나 국내 반도체 시장의 전망이 무조건 어두운 것만은 아니다. 활로가 있다는 뜻이다.


반도체 시장의 새로운 성장 동력으로 꼽히는 것이 인공지능(AI) 프로세서다.

이는 용어 그대로 ‘AI 맞춤형 프로세서’를 뜻한다. AI가 주목받음에 따라 이와 관련한 하드웨어 역시 주목을 받는 것이다.

시장조사기관 얼라이드 마켓 리서치(Allied Market Research)에 따르면, AI 프로세서 시장은 2018년부터 2025년까지 연평균 45.4%의 성장세를 기록할 전망이다. 이를 통해 2025년도 관련 시장 규모는 911.85억 달러(약 109.42조 원)에 이를 것으로 보인다.

이에 국내 반도체 제조기업인 삼성전자, SK 하이닉스 등이 AI 프로세서에 주목하고 있다. 조선비즈 등 국내언론에 따르면, 삼성전자는 AI 프로세서 기술의 경쟁력을 강화하고자 AI 핵심 분야의 인력을 끌어모으고 있는 중이다.

CPU 단점 극복 가능한 GPU의 부상

앞서 살펴본 내용을 종합하면, AI 프로세서가 반도체 산업에 차지하는 비중은 갈수록 커질 전망이다. 그런데 AI 프로세서가 과연 어떤 특징을 가지고 있기에 이처럼 주목을 받는 것일까?

이를 알기 위해서는 AI 기반 알고리즘 ‘딥 러닝 (Deep Learning)’을 이해해야 한다.

AI는 사실 예전부터 구현되어 온 기술이다. 다만 그 수준이 낮았을 뿐이다.

과거에는 규칙 기반 알고리즘을 사용하여 AI를 구현해왔다. 사람이 규칙을 만들어 AI를 동작하게 한 것이다.

그러나 현재의 AI는 기계학습을 그 기반으로 하고 있다. AI가 자동으로 학습하고 동작하는 것이다.
때문에 사람이 간섭할 부분이 적어진다. 또한 사람이 고려하지 못한 부분까지 AI가 학습을 하기에 그 적용 범위가 넓어졌다.

기계학습 중 특히 주목받고 있는 개념이 딥 러닝이다. 알파고, 자율주행차, 기계번역 등 현재 AI 활용의 최일선을 다루는 분야에서 대부분 딥 러닝을 활용하고 있다.

딥러닝.jpg

딥 러닝 처리 방식 ⓒ TeXample.net


딥 러닝이 일을 처리하는 방식은 사람의 신경망 구조와 비슷하다. 무수히 많은 요인을 고려하고 가중치를 넣어 계산한 후, 그 결과를 내놓는다. 그래서 딥 러닝을 신경망 알고리즘(CNN)이라고도 부른다.


이를 바탕으로 복잡한 문제를 해결할 수 있기에 딥 러닝은 AI의 핵심 알고리즘으로 부상하고 있다.

그런데 여기서 문제가 있다. 딥 러닝 방식이 기존 프로세서인 ‘중앙처리장치(CPU)’와 맞지 않는다는 것이다.

CPU는 컴퓨팅 파워를 모아서 연산 작업을 직렬로 빠르게 처리한다. CPU의 이러한 방식은 난이도가 높은 단일 연산을 처리하는 데에는 알맞다. 컴퓨팅 파워를 한 곳에 모으기 때문이다.

그러나 난이도가 높지 않은 복수 연산을 처리하는 데에는 적합하지 않다. 딥 러닝 연산이 후자에 가까운데, 복잡하지 않은 요인까지 모두 처리해야 하는 구조로 이뤄져 있기 때문이다.

따라서 CPU는 딥 러닝 연산을 처리할 때 구동 속도가 느려지고 전력 소모가 많이 발생하는 문제를 불러일으킨다. CPU가 필요 이상으로 전력을 소모하면서 무수히 많은 요인을 직렬로 처리하기 때문이다.

쥐피유.jpg

엔비디아의 GPU 서버 ⓒ Flickr


이에 따라 딥 러닝 구동을 위한 병렬 분산 처리 방식 프로세서의 필요성이 대두됐다. 이에 주목받은 것이 그래픽 처리 장치(GPU)다.


이름에서 알 수 있듯이, GPU는 원래 그래픽 영상 장치를 위해서 고안된 것이다.

GPU는 컴퓨터 그래픽의 여러 연산 요소(픽셀)를 병렬로 처리하기 위한 장치다. 그러나 딥 러닝 등장과 함께 AI 프로세서로서 새롭게 조명받기 시작했다.

GPU 분야의 선두 기업인 ‘엔비디아(NVIDIA)’는 이미 2000년대 초반부터 GPU의 유용함을 인식하고 AI 프로세서를 개발하기 시작했다. 현재 수많은 자율주행차, 영상 인식, 클라우드의 AI 서비스 등에 엔비디아의 GPU가 사용되고 있다.

GPU 대체할 새로운 AI 프로세서

엔비디아의 선견지명은 대단했다. 현재까지의 AI 프로세서는 곧 GPU와 마찬가지였다.

컨설팅 전문 기업 ‘딜로이트(Deloitte)’는 2016년 AI 프로세서 판매량을 약 10만 대로 계산했다. 물론 이 10만 대의 대부분은 GPU다.

그런데 최근 들어 변화가 생겼다. 딜로이트가 2018년의 AI 프로세서 판매량을 분석한 결과, 약 80만 대로 나타났다. 특이한 점은 AI 프로세서 항목에 GPU만 있었던 2016년과 달리, 두 개 항목이 추가되어 있다는 것이다.

바로 FPGA(Field Programmable Gate Array), ASIC(application specific integrated circuit)가 그것이다. 보고서에 따르면, GPU 50만 대, FPGA 20만 대, ASIC 10만 대로 드러났다.

이러한 딜로이트의 분석은 GPU의 독주를 막을 새로운 AI 프로세서에 대한 기대감을 보여준다. 이러한 기대감은 가트너(Garner)의 ‘2018년 인공지능 하이프 사이클(Hype Cycle for Artificial Intelligence, 2018)’ 보고서에서도 확인할 수 있다.

FPGA와 ASIC는 범용 연산 처리가 아닌 특정 목적에 따라 연산처리가 가능한 프로세서인데, 최근 AI 프로세서로 활용되고 있다.

참고로 FPGA가 하드웨어 특성을 재조합해 구현하는 프로세서라면, ASIC는 특정 목적에 맞게 만들어져서 나오는 프로세서이다.

마이크로소프트는 ‘프로젝트 카타펄트(Project Catapult)’를 통해 FPGA를 자체 클라우드 센터에 구현한 바 있다. 구글은 ASIC 방식으로 AI 프로세서를 개발하고 있는데, TPU(Tensor Processing Unit)가 이에 해당한다.

한편 인간의 뇌 신경구조를 모방해 동작하는 뉴로모픽 프로세서도 차세대 AI 프로세서로 각광받고 있다.

딥 러닝 자체가 뇌 신경구조를 본 따서 만든 알고리즘이기 때문에, 뉴로모픽은 딥 러닝 구동에 최적의 프로세서가 될 수 있다는 분석이다.

노스.jpg

IBM의 트루노스 ⓒ Flickr


이에 뉴로모픽 프로세서 연구가 활발하게 진행되고 있다.


그 시작은 2013년 퀄컴이다. 퀄컴은 당시 ‘제로스(Zeroth)’라는 AI 프로세서를 개발해 스마트폰에 적용했다. 이후 2014년 IBM이 뉴로모픽 프로세서 ‘트루노스(TrueNorth)’를 선보였다.

국내에서는 2018년 11월, 삼성전자가 뉴로모픽을 적용한 애플리케이션 프로세서(AP) ‘엑시노스 9820’을 개발했다고 밝혔다.

결론적으로 AI 프로세서가 반도체 산업의 핵심으로 부상하면서, 관련 기술개발도 활발하게 이뤄지고 있다. 이는 궁극적으로 AI 서비스 확산에도 크게 기여를 할 것으로 보인다.

유성민 IT칼럼니스트



기사원문:

https://www.sciencetimes.co.kr/?news=%eb%b0%98%eb%8f%84%ec%b2%b4-%ec%8b%9c%ec%9e%a5%ec%97%90-%eb%b6%80%eb%8a%94-ai-%eb%b0%94%eb%9e%8c

keyword
매거진의 이전글새로운 재난 ‘땅밀림’, 위협 가시화