brunch

You can make anything
by writing

C.S.Lewis

by 라인하트 Sep 22. 2019

비즈니스 세계의 인공지능 (2/6)

   에릭 브린욜프슨 교수와 앤드류 맥아피 교수는 2017년 7월 하버드 비즈니스 리뷰에 '비즈니스 세계의 인공지능 (The Business of Artificial Intelligence)'이라는 글을 기고했습니다. 이 글은 데이터에 기반한 의사 결정을 위해 비즈니스 업계에서 AI를 어떻게 활용하는 지를 설명합니다. 두 교수는 '제2의 기계 시대'라는 책을 저술하였고, 인공지능과 관련된 많은 활동을 함께 하고 있습니다.  


WHAT CAN AI DO TODAY? 

오늘날 AI가 할 수 있는 것


                       

   The term artificial intelligence was coined in 1955 by John McCarthy, a math professor at Dartmouth who organized the seminal conference on the topic the following year. Ever since, perhaps in part because of its evocative name, the field has given rise to more than its share of fantastic claims and promises. In 1957 the economist Herbert Simon predicted that computers would beat humans at chess within 10 years. (It took 40.) In 1967 the cognitive scientist Marvin Minsky said, “Within a generation the problem of creating ‘artificial intelligence’ will be substantially solved.” Simon and Minsky were both intellectual giants, but they erred badly. Thus it’s understandable that dramatic claims about future breakthroughs meet with a certain amount of skepticism. 


      인공지능이라는 용어는 다트머스대 수학과 교수 존 매카시가 만들었고, 그다음 해 중요한 콘퍼런스를 조직하고 발표했습니다. 그 이후로 인공지능이라는 이름 때문에 멋진 가능성과 장래 희망이 과하게 부풀려졌습니다. 1957년 경제학자 허버트 사이먼은 10년 안에 컴퓨터가 체스에서 사람을 이길 것이라 예측했습니다. 실제로는 40년이 걸렸습니다. 1967년 인지과학자 마빈 민스키는 한 세 대 안에 인공지능을 구현하는 문제들이 거의 해결될 것이라고 말했습니다. 사이먼과 민스키는 모두 당대 최고의 지성이었지만, 그들은 한 참 잘못짚었습니다. 그래서 미래에 대한 장미빛 주장이 회의적인 주장과 맞닿아있는 것도 이해할 수 있습니다. 


                      

   Let’s start by exploring what AI is already doing and how quickly it is improving. The biggest advances have been in two broad areas: perception and cognition. In the former category some of the most practical advances have been made in relation to speech. Voice recognition is still far from perfect, but millions of people are now using it — think Siri, Alexa, and Google Assistant. The text you are now reading was originally dictated to a computer and transcribed with sufficient accuracy to make it faster than typing. A study by the Stanford computer scientist James Landay and colleagues found that speech recognition is now about three times as fast, on average, as typing on a cell phone. The error rate, once 8.5%, has dropped to 4.9%. What’s striking is that this substantial improvement has come not over the past 10 years but just since the summer of 2016. 


   인공지능이 이미 하고 있는 것과 얼마나 빨리 그것을 개선하고 있는지부터 살펴봅시다. 가장 거대한 진보는 지각과 인지 분야입니다. 지각 분야의 가장 큰 진전을 이룬 기술은 음성 관련 기술입니다. 음성 인식은 여전히 갈 길이 멀지만, 수백만명의 사람들이 사용하고 있습니다. 애플의 시리, 아마존의 알렉사, 구굴 어시스턴트를 생각해봅시다. 당신이 지금 읽고 있는 글도 처음에 컴퓨터가 음성인식으로 받아 적었습니다. 타이핑하는 것보다 더 정확하고 빠르게 받아 적었습니다. 제임스 랜데이 스탠퍼드대 컴퓨터 과학과 교수 연구진의 연구결과에 따르면, 현재 음성인식을 통한 텍스트 입력속도는 휴대전화 키보드 입력 속도보다 평균 세 배나 더 빠릅니다. 과거 8.5%에 달하던 오류율은 4.9%까지 낮아진 상태입니다. 놀라운 것은 이 점진적인 개선이 지난 10년간 일어난 것이 아니라 단지 2016년 여름부터였습니다.

                  

   Image recognition, too, has improved dramatically. You may have noticed that Facebook and other apps now recognize many of your friends’ faces in posted photos and prompt you to tag them with their names. An app running on your smartphone will recognize virtually any bird in the wild. Image recognition is even replacing ID cards at corporate headquarters. Vision systems, such as those used in self-driving cars, formerly made a mistake when identifying a pedestrian as often as once in 30 frames (the cameras in these systems record about 30 frames a second); now they err less often than once in 30 million frames. The error rate for recognizing images from a large database called ImageNet, with several million photographs of common, obscure, or downright weird images, fell from higher than 30% in 2010 to about 4% in 2016 for the best systems. (See the exhibit “Puppy or Muffin?”) 


   이미지 인식 기술도 극적으로 개선되었습니다. 페이스북과 다른 앱들은 포스팅 사진에 많은 당신 친구의 얼굴 인식하고 그들의 이름을 태그해 줄 것을 요청합니다. 스마트폰의 어떤 앱은 야생의 조류를 거의 인식합니다. 이미지 인식은 기업 본사 직원들의 신분증을 대체하고 있습니다. 자율주행 자동차에 사용되던 비전 시스템은 전에는 보행자를 식별할 때 30 프레임당 한번 꼴로 실수를 했습니다. (자동차에 내장된 카메라들은 초당 30 프레임으로 촬영합니다.) 하지만, 이제는 3천만 프레임당 한 번 꼴로 실수를 합니다. 이미지넷이라 불리는 거대 데이터베이스에는 평범하고 흐릿하고 기이한 수백만 장의 이미지가 저장되어 있습니다. 이미지넷에서 이미지 인식에 대한 오류율이 2010년에 30% 이상이었지만, 2016년에는 4%까지 낮아졌습니다.  



강아지인가 머핀인가? (이미지 인식 기술의 발전)


                     

이미지 인식 오류율



   The speed of improvement has accelerated rapidly in recent years as a new approach, based on very large or “deep” neural nets, was adopted. The ML approach for vision systems is still far from flawless — but even people have trouble quickly recognizing puppies’ faces or, more embarrassingly, see their cute faces where none exist. 


   이미지 인식의 개선 속도는 최근 몇 년 사이에 극적으로 개선되었습니다. 매우 거대하고 딥 신경망에 기반한 새로운 접근 방식이 적용되었습니다. 비전 시스템의 머신러닝 기법은 여전히 허점이 많습니다. 하지만 사람들도 강아지 얼굴이 없는 이미지에서 강아지 얼굴을 인식하는 실수를 하기도 합니다. 


                        

   The second type of major improvement has been in cognition and problem solving. Machines have already beaten the finest (human) players of poker and Go — achievements that experts had predicted would take at least another decade. Google’s DeepMind team has used ML systems to improve the cooling efficiency at data centers by more than 15%, even after they were optimized by human experts. Intelligent agents are being used by the cybersecurity company Deep Instinct to detect malware, and by PayPal to prevent money laundering. A system using IBM technology automates the claims process at an insurance company in Singapore, and a system from Lumidatum, a data science platform firm, offers timely advice to improve customer support. Dozens of companies are using ML to decide which trades to execute on Wall Street, and more and more credit decisions are made with its help. Amazon employs ML to optimize inventory and improve product recommendations to customers. Infinite Analytics developed one ML system to predict whether a user would click on a particular ad, improving online ad placement for a global consumer packaged goods company,   and another to improve customers’ search and discovery process at a Brazilian online retailer. The first system increased advertising ROI threefold, and the second resulted in a $125 million increase in annual revenue. 


   커다란 진전의 두 번째 분야는 인지 및 문제 해결과 관련되어 있습니다. 기계는 이미 포커와 바둑의 챔피언을 이겼습니다. 전문가들도 10년이 더 걸릴 것이라 예측했었습니다. 구글 딥마인드팀은 데이터센터의 냉각효율을 개선하기 위해 머신러닝을 사용했습니다. 인간 전문가들이 데이터센터를 최적화했던 것을 15% 이상 추가 개선했습니다.  사이버 보안 업체 딥 인스팅트 (Deep Instinct)는 악성 소프트웨어를 감지하고, 인터넷 결재 시스템 페이팔은 돈세탁 방지하기 위해 지능형 에이전트를 사용합니다. 싱가포르의 보험회사는 IBM 기술에 기초한 시스템을 활용하여 보험금 청구 프로세스를 자동화했습니다. 데이터 과학 플랫폼 업체인 루미테이텀의 시스템은 고객 지원을 개선하기 위한 조언을 제공합니다. 월스트리트의 수십 개 기업은 거래를 결정하기 위해 머신 러닝을 사용 중입니다. 신용 거래의 결정도 기계에 의지합니다. 아마존은 재고 관리를 최적화하고 고객에게 추천 상품을 개선하기 위해 머신러닝을 활용합니다. 마케팅 예측 및 분석 업체인 인피니트 애널리틱스는 사용자가 특정 광고를 클릭할지 말지를 예측하는 머신러닝 시스템을 개발하여 글로벌 소비재 기업의 온라인 광고 배치 전략을 향상했고, 브라질의 온라인 소매기업에 고객의 제품 검색 및 탐색 프로세스를 개선하였습니다. 글로벌 소비재 기업은 광고 투자 수익이 세 배 증가했고, 브라질 소매기업은 연 수익이 1억 2500만 달러가 늘었습니다.


                        

   Machine learning systems are not only replacing older algorithms in many applications, but are now superior at many tasks that were once done best by humans. Although the systems are far from perfect, their error rate — about 5% — on the ImageNet database is at or better than human-level performance. Voice recognition, too, even in noisy environments, is now nearly equal to human performance. Reaching this threshold opens up vast new possibilities for transforming the workplace and the economy. Once AI-based systems surpass human performance at a given task, they are much likelier to spread quickly. For instance, Aptonomy and Sanbot, makers respectively of drones and robots, are using improved vision systems to automate much of the work of security guards. The software company Affectiva, among others, is using them to recognize emotions such as joy, surprise, and anger in focus groups. And Enlitic is one of several deep-learning startups that use them to scan medical images to help diagnose cancer. 


   머신러닝 시스템은 수많은 애플리케이션의 오래된 알고리즘을 대체할 뿐만 아니라 인간이 제일 잘했던 많은 일들을 능숙하게 하고 있습니다. 비록 그 시스템들이 완벽하지는 않다고 해도, 이미지넷 데이터베이스의 5%의 에러율은 인간 수준과 비슷하거나 낫습니다. 음성인식도 시끄러운 환경에서 인간 수준과 비슷합니다. 이 정도 수준의 기술에 도달하면 업무 환경과 경제 분야에서 새로운 가능성이 열립니다. 특정 업무에서 인공지능 기반 시스템이 인간의 수준을 넘어설 때, 그들은 더 빨리 확산될 가능성이 높아질 것입니다. 예를 들어, 드론 제조업체 앱토노미와 로봇기업 샌봇은 경비업무를 자동화하기 위해 개선된 비전 시스템을 사용합니다. 소프트웨어 업체 어팩티비는 포커스 그룹에 기쁨, 놀람, 분노와 같은 감정을 읽어내기 위해 인공지능을 사용합니다. 그리고, 디러닝 스타트업 엔리틱은 암 진단을 돕기 위해 의학 영상정보를 분석하기 위해 인공지능을 활용합니다.


                        

   These are impressive achievements, but the applicability of AI-based systems is still quite narrow. For instance, their remarkable performance on the ImageNet database, even with its millions of images, doesn’t always translate into similar success “in the wild,” where lighting conditions, angles, image resolution, and context may be very different. More fundamentally, we can marvel at a system that understands Chinese speech and translates it into English, but we don’t expect such a system to know what a particular Chinese character means — let alone where to eat in Beijing. If someone performs a task well, it’s natural to assume that the person has some competence in related tasks. But ML systems are trained to do specific tasks, and typically their knowledge does not generalize. The fallacy that a computer’s narrow understanding implies broader understanding is perhaps the biggest source of confusion, and exaggerated claims, about AI’s progress. We are far from machines that exhibit general intelligence across diverse domains. 


   모두 인상적인 성과입니다. 하지만 인공지능 기반 시스템의 응용은 여전히 좁은 편입니다. 예를 들어, 이미지넷 데이터베이스에서 얻은 주목할만한 성과는 항상 자연환경에서 비슷한 성과로 이어지지 못합니다. 채광 조건, 각도, 이미지 해상도 등에 너무 다르기 때문입니다. 보다 근본적으로 우리는 중국어를 이해하고 영어로 번역해주는 시스템이 대단하다고 여깁니다. 그러나 우리는 베이징에서 맛집을 스스로 찾아가거나 특정 중국어의 의미를 아는 시스템을 기대하지 않습니다.  어떤 사람이 한 가지 일을 잘한다면, 다른 일도 어지간히 잘할 거라 짐작할 수 있습니다. 반면에 머신러닝 시스템은 특정한 임무를 잘하도록 훈련되었기 때문에 지식을 일반화할 수 없습니다. 컴퓨터의 편협한 이해가 더 넓은 이해를 암시한다고 믿는 오류는 아마도 인공지능이 진보하는 데 혼란과 과장된 주장을 일으키는 최대의 주범일지도 모릅니다. 우리는 여러 분야에서 범용 지능을 발휘하는 기계를 개발하는 일은 아직 먼 나라 이야기입니다. 




매거진의 이전글 비즈니스 세계의 인공 지능 (1/6)
브런치는 최신 브라우저에 최적화 되어있습니다. IE chrome safari