에릭 브린욜프슨 교수와 앤드류 맥아피 교수는 2017년 7월 하버드 비즈니스 리뷰에 '비즈니스 세계의 인공지능 (The Business of Artificial Intelligence)'이라는 글을 기고했습니다. 이 글은 데이터에 기반한 의사 결정을 위해 비즈니스 업계에서 AI를 어떻게 활용하는 지를 설명합니다. 두 교수는 '제2의 기계 시대'라는 책을 저술하였고, 인공지능과 관련된 많은 활동을 함께 하고 있습니다.
The most important thing to understand about ML is that it represents a fundamentally different approach to creating software: The machine learns from examples, rather than being explicitly programmed for a particular outcome. This is an important break from previous practice. For most of the past 50 years, advances in information technology and its applications have focused on codifying existing knowledge and procedures and embedding them in machines. Indeed, the term “coding” denotes the painstaking process of transferring knowledge from developers’ heads into a form that machines can understand and execute. This approach has a fundamental weakness: Much of the knowledge we all have is tacit, meaning that we can’t fully explain it. It’s nearly impossible for us to write down instructions that would enable another person to learn how to ride a bike or to recognize a friend’s face.
머신러닝을 이해하기 위해 가장 중요한 것은 소프트웨어를 개발하기 위해 근본적으로 다른 접근법을 쓴다는 것입니다. 기계는 특정 결과를 산출하기 위해 명시적으로 프로그래밍되지 않고 사례에서 배웁니다. 이것이 기존 방식과 가장 큰 차이입니다. 지난 50년 동안, IT와 애플리케이션들의 진보는 기존 지식과 절차를 체계화하고 그것을 기계에 이식하는 것에 집중하였습니다. 사실 코딩이라는 용어는 개발자의 머리 속에 있는 지식을 기계가 이해하고 실행할 수 있는 형태로 전환하는 고통스러운 과정을 뜻합니다. 이런 전통적인 접근법은 근본적인 약점이 있습니다. 우리가 가진 많은 지식들이 관습적인 것입니다. 즉, 우리는 충분히 그것을 설명할 수 없습니다. 우리가 상대방의 얼굴을 인식하는 방법이나 자전거를 타는 방법을 다른 사람이 배울 수 있도록 하는 설명서를 작성하는 것은 불가능합니다. 말이나 글로 모두 설명할 수 없기 때문입니다.
In other words, we all know more than we can tell. This fact is so important that it has a name: Polanyi’s Paradox, for the philosopher and polymath Michael Polanyi, who described it in 1964. Polanyi’s Paradox not only limits what we can tell one another but has historically placed a fundamental restriction on our ability to endow machines with intelligence. For a long time that limited the activities that machines could productively perform in the economy.
다시 말해 우리 모두는 우리가 말할 수 있는 것보다 더 많은 것을 알고 있습니다. 이 사실이 너무 중요해서 그것을 지칭하는 이름이 있습니다. 1964년 철학자이자 지식인인 마이클 폴라니가 그것을 폴라니의 역설이라 정의했습니다. 폴라니의 역설은 우리가 남에게 설명할 수 있는 것은 한계가 있을 뿐만 아니라 기계에 지능을 부여하는 인간의 능력에도 역사적으로 근본적인 한계가 있다고 말합니다. 오랫동안 이 역설은 기계가 경제에서 생산적으로 일을 할 수 있는 활동을 제약했습니다.
Machine learning is overcoming those limits. In this second wave of the second machine age, machines built by humans are learning from examples and using structured feedback to solve on their own problems such as Polanyi’s classic one of recognizing a face.
머신 러닝은 이런 제약을 극복합니다. 제2차 기계 시대의 제2의 물결에서, 인간이 만든 기계가 사례에서 학습하고 얼굴 인식과 같은 폴라니의 해묵은 과제를 스스로 해결하기 위해 구조화된 피드백을 사용합니다.
Artificial intelligence and machine learning come in many flavors, but most of the successes in recent years have been in one category: supervised learning systems, in which the machine is given lots of examples of the correct answer to a particular problem. This process almost always involves mapping from a set of inputs, X, to a set of outputs, Y. For instance, the inputs might be pictures of various animals, and the correct outputs might be labels for those animals: dog, cat, horse. The inputs could also be waveforms from a sound recording and the outputs could be words: “yes,” “no,” “hello,” “good-bye.” (See the exhibit “Supervised Learning Systems.”)
인공지능과 머신 러닝의 종류는 다양합니다. 최근 대부분의 성공은 지도 학습 시스템 분야입니다. 그것은 기계에 특정 문제에 대한 수많은 정답의 사례를 입력하는 것입니다. 이런 프로세스는 거의 항상 입력 셋 X와 출력 셋 Y을 매핑하는 작업을 포함합니다. 예를 들면, 입력은 다양한 동물 그림일 수 있고, 올바른 출력은 개, 고양이, 말과 같은 동물의 분류가 될 수 있습니다. 음성 녹음 파형이 입력이라면 출력은 "네", "아니오", "안녕하세요", "잘 가요"와 같은 단어들이 출력 값입니다.
Successful systems often use a training set of data with thousands or even millions of examples, each of which has been labeled with the correct answer. The system can then be let loose to look at new examples. If the training has gone well, the system will predict answers with a high rate of accuracy.
성공적인 시스템은 수천 수백만 개의 세례로 이루어진 트레이닝 세트를 사용합니다. 각 트레이닝 세트는 정답이 라벨링되어 있습니다. 그리고 나서 그 시스템은 새로운 사례를 검사합니다. 훈련이 잘 되었다면, 이 시스템은 상당히 정확하게 정답을 예측할 것입니다.
The algorithms that have driven much of this success depend on an approach called deep learning, which uses neural networks. Deep learning algorithms have a significant advantage over earlier generations of ML algorithms: They can make better use of much larger data sets. The old systems would improve as the number of examples in the training data grew, but only up to a point, after which additional data didn’t lead to better predictions. According to Andrew Ng, one of the giants of the field, deep neural nets don’t seem to level off in this way: More data leads to better and better predictions. Some very large systems are trained by using 36 million examples or more. Of course, working with extremely large data sets requires more and more processing power, which is one reason the very big systems are often run on supercomputers or specialized computer architectures.
이런 성공을 주도한 알고리즘들은 신경망을 활용하는 딥러닝이라 불리는 새로운 기법을 활용합니다. 딥러닝 알고리즘은 초창기 머신 러닝 알고리즘보다 월등한 장점이 있습니다. 더 큰 데이터 세트를 더 잘 활용할 수 있습니다. 기존 시스템들은 트레이닝 데이터에 사례의 수가 증가할수록 성능이 개선되다가 어느 정도가 되면 사례가 아무리 증가해도 더 나은 예측을 하지 못합니다. 이 분야의 권위자인 앤드루 옹에 따르면, 딥 신경망은 데이터가 많을수록 더 나은 예측력을 향상합니다. 어떤 거대 시스템들은 3천6백만 개 이상의 사례를 활용합니다. 물론, 거대한 데이터 세트들은 더욱더 많은 처리 능력을 요구합니다. 그래서 초대형 시스템들은 슈퍼컴퓨터나 나 특수 컴퓨터 아키택처에서 실행됩니다.
Any situation in which you have a lot of data on behavior and are trying to predict an outcome is a potential application for supervised learning systems. Jeff Wilke, who leads Amazon’s consumer business, says that supervised learning systems have largely replaced the memory- based filtering algorithms that were used to make personalized recommendations to customers. In other cases, classic algorithms for setting inventory levels and optimizing supply chains have been replaced by more efficient and robust systems based on machine learning. JPMorgan Chase introduced a system for reviewing commercial loan contracts; work that used to take loan officers 360,000 hours can now be done in a few seconds. And supervised learning systems are now being used to diagnose skin cancer. These are just a few examples.
당신은 행동에 대한 많은 데이터를 가지고 있고 결과 예측을 시도하려는 상황에서 지도 학습 시스템의 잠재적인 응용이 가능합니다. 아마존 소비자 사업 부문 CEO 제프 월크는 고객에게 개인화된 상품 추천을 만들기 위해 사용했던 메모리 기반 필터링 알고리즘을 지도 학습 시스템으로 대체했다고 말했습니다. 다른 사례로는, 재고 수준을 결정하고 공급망을 최적화하기 위해 활용했던 전통적인 알고리즘이 더 효율적이고 강력한 머신러닝 기반 시스템으로 대체되었습니다. 미국의 투자 전문기관 JP 모건 체이스는 상업 대출 계약 심사 시스템을 도입했습니다. 대출 담당자들이 36만 시간 동안 매달려야 했던 일을 단 몇 초만에 끝낼 수 있습니다. 지도 학습 시스템들은 피부암을 진단에 활용되고 있습니다. 이것들은 단지 몇 가지 사례일 뿐입니다.
It’s comparatively straightforward to label a body of data and use it to train a supervised learner; that’s why supervised ML systems are more common than unsupervised ones, at least for now. Unsupervised learning systems seek to learn on their own. We humans are excellent unsupervised learners: We pick up most of our knowledge of the world (such as how to recognize a tree) with little or no labeled data. But it is exceedingly difficult to develop a successful machine learning system that works this way.
데이터에 라벨을 달고, 지도 학습 기계에게 그것을 훈련시키는 것은 비교적 단순합니다. 지도 학습 머신 러닝 시스템들은 지금까지 비지도 학습보다 더 보편적인 이유입니다. 비지도 학습 시스템은 스스로 학습합니다. 우리 인간은 뛰어난 비지도 학습자입니다. 우리는 나무를 인지하는 법과 같은 대부분의 세상의 지식을 라벨링 된 데이터 없이 배웁니다. 그러나 이런 방식으로 작동하는 머신 러닝 시스템을 개발하는 것은 극도로 어렵습니다.
If and when we learn to build robust unsupervised learners, exciting possibilities will open up. These machines could look at complex problems in fresh ways to help us discover patterns — in the spread of diseases, in price moves across securities in a market, in customers’ purchase behaviors, and so on — that we are currently unaware of. Such possibilities lead Yann LeCun, the head of AI research at Facebook and a professor at NYU, to compare supervised learning systems to the frosting on the cake and unsupervised learning to the cake itself.
우리가 강력한 비지도 학습 기계를 만드는 법을 배울 수 있다면, 흥미진진한 가능성이 눈 앞에서 열릴 것입니다. 이들 기계들은 복잡한 문제를 새로운 시각으로 바라볼지도 모릅니다. 질병 확산, 시장의 증권 가격 변동, 고객 구매행동 등의 우리가 알지 못하는 패턴을 발견하도록 도울 것입니다. 페이스북 인공지능 연구소장이자 뉴욕대 교수인 얀 레쿤은 지도 학습 시스템이 케이크에 입힌 설탕이라면, 비지도 학습 시스템은 케이크 자체라고 말합니다.
Another small but growing area within the field is reinforcement learning. This approach is embedded in systems that have mastered Atari video games and board games like Go. It is also helping to optimize data center power usage and to develop trading strategies for the stock market. Robots created by Kindred use machine learning to identify and sort objects they’ve never encountered before, speeding up the “pick and place” process in distribution centers for consumer goods. In reinforcement learning systems the programmer specifies the current state of the system and the goal, lists allowable actions, and describes the elements of the environment that constrain the outcomes for each of those actions. Using the allowable actions, the system has to figure out how to get as close to the goal as possible. These systems work well when humans can specify the goal but not necessarily how to get there. For instance, Microsoft used reinforcement learning to select headlines for MSN.com news stories by “rewarding” the system with a higher score when more visitors clicked on the link. The system tried to maximize its score on the basis of the rules its designers gave it. Of course, this means that a reinforcement learning system will optimize for the goal you explicitly reward, not necessarily the goal you really care about (such as lifetime customer value), so specifying the goal correctly and clearly is critical.
또 하나의 작지만 성장하는 인공지능 분야는 강화 학습입니다. 이 방식은 아타리 비디오 게임과 바둑과 같은 보드게임을 마스터한 시스템에 적용되고 있습니다. 강화 학습은 데이터센터의 전력 사용을 최적화하고 주식시장에서 거래 전략을 개발하는 것에 도움을 줍니다. 로봇기업 킨드레드가 개발한 로봇들은 머신 러닝을 활용해 처음 본 물체들을 파악하고 분류하는 법을 학습해서 소비재 물류 센터의 픽 앤 플레이스 프로세스를 개선합니다. 강화 학습 시스템에서는 프로그래머가 시스템의 현재 상태와 목표를 자세히 명시하고, 허용되는 조치를 목록화하고, 각각의 결과를 제한하는 환경 요소를 가르칩니다. 시스템들은 허용된 조치들을 활용해 목표에 가장 근접할 방법을 알아내야 합니다. 사람이 목표를 명시하지만 도달하는 방법을 알려주지 않을 때 시스템들은 잘 동작합니다. 예를 들어, 마이크로소프트는 강화 학습으로 시스템이 MSN.COM에 올라가는 뉴스의 레드라인을 직접 고르게 하고, 방문자가 더 많이 클릭하는 기사 링크에 더 높은 점수를 주는 보상 방식을 적용했습니다. 시스템은 개발자가 부여한 규칙을 토대로 최대한 높은 점수를 받으려고 노력했습니다. 그 목표가 고객의 생명 주기처럼 인간이 정말 중요시하는 것과 반드시 일치하는지는 않습니다. 그래서 목표는 정확하고 구체적이어야 합니다.