brunch
매거진 논문 리뷰

논문 리뷰 : 인공지능과 경영, 자동화–증강 패러독스

Raisch, Sebastian, and Sebastian (2021)

by CalmBeforeStorm

ARTIFICIAL INTELLIGENCE AND MANAGEMENT: THE AUTOMATION–AUGMENTATION PARADOX

Raisch, Sebastian, and Sebastian Krakowski. "Artificial intelligence and management: The automation–augmentation paradox." Academy of management review 46.1 (2021): 192-210.


https://onwork.edu.au/bibitem/2021-Raisch,Sebastian-Krakowski,Sebastian-Artificial+Intelligence+and+Management+The+Automation+Augmentation+Paradox/




Abstracts


Taking three recent business books on artificial intelligence (AI) as a starting point, we explore the automation and augmentation concepts in the management domain.

최근의 인공지능(AI) 관련 경영 서적 세 권을 출발점으로 삼아, 우리는 경영 분야에서 자동화와 증강 개념을 탐구한다.


Whereas automation implies that machines take over a human task, augmentation means that humans collaborate closely with machines to perform a task.

자동화는 기계가 인간의 작업을 대체한다는 것을 의미하는 반면, 증강은 인간이 기계와 긴밀하게 협력하여 작업을 수행하는 것을 의미한다.


Taking a normative stance, the three books advise organizations to prioritize augmentation, which they relate to superior performance.

이 세 권의 책은 규범적인 입장을 취하며, 조직들이 우수한 성과와 관련된 증강을 우선시할 것을 권고한다.


Using a more comprehensive paradox theory perspective, we argue that, in the management domain, augmentation cannot be neatly separated from automation.

더 포괄적인 패러독스 이론 관점에서 우리는 경영 분야에서 증강이 자동화와 명확히 분리될 수 없다고 주장한다.


These dual AI applications are interdependent across time and space, creating a paradoxical tension.

이 두 가지 AI 응용 프로그램은 시간과 공간을 넘어 상호 의존하며, 역설적인 긴장을 만들어낸다.


Overemphasizing either augmentation or automation fuels reinforcing cycles with negative organizational and societal outcomes.

증강이나 자동화 중 하나를 과도하게 강조하면 조직과 사회에 부정적인 결과를 초래하는 강화 순환을 부추긴다.


However, if organizations adopt a broader perspective comprising both automation and augmentation, they could deal with the tension and achieve complementarities that benefit business and society.

그러나 조직이 자동화와 증강을 모두 포함하는 더 넓은 관점을 채택하면, 긴장을 해결하고 비즈니스와 사회에 도움이 되는 상호보완성을 달성할 수 있다.


Drawing on our insights, we conclude that management scholars need to be involved in research on the use of AI in organizations.

우리의 통찰에 기반해, 우리는 경영 학자들이 조직에서 AI 사용에 관한 연구에 참여해야 한다고 결론 내린다.


We also argue that a substantial change is required in how AI research is currently conducted in order to develop meaningful theory and to provide practice with sound advice.

우리는 또한 의미 있는 이론을 개발하고 실무에 적절한 조언을 제공하기 위해 AI 연구 방식에 상당한 변화가 필요하다고 주장한다.



Introduction


The rise of powerful AI will be either the best or the worst thing ever to happen to humanity. We do not yet know which.
—Stephen Hawking, theoretical physicist (University of Cambridge, 2016)
강력한 AI의 부상은 인류 역사상 최고의 일이 될 수도 있고, 최악의 일이 될 수도 있다. 우리는 아직 그것이 무엇일지 알지 못한다.
—스티븐 호킹, 이론 물리학자 (케임브리지 대학교, 2016)
What all of us have to do is to make sure we are using AI in a way that is for the benefit of humanity, not to the detriment of humanity.
—Tim Cook, CEO of Apple (Byrnes, 2017)
우리 모두가 해야 할 일은 AI를 인류에게 해가 아닌 이익이 되는 방식으로 사용하는지 확인하는 것이다.
—팀 쿡, 애플 CEO (Byrnes, 2017)


Artificial intelligence (AI) refers to machines performing cognitive functions that are usually associated with human minds, such as learning, interacting, and problem solving (Nilsson, 1971).

인공지능(AI)은 학습, 상호작용, 문제 해결과 같은 일반적으로 인간의 사고 과정과 관련된 인지적 기능을 기계가 수행하는 것을 의미한다 (Nilsson, 1971).


Organizations have long used AI-based solutions to automate routine tasks in operations and logistics.

조직들은 오랜 기간 동안 운영 및 물류에서 반복적인 작업을 자동화하기 위해 AI 기반 솔루션을 사용해 왔다.


Recent advances in computational power, the exponential increase in data, and new machine-learning techniques now allow organizations to also use AI-based solutions for managerial tasks (Brynjolfsson & McAfee, 2017).

최근 컴퓨팅 능력의 발전, 데이터의 기하급수적 증가, 그리고 새로운 기계 학습 기술의 발전으로 인해 이제 조직들은 관리 작업에도 AI 기반 솔루션을 사용할 수 있게 되었다 (Brynjolfsson & McAfee, 2017).


For example, AI-based solutions now play important roles in Unilever’s talent-acquisition process (Marr, 2018), in Netflix’s decisions regarding movie plots, directors, and actors (Westcott Grant, 2018), and in Pfizer’s drug discovery and development activities (Fleming, 2018).

예를 들어, AI 기반 솔루션은 현재 유니레버의 인재 채용 과정 (Marr, 2018), 넷플릭스의 영화 줄거리, 감독 및 배우 결정 (Westcott Grant, 2018), 그리고 화이자의 신약 개발 및 연구 활동 (Fleming, 2018)에서 중요한 역할을 하고 있다.


In the 1950s, pioneering research predicted that AI would become essential for management (Newell, Shaw, & Simon, 1959; Newell & Simon, 1956).
1950년대에 선구적인 연구는 AI가 경영에 필수적이 될 것이라고 예측했다 (Newell, Shaw, & Simon, 1959; Newell & Simon, 1956).


However, initial technological progress was slow and the discussion of AI in management was “effectively liquidated” in the 1960s (Cariani, 2010: 89).

그러나 초기 기술 발전은 더디었고, 1960년대에는 경영 분야에서 AI에 대한 논의가 사실상 중단되었다 (Cariani, 2010: 89).


Scholars subsequently adopted a contingency view: The routine operational tasks that machines could handle were separated from the complex managerial tasks reserved for humans.
학자들은 이후 상황에 따라 달라지는 관점을 채택했다. 기계가 처리할 수 있는 반복적인 운영 작업은 복잡한 관리 작업과 분리되었으며, 이 복잡한 작업은 인간에게 맡겨졌다.
Consequently, AI was researched in computer science and operations research, whereas organization and management studies focused on humans (Rahwan et al., 2019; Simon, 1987).
그 결과, AI는 컴퓨터 과학과 운영 연구에서 다루어졌으며, 조직과 경영 연구는 인간에 집중했다 (Rahwan et al., 2019; Simon, 1987).


Management scholars have therefore provided very little insight into AI during the last two decades (Kellogg, Valentine, & Christin, 2020; Lindebaum, Vesa, & den Hond, 2020).

따라서 지난 20년 동안 경영학자들은 AI에 대한 통찰을 거의 제공하지 못했다 (Kellogg, Valentine, & Christin, 2020; Lindebaum, Vesa, & den Hond, 2020).


Nonetheless, these scholars’ understanding will be required, because AI is becoming increasingly pervasive in managerial contexts.

그럼에도 불구하고, AI가 점점 더 많은 관리 상황에서 사용되고 있기 때문에 이들 학자의 이해는 필요할 것이다.


In this review essay, we strive to reposition AI at the crux of the management debate.

이 리뷰 에세이에서 우리는 AI를 경영 논쟁의 핵심으로 재위치시키고자 한다.


Three highly influential business books on AI (Brynjolfsson & McAfee, 2014; Daugherty & Wilson, 2018; Davenport & Kirby, 2016) serve as a source of inspiration to challenge our thinking and spark new ideas in the management field (Bartunek & Ragins, 2015).

AI에 관한 세 권의 매우 영향력 있는 경영 서적 (Brynjolfsson & McAfee, 2014; Daugherty & Wilson, 2018; Davenport & Kirby, 2016)은 우리의 사고를 자극하고 경영 분야에서 새로운 아이디어를 불러일으키는 영감의 원천이 된다 (Bartunek & Ragins, 2015).


The three books have developed a common AI narrative for practicing managers.

이 세 권의 책은 실무 관리자들을 위한 공통된 AI 서사를 개발했다.


The authors distinguished two broad AI applications in organizations: automation and augmentation.

저자들은 조직에서 AI의 두 가지 주요 응용 프로그램인 자동화와 증강을 구분했다.


Whereas automation implies that machines take over a human task, augmentation means that humans collaborate closely with machines to perform a task.
자동화는 기계가 인간의 작업을 대체한다는 것을 의미하는 반면, 증강은 인간이 기계와 긴밀하게 협력하여 작업을 수행하는 것을 의미한다.


Taking a normative stance, the authors accentuated the benefits of augmentation while taking a more negative viewpoint on automation.

저자들은 규범적인 입장을 취하며 증강의 이점을 강조하고 자동화에 대해 더 부정적인 시각을 취했다.


Their combined advice was that organizations should prioritize augmentation, which the authors related to superior performance.
그들의 종합적인 조언은 조직들이 증강을 우선시해야 하며, 이는 우수한 성과와 관련이 있다고 주장했다.


In addition, the two more recent books (Daugherty & Wilson, 2018; Davenport & Kirby, 2016) provided managers with ample advice on how to develop and implement such an augmentation strategy.

또한, 더 최근에 출간된 두 권의 책(Daugherty & Wilson, 2018; Davenport & Kirby, 2016)은 관리자들에게 이러한 증강 전략을 개발하고 실행하는 방법에 대한 충분한 조언을 제공했다.


Assuming a more encompassing paradox theory perspective (Schad, Lewis, Raisch, & Smith, 2016; Smith & Lewis, 2011), we argue that augmentation cannot be neatly separated from automation in the management domain.
더 포괄적인 패러독스 이론 관점을 가정하며, 우리는 경영 분야에서 증강이 자동화와 명확히 분리될 수 없다고 주장한다.
These dual AI applications are interdependent across time and space, which creates a paradoxical tension.
이 두 가지 AI 응용 프로그램은 시간과 공간을 넘어 상호 의존하며, 역설적인 긴장을 만들어낸다.


Overemphasizing either augmentation or automation fuels reinforcing cycles that not only harm an organization’s performance but also have negative societal implications.

증강이나 자동화 중 하나를 과도하게 강조하면 조직의 성과뿐만 아니라 사회적 부정적인 영향을 초래하는 강화 순환을 부추긴다.


However, organizations adopting a broader perspective comprising both automation and augmentation are not only able to deal with the tension but also achieve complementarities that benefit business and society.
그러나 자동화와 증강을 모두 포괄하는 더 넓은 관점을 채택한 조직은 이러한 긴장을 해결할 뿐만 아니라 비즈니스와 사회에 도움이 되는 상호보완성을 달성할 수 있다.


We conclude by discussing our insights’ implications for organization and management research.

우리는 우리의 통찰이 조직 및 경영 연구에 미치는 영향을 논의하며 결론을 맺는다.


The emergence of AI-based solutions and humans’ increasing interactions with them creates a new managerial tension that requires research attention.

AI 기반 솔루션의 출현과 인간의 상호작용 증가로 인해 새로운 관리적 긴장이 발생하며, 이는 연구가 필요하다.


Management scholars should therefore play a more active role in the AI debate by reviewing prescriptions for managerial practice and developing more comprehensive perspectives.

따라서 경영 학자들은 관리 실무에 대한 처방을 검토하고 더 포괄적인 관점을 개발함으로써 AI 논쟁에서 더 적극적인 역할을 해야 한다.




REVIEWED MATERIALS


We started with a review of three recent business books on the use of AI in organizations.

우리는 조직에서 AI 사용에 관한 최근 경영 서적 세 권을 검토하는 것으로 시작했다.


While there are many other books on this topic, we selected the following three, which have been widely influential in managerial practice, filling the void arising from the lack of scholarly research.

이 주제에 관한 다른 많은 책들이 있지만, 우리는 학술 연구의 부족으로 인해 발생한 공백을 메우며 경영 실무에 큰 영향을 미친 다음 세 권을 선택했다.


The New York Times bestseller The Second Machine Age by MIT Professors Erik Brynjolfsson and Andrew McAfee (Brynjolfsson & McAfee, 2014) was called “the most influential recent business book” in a memorandum that Harvard Business School’s dean sent to the senior faculty (Economist, 2017).

MIT 교수 에릭 브린욜프슨과 앤드류 맥아피가 쓴 뉴욕 타임스 베스트셀러 The Second Machine Age (Brynjolfsson & McAfee, 2014)는 하버드 비즈니스 스쿨 학장이 주요 교수진에게 보낸 메모에서 “가장 영향력 있는 최근 경영 서적”으로 불렸다(Economist, 2017).


The much-debated (Press, 2016) Only Humans Need Apply is the latest book on AI by Babson Professor Thomas H. Davenport and Harvard Business Review Contributing Editor Julia Kirby (Davenport & Kirby, 2016).

많은 논쟁을 불러일으킨 Only Humans Need Apply (Press, 2016)는 배브슨 교수 토마스 H. 데이븐포트와 하버드 비즈니스 리뷰 기고 편집자 줄리아 커비가 쓴 최신 AI 책이다 (Davenport & Kirby, 2016).


Finally, the recently published Human + Machine by Accenture leaders Paul R. Daugherty and H. James Wilson (Daugherty & Wilson, 2018) has had an immediate impact on both academia and practice (Wladawsky-Berger, 2018).

마지막으로, 최근 출간된 액센츄어 리더 폴 R. 도허티와 H. 제임스 윌슨의 Human + Machine (Daugherty & Wilson, 2018)은 학계와 실무에 즉각적인 영향을 미쳤다 (Wladawsky-Berger, 2018).


Collectively, the three books have suggested that we are on the cusp of a major transformation in business, comparable to the industrial revolution in scope and impact.

이 세 권의 책은 우리가 규모와 영향 면에서 산업 혁명에 비견될 정도로 사업에서 중요한 전환점에 서 있다고 제안한다.


During this “first machine age,” which started with the invention of the steam machine in the eighteenth century, mechanical machines enabled mass production by taking over manual labor tasks at scale.

18세기에 증기 기관의 발명으로 시작된 “첫 번째 기계 시대” 동안, 기계는 대규모로 수작업을 대체하여 대량 생산을 가능하게 했다.


Today, we face an analogous inflection point of unprecedented progress in digital technology, taking us toward the “second machine age” (Brynjolfsson & McAfee, 2014: 7).
오늘날 우리는 디지털 기술의 전례 없는 발전과 함께 “두 번째 기계 시대”로 향하는 유사한 전환점을 맞이하고 있다 (Brynjolfsson & McAfee, 2014: 7).
Instead of performing mechanical work, machines now take on cognitive work, which was traditionally an exclusively human domain.
기계가 기계적 작업을 수행하는 대신, 이제는 전통적으로 인간만의 영역이었던 인지적 작업을 맡게 되었다.


However, machines still have many limitations, which means we are entering an era in which the human–machine relationship is no longer dichotomous, but evolving into a machine “augmentation” of human capabilities.

그러나 기계는 여전히 많은 한계가 있으며, 이는 인간과 기계의 관계가 더 이상 이분법적이지 않고 인간 능력을 보완하는 “증강”으로 발전하는 시대에 진입하고 있음을 의미한다.


Rather than being adversaries, humans and machines should combine their complementary strengths, enabling mutual learning and multiplying their capabilities.
인간과 기계가 적대적 관계가 아닌, 상호 보완적 강점을 결합하여 상호 학습을 촉진하고 능력을 배가해야 한다.

Instead of fearing automation and its effects on the labor market, managers should acknowledge that AI has the potential to augment, rather than replace, humans in managerial tasks (Davenport & Kirby, 2016: 30–31).

자동화와 그것이 노동 시장에 미치는 영향을 두려워하는 대신, 관리자들은 AI가 경영 업무에서 인간을 대체하는 것이 아니라 증강할 잠재력이 있다는 점을 인식해야 한다 (Davenport & Kirby, 2016: 30-31).


Building on this analysis, the three books have advised organizations to focus on augmentation rather than on automation.

이 분석을 바탕으로, 세 권의 책은 조직들이 자동화보다는 증강에 중점을 둘 것을 권고했다.


The two more recent books explicitly related such an augmentation strategy to superior firm performance.

더 최근에 출간된 두 권의 책은 이러한 증강 전략을 우수한 기업 성과와 명확하게 연결시켰다.


For example, Daugherty and Wilson (2018: 214) concluded that companies using “AI to augment their human talent (. . .) achieve step gains in performance, propelling them to the forefront of their industries.”

예를 들어, 도허티와 윌슨(2018: 214)은 “AI를 사용해 인간의 재능을 증강하는” 기업들이 성과에서 단계적인 향상을 이루고, 이를 통해 그들의 산업에서 선두에 나서게 된다고 결론지었다.


Conversely, companies focusing on automation may “see some performance benefits, but those improvements will eventually stall” (Daugherty & Wilson, 2018: 214).

반면, 자동화에 중점을 두는 기업들은 “일부 성과 향상을 볼 수 있을지 모르나, 이러한 향상은 결국 정체될 것이다” (Daugherty & Wilson, 2018: 214).


Similarly, Davenport and Kirby (2016: 214) predicted that “a company whose strategy all along has emphasized augmentation, not automation (…) will win big.”

마찬가지로, 데이븐포트와 커비(2016: 214)는 “전략적으로 증강을 강조한 기업이 크게 승리할 것”이라고 예측했다.


Consequently, Davenport and Kirby (2016) advised companies to prioritize augmentation (“don’t automate, augment” [59]), which they hailed as “the only path to sustainable competitive advantage” (204).
따라서, 데이븐포트와 커비(2016)는 기업들에게 “자동화하지 말고 증강하라”([59])는 권고와 함께, 이를 “지속 가능한 경쟁 우위를 위한 유일한 경로”라고 찬양했다 (204).


The two more recent books also provided managers with ample advice on how to develop and implement such an augmentation strategy in their organizations.

더 최근의 두 권의 책은 또한 관리자가 조직 내에서 이러한 증강 전략을 개발하고 실행하는 방법에 대한 충분한 조언을 제공했다.


Davenport and Kirby (2016: 89) described five strategies for “post-automation” human work, all involving some form of augmentation.

데이븐포트와 커비(2016: 89)는 “포스트 자동화” 인간 작업을 위한 다섯 가지 전략을 설명하며, 모든 전략이 어떤 형태로든 증강을 포함한다고 했다.


In addition, they provided a seven-step process for planning and developing an augmentation strategy (Davenport & Kirby, 2016: 201).

또한, 그들은 증강 전략을 계획하고 개발하기 위한 7단계 과정을 제공했다 (Davenport & Kirby, 2016: 201).


Daugherty and Wilson (2018: 105ff) described a range of new jobs that organizations could create and in which managers complement machines and machines augment managers.

도허티와 윌슨(2018: 105ff)은 조직이 창출할 수 있는 다양한 새로운 직업과 그 직업에서 관리자들이 기계를 보완하고 기계가 관리자를 증강하는 방식에 대해 설명했다.


The authors further described how augmentation could be implemented across domains, ranging from sales, marketing, and customer service to research and development (Daugherty & Wilson, 2018: 67ff).

저자들은 또한 증강이 판매, 마케팅, 고객 서비스에서부터 연구 개발에 이르기까지 다양한 영역에서 어떻게 구현될 수 있는지 설명했다(Daugherty & Wilson, 2018: 67ff).


Consistent with the books’ recommendations, companies have started adopting an augmentation strategy.

이 책들의 권고에 따라, 기업들은 증강 전략을 채택하기 시작했다.


For example, Satya Nadella, CEO of Microsoft, has announced that the firm will “build intelligence that augments human abilities and experiences. Ultimately, it’s not going to be about human vs. machine” (Nadella, 2016).
예를 들어, 마이크로소프트의 CEO 사티아 나델라는 회사가 “인간의 능력과 경험을 증강하는 인텔리전스를 구축할 것”이라고 발표했으며, “궁극적으로 인간 대 기계의 문제가 아닐 것”이라고 말했다 (Nadella, 2016).
Similarly, in the preamble to its AI guidelines, Deutsche Telekom (2018) stated that “AI is intended to extend and complement human abilities rather than lessen or restrict them.”
마찬가지로, 도이치 텔레콤은 AI 가이드라인 서문에서 “AI는 인간의 능력을 줄이거나 제한하는 것이 아니라 확장하고 보완하는 것이 목적”이라고 밝혔다 (Deutsche Telekom, 2018).
At IBM, the corporate principles have declared that “the purpose of AI and cognitive systems developed and applied by the IBM company is to augment human intelligence” (IBM Think Blog, 2017).
IBM에서는 기업 원칙을 통해 “IBM에서 개발하고 적용하는 AI 및 인지 시스템의 목적은 인간 지능을 증강하는 것”이라고 선언했다(IBM Think Blog, 2017).
In her speech at the World Economic Forum, IBM’s President and CEO Ginni Rometty suggested replacing the term “artificial intelligence” with “augmented intelligence” (La Roche, 2017).
세계경제포럼 연설에서 IBM의 사장 겸 CEO인 지니 로메티는 “인공지능”이라는 용어를 “증강 지능”으로 대체할 것을 제안했다 (La Roche, 2017).




THE AUTOMATION–AUGMENTATION PARADOX


Taking the three books as a starting point, we use a paradox theory perspective (Schad et al., 2016; Smith & Lewis, 2011) to explore organizations’ use of AI further.

이 세 권의 책을 출발점으로 삼아, 우리는 패러독스 이론 관점 (Schad et al., 2016; Smith & Lewis, 2011)을 사용해 조직의 AI 활용을 더욱 탐구한다.


A paradox lens allows us to elevate the level of analysis to study both automation and augmentation, which reveals a paradoxical tension between these dual AI applications in management.

패러독스 관점은 분석 수준을 높여 자동화와 증강을 모두 연구할 수 있게 하며, 이 두 가지 AI 응용 프로그램 간에 경영에서 역설적인 긴장이 존재함을 드러낸다.


Following the Smith and Lewis (2011) paradox framework, we will analyze the paradoxical tension, the management strategies used to address it, and their outcomes.

Smith와 Lewis (2011)의 패러독스 프레임워크를 따라, 우리는 역설적인 긴장, 이를 해결하는 데 사용된 관리 전략 및 그 결과를 분석할 것이다.



Paradoxical Tension


The three books described the relationship between automation and augmentation as a trade-off decision: Organizations attempting to use AI have the choice of either automating the task or using an augmentation approach.

이 세 권의 책은 자동화와 증강의 관계를 거래의 결정으로 설명했다: AI를 사용하려는 조직은 작업을 자동화할 것인지 증강 접근 방식을 사용할 것인지 선택할 수 있다.


If they opt for automation, humans hand over the task to a machine with little or no further involvement.
자동화를 선택하면, 인간은 거의 또는 전혀 추가적인 관여 없이 작업을 기계에 넘기게 된다.


The objective is to keep humans out of the equation to allow more comprehensive, rational, and efficient processing (Davenport & Kirby, 2016: 21).

목표는 인간을 배제함으로써 더 포괄적이고, 합리적이며, 효율적인 처리를 가능하게 하는 것이다 (Davenport & Kirby, 2016: 21).


In contrast, augmentation implies continued close interaction between humans and machines.
반면에, 증강은 인간과 기계 간의 지속적인 긴밀한 상호작용을 의미한다.


This approach allows for complementing a machine’s abilities with humans’ unique capabilities, such as their intuition and common-sense reasoning (Daugherty & Wilson, 2018: 191f).

이 접근 방식은 인간의 직관과 상식적 추론과 같은 고유한 능력으로 기계의 능력을 보완할 수 있게 한다 (Daugherty & Wilson, 2018: 191f).


The nature of the task determines whether organizations opt for one or the other approach.

작업의 성격에 따라 조직이 어느 접근 방식을 선택할지 결정된다.


Relatively routine and well-structured tasks can be automated, while more complex and ambiguous tasks cannot, but can be addressed through augmentation (Brynjolfsson & McAfee, 2014: 138ff; Daugherty & Wilson, 2018: 107ff; Davenport & Kirby, 2016: 34ff).
비교적 일상적이고 구조화된 작업은 자동화될 수 있지만, 더 복잡하고 모호한 작업은 자동화할 수 없고, 증강을 통해 처리할 수 있다(Brynjolfsson & McAfee, 2014: 138ff; Daugherty & Wilson, 2018: 107ff; Davenport & Kirby, 2016: 34ff).


The arguments that the books have provided are difficult to refute, but their perspective is largely limited to a given task at a specific point in time.

이 책들이 제시한 주장은 반박하기 어렵지만, 그들의 관점은 특정 시점에서 주어진 작업에 국한된 경향이 있다.


Paradox theory, however, warns that such a narrow trade-off perspective does not adequately represent reality (Smith & Lewis, 2011).

그러나 패러독스 이론은 이렇게 좁은 거래 관점이 현실을 충분히 대변하지 못한다고 경고한다 (Smith & Lewis, 2011).


A paradox lens can help increase the scale or level of analysis for a more systemic perspective (Schad & Bansal, 2018), which allows organizations to perceive not only the contradictions but also the interdependencies between automation and augmentation.
패러독스 관점은 더 체계적인 관점을 위한 분석의 범위나 수준을 확장하는 데 도움이 되며 (Schad & Bansal, 2018), 이를 통해 조직은 자동화와 증강 간의 모순뿐만 아니라 상호 의존성도 인식할 수 있다.


A more comprehensive paradox perspective (both–and) then replaces the traditional trade-off perspective (either–or).

보다 포괄적인 패러독스 관점은 전통적인 거래 관점을 대체하게 된다.


The essence of paradox is that the dual elements are both contradictory and interdependent—forming a persistent tension (Schad et al., 2016).

패러독스의 본질은 두 가지 요소가 모순적이면서도 상호 의존적이라는 점이며, 이는 지속적인 긴장을 형성한다 (Schad et al., 2016).


Automation and augmentation are contradictory, because organizations choose either one or the other approach to address a given task at a specific point in time.
자동화와 증강은 모순적이다. 왜냐하면 조직은 특정 시점에 주어진 작업을 처리하기 위해 하나의 접근 방식을 선택해야 하기 때문이다.


This choice creates a tension, since these AI approaches rely on competing logics with different organizational demands.

이 선택은 긴장을 야기하는데, 이는 이러한 AI 접근 방식들이 상충하는 논리에 기초하며 서로 다른 조직적 요구를 반영하기 때문이다.


For example, Lindebaum et al. (2020) maintained that automation instills a logic of formal rationality in organizations that conflicts with the logic of substantive rationality, or the human capacity for value-rational reflection, whereas augmentation preserves this substantive rationality.

예를 들어, 린데바움 외(2020)는 자동화가 조직 내에서 형식적 합리성의 논리를 주입하는 반면, 증강은 이러한 가치 합리적 사고 능력을 유지한다고 주장했다.


The tension is further reinforced because some organizational actors prefer augmentation (e.g., managers at risk of losing their jobs to automation) while others prioritize automation (e.g., owners interested in efficiencies) (Davenport & Kirby, 2016: 61).
이 긴장은 일부 조직 구성원들이 증강을 선호하는 반면(예: 자동화로 인해 일자리를 잃을 위험이 있는 관리자), 다른 사람들은 자동화를 우선시하기 때문에 더욱 강화된다(예: 효율성에 관심이 있는 소유주) (Davenport & Kirby, 2016: 61).


While these contradictions are real, they only reveal a partial picture.

이러한 모순들이 실제로 존재하지만, 이것들은 단편적인 모습만을 보여준다.


If we increase our analysis’s temporal scale (from one point in time to its evolution over time) and spatial scale (from one to multiple tasks), we comprehend that, in the management domain, the two AI applications are not only contradictory but also interdependent.

만약 우리가 분석의 시간적 범위를 한 시점에서 시간에 따른 진화로 확장하고, 공간적 범위를 한 작업에서 여러 작업으로 확장한다면, 경영 분야에서 두 가지 AI 응용 프로그램이 모순적일 뿐만 아니라 상호 의존적임을 이해하게 된다.



Increasing the Temporal Scale


Taking a process view of paradox reveals a cyclical relationship between opposing forces (Putnam, Fairhurst, & Banghart, 2016; Raisch, Hargrave, & van de Ven, 2018).

패러독스를 과정적 관점에서 보면 상충하는 힘들 사이에 순환적인 관계가 드러난다 (Putnam, Fairhurst, & Banghart, 2016; Raisch, Hargrave, & van de Ven, 2018).


Engagement with one side of the tension may set the stage, or even create the conditions necessary, for the other’s existence; in addition, over time there is often a mutual influence between the opposing forces, with swings from one side to the other (Poole & van de Ven, 1989).

긴장감의 한쪽에 개입하는 것이 다른 쪽의 존재를 위한 조건을 형성하거나, 심지어 필수적인 조건을 만들어낼 수 있으며, 시간이 지남에 따라 상충하는 힘들 사이에는 상호 영향을 미치며 한쪽에서 다른 쪽으로 이동하는 현상이 발생한다 (Poole & van de Ven, 1989).


Elevating the temporal scale from one point in time to the process over time allows for exploring this cyclical relationship between automation and augmentation.
시간적 범위를 한 시점에서 시간 경과에 따른 과정으로 확장하면 자동화와 증강 사이의 이러한 순환적 관계를 탐구할 수 있게 된다.


As the books suggest, the process of using AI for a managerial task starts with a choice between automation and augmentation.

이 책들이 제안한 대로, 관리 작업에서 AI를 사용하는 과정은 자동화와 증강 사이에서 선택하는 것에서 시작된다.


Organizations addressing a well-structured routine task, such as completing invoices or expense claims, could opt for automation.

조직이 송장 처리나 비용 청구와 같은 잘 구조화된 반복적인 작업을 처리할 때는 자동화를 선택할 수 있다.


They could do so by drawing on codified domain expertise to program rules into the system in the form of algorithms specifying the relationships between the conditions (“if”) and the consequences (“then”) (Gillespie, 2014).
그들은 도메인 전문가 지식을 코드화하여, 조건(“if”)과 결과(“then”) 간의 관계를 명시하는 알고리즘 형태로 시스템에 규칙을 프로그래밍함으로써 자동화를 실행할 수 있다 (Gillespie, 2014).
Such rule-based automation requires an explicitly stated domain model, which optimizes the chosen utility function (Russell & Norvig, 2009).
이러한 규칙 기반 자동화는 명시적으로 정의된 도메인 모델을 필요로 하며, 이는 선택된 유틸리티 함수를 최적화한다 (Russell & Norvig, 2009).
With clear rules in place, managers can relinquish the task to a machine.
명확한 규칙이 설정되면 관리자는 작업을 기계에 넘길 수 있다.


However, most managerial tasks are more complex, and the rules and models are therefore not fully known or readily available.
그러나 대부분의 관리 작업은 더 복잡하며, 따라서 규칙과 모델은 완전히 알려져 있지 않거나 즉시 사용할 수 없다.


In such cases, rule-based automation is impossible, but managers could use an augmentation approach to explore the problem further (Holzinger, 2016).

이런 경우 규칙 기반 자동화는 불가능하지만, 관리자들은 증강 접근 방식을 사용하여 문제를 더 탐구할 수 있다 (Holzinger, 2016).


This choice allows managers to remain involved and to collaborate closely with machines on these tasks.

이 선택은 관리자가 이러한 작업에 계속 관여하고 기계와 긴밀하게 협력할 수 있게 한다.


It is a common misconception that this augmentation process can be delegated to the IT department or external solution providers.

이 증강 과정이 IT 부서나 외부 솔루션 제공업체에 위임될 수 있다는 것은 흔한 오해다.


While rule-based automation allows such delegation, because the rules can be explicitly formulated, codified, and passed on to data scientists, complex tasks’ augmented learning relies on domain experts’ tacit knowledge, which cannot be easily codified (Brynjolfsson & Mitchell, 2017).
규칙 기반 자동화는 규칙을 명확하게 공식화하고, 코드화하여 데이터 과학자에게 전달할 수 있기 때문에 이러한 위임이 가능하지만, 복잡한 작업의 증강 학습은 쉽게 코드화할 수 없는 도메인 전문가의 암묵적 지식에 의존한다 (Brynjolfsson & Mitchell, 2017).
Data scientists can provide technical support, but domain experts need to stay “in the loop” in augmented learning (Holzinger, 2016: 119).
데이터 과학자들이 기술 지원을 제공할 수는 있지만, 도메인 전문가들은 증강 학습에서 “주요 과정에 참여”해야 한다 (Holzinger, 2016: 119).


Augmentation is therefore a coevolutionary process during which humans learn from machines and machines learn from humans (Amershi, Cakmak, Knox, & Kulesza, 2014; Rahwan et al., 2019).
따라서 증강은 인간이 기계로부터 배우고 기계가 인간으로부터 배우는 공동 진화 과정이다 (Amershi, Cakmak, Knox, & Kulesza, 2014; Rahwan et al., 2019).


In this iterative process, managers and machines interact to learn new rules or create models and improve them over time.

이 반복적인 과정에서 관리자와 기계는 새로운 규칙을 배우거나 모델을 생성하고 이를 시간이 지남에 따라 개선해 나간다.


The type and extent of human involvement vary with the specific machine-learning solution (Russell & Norvig, 2009).
인간의 개입 유형과 정도는 특정 기계 학습 솔루션에 따라 달라진다 (Russell & Norvig, 2009).


Human domain expertise is the starting point for supervised learning.

지도학습의 출발점은 인간의 도메인 전문 지식이다.


Managers provide a machine with a set of labeled training data specifying the inputs (or features) and the corresponding outputs.

관리자는 기계에 입력(또는 특성)과 그에 상응하는 출력값을 지정하는 라벨이 붙은 훈련 데이터를 제공한다.


The machine analyzes the training data and generates rules or models.

기계는 훈련 데이터를 분석하고 규칙이나 모델을 생성한다.


In contrast, unsupervised learning allows managers to induce patterns, of which they were not previously aware, directly from the unlabeled data (Jordan & Mitchell, 2015).

반면에 비지도 학습은 관리자들이 이전에는 인식하지 못했던 패턴을 라벨이 없는 데이터에서 직접 유추할 수 있게 한다 (Jordan & Mitchell, 2015).


In both applications, managers then use their domain expertise to evaluate, select, and complement machine outputs.

두 경우 모두 관리자들은 도메인 전문 지식을 사용하여 기계 출력값을 평가하고 선택하며 보완한다.


Spurious correlations or other statistical biases need to be weeded out.

가짜 상관관계나 다른 통계적 편향을 제거할 필요가 있다.


For example, machines generally learn from large, noisy data sets containing random errors.

예를 들어, 기계는 일반적으로 무작위 오류가 포함된 큰 노이즈 데이터 세트로부터 학습한다.


Overfitting is a key risk in this context, which means that a machine may learn a complete model that also explains the errors, consequently failing to generalize appropriately beyond its training data (Fan, Han, & Liu, 2014).

이러한 맥락에서 과적합은 주요 위험 요소이며, 이는 기계가 오류까지 설명하는 완전한 모델을 학습하여 훈련 데이터를 넘어 적절하게 일반화하는 데 실패할 수 있음을 의미한다 (Fan, Han, & Liu, 2014).


The experts’ revision of the learned knowledge is therefore an important part of the augmented learning process (Fails & Olsen, 2003).

따라서 학습된 지식에 대한 전문가의 수정 작업은 증강 학습 과정에서 중요한 부분이다 (Fails & Olsen, 2003).


In each iteration, managers assess the current model’s quality, subsequently deciding on how to proceed (Langley & Simon, 1995).

각 반복 과정에서 관리자들은 현재 모델의 품질을 평가하고 그에 따라 진행 방법을 결정한다 (Langley & Simon, 1995).


The resulting tight coupling between humans and machines, with the two influencing one another, makes it increasingly difficult, or even impossible, to decouple their influence on the resulting model (Amershi et al., 2014).
이로 인해 인간과 기계 간의 긴밀한 상호작용이 형성되며, 이는 두 요소가 서로에게 영향을 미치고 결과적으로 모델에 대한 그들의 영향을 분리하기가 점점 더 어려워지거나 불가능해지게 만든다 (Amershi et al., 2014).


Over time, this close collaboration with machines sometimes allows managers to identify rules or models that either optimize the utility function or come sufficiently close to an optimal solution to be practically useful.

시간이 지남에 따라 기계와의 이러한 긴밀한 협력은 관리자들이 유틸리티 함수를 최적화하거나 실질적으로 유용한 최적 솔루션에 근접하는 규칙이나 모델을 식별할 수 있게 한다.


If these models are sufficiently robust, they can subsequently be used to automate a task.

이 모델들이 충분히 견고하다면, 나중에 작업을 자동화하는 데 사용할 수 있다.


Managers are taken “out of the loop,” which allows them to focus on more demanding and valuable tasks.
관리자들은 “주요 과정에서 배제”되며, 이를 통해 더 중요한 작업에 집중할 수 있게 된다.


Augmented learning thus aims to provide increasing levels of automation, replacing time-consuming human activity with automated processes that improve accuracy, efficiency, or effectiveness (Langley & Simon, 1995).
따라서 증강 학습은 자동화 수준을 점차 높이는 것을 목표로 하며, 시간 소모적인 인간 활동을 정확도, 효율성 또는 효과성을 향상시키는 자동화된 프로세스로 대체한다 (Langley & Simon, 1995).


Consequently, augmentation may enable a transition to automation over time.
결과적으로, 증강은 시간이 지남에 따라 자동화로의 전환을 가능하게 할 수 있다.


To provide illustrations of such transitions from automation to augmentation, we briefly discuss two examples from managerial practice.

자동화에서 증강으로의 전환을 보여주는 사례를 설명하기 위해, 우리는 경영 실무에서 두 가지 예시를 간략히 논의한다.


Organizations are increasingly employing AI-based solutions in human resource (HR) management to acquire talent (Stephan, Brown, & Erickson, 2017).

조직들은 인재를 확보하기 위해 인적 자원(HR) 관리에서 AI 기반 솔루션을 점점 더 많이 사용하고 있다 (Stephan, Brown, & Erickson, 2017).


For example, JP Morgan Chase chose an augmentation approach to assess candidates.

예를 들어, JP모건 체이스는 후보자 평가를 위해 증강 접근 방식을 선택했다.


A team of experienced HR managers worked closely with an AI-based solution to identify reliable, firm-specific predictors of candidates’ future job performance.

경험이 풍부한 HR 관리자 팀은 AI 기반 솔루션과 긴밀히 협력하여 후보자의 미래 직무 성과를 예측할 수 있는 신뢰할 만한 회사 고유의 예측 요소들을 식별했다.


It took a full year of intensive interaction between the human experts and the AI-based solution to remove statistically biased or socially vexed predictors, and make the system robust.

인간 전문가와 AI 기반 솔루션 간의 집중적인 상호작용은 통계적으로 편향되거나 사회적으로 문제가 되는 예측 요소들을 제거하고, 시스템을 견고하게 만들기 위해 1년이 걸렸다.


After the initial augmentation stage, JP Morgan Chase decided to automate the candidate assessment task on the basis of the identified criteria.

초기 증강 단계 이후, JP모건 체이스는 식별된 기준을 바탕으로 후보자 평가 작업을 자동화하기로 결정했다.


By removing humans from this activity, the bank intended to increase the candidate assessment’s fairness and consistency, while also making the process faster and more efficient (Riley, 2018).

이 작업에서 인간을 배제함으로써, 은행은 후보자 평가의 공정성과 일관성을 높이고, 동시에 과정을 더 빠르고 효율적으로 만들고자 했다 (Riley, 2018).


Product innovation is another key domain of AI application in management (Daugherty & Wilson, 2018: 67f).

제품 혁신은 AI가 경영에서 적용되는 또 다른 주요 영역이다 (Daugherty & Wilson, 2018: 67f).


For example, Symrise, a major global fragrance company, adopted an augmentation approach to generate ideas.

예를 들어, 글로벌 향수 회사인 Symrise는 아이디어를 생성하기 위해 증강 접근 방식을 채택했다.


An AI-based solution helped the company’s master perfumers identify correlations between specific customer demographics and different combinations of ingredients based on the company’s database of 1.7 million fragrances.

AI 기반 솔루션은 회사의 마스터 조향사들이 170만 개의 향료 데이터베이스를 바탕으로 특정 고객의 인구 통계와 다양한 성분 조합 간의 상관관계를 식별하는 데 도움을 주었다.


Subsequently, Symrise’s master perfumers used their expertise to confirm or reject the possible connections, create additional ones, and refine them further.

그 후, Symrise의 마스터 조향사들은 그들의 전문 지식을 사용하여 가능한 상관관계를 확인하거나 거부하고, 추가적인 연결을 만들며 이를 더욱 정제했다.


After two years of close interaction between the master perfumers and the machine, the resulting model was considered sufficiently robust to automate the idea generation task.

마스터 조향사들과 기계 간의 2년간의 긴밀한 상호작용 끝에, 생성된 모델은 아이디어 생성 작업을 자동화할 만큼 충분히 견고하다고 평가되었다.


Based on a customer’s requirements, the AI-based system now searches for possible new fragrance formulas far more rapidly and comprehensively than humans can, which has helped increase these formulas’ novelty while simultaneously greatly reducing the search cost and time (Bergstein, 2019).

이제 AI 기반 시스템은 고객의 요구 사항을 바탕으로 새로운 향수 포뮬라를 인간보다 훨씬 더 빠르고 포괄적으로 검색하며, 이는 포뮬라의 새로움을 높이는 동시에 검색 비용과 시간을 크게 줄이는 데 도움을 주었다(Bergstein, 2019).


As the examples illustrate, organizations may initially choose augmentation to address a complex task, but this advanced interaction between managers and AI-based solutions helps them expand their understanding of the task over time, which sometimes allows subsequent automation.
이 예시들이 보여주듯, 조직은 처음에 복잡한 작업을 처리하기 위해 증강을 선택할 수 있지만, 관리자와 AI 기반 솔루션 간의 이러한 고급 상호작용은 시간이 지남에 따라 작업에 대한 이해를 확장하게 하며, 이는 때때로 후속 자동화를 가능하게 한다.


While such a transition relaxes the tension temporarily, the issue resurfaces when conditions change over time (Smith & Lewis, 2011).

이러한 전환이 일시적으로 긴장을 완화시키지만, 시간이 지나 조건이 변하면 문제가 다시 떠오르게 된다 (Smith & Lewis, 2011).


For example, digitalization is likely to significantly alter the skills that JP Chase Morgan’s future talents need to be successful.

예를 들어, 디지털화는 JP모건 체이스의 미래 인재들이 성공하기 위해 필요한 기술을 크게 변화시킬 가능성이 있다.


Bankers will need advanced data-science skills, which did not play a role in the extant employee data.

은행가들은 기존 직원 데이터에는 없었던 고급 데이터 과학 기술을 필요로 하게 될 것이다.


Such substantial changes therefore make the automated solutions function less effectively (Davenport & Kirby, 2016: 72).

따라서 이러한 중대한 변화는 자동화된 솔루션이 덜 효과적으로 작동하게 만든다 (Davenport & Kirby, 2016: 72).


Organizations should therefore, at least temporarily, return to augmentation, which allows humans and machines to jointly work through the changing situation and adjust their models accordingly.

따라서 조직은 최소한 일시적으로 증강으로 돌아가야 하며, 이는 인간과 기계가 변화하는 상황에 공동으로 대처하고 이에 따라 모델을 조정할 수 있게 한다.


We conclude that the two AI applications in management are not only contradictory but also interdependent.
우리는 경영에서의 두 가지 AI 응용 프로그램이 모순적일 뿐만 아니라 상호 의존적이라는 결론을 내린다.


Organizations may opt for one or the other application at a given point in time, which softens the underlying tension temporarily but fails to resolve it.

조직은 특정 시점에 하나의 응용 프로그램을 선택할 수 있으며, 이는 근본적인 긴장을 일시적으로 완화하지만 완전히 해결하지는 못한다.


Eventually, organizations will face the same choice again, demonstrating the two applications’ interdependent nature and cyclical relationship.

결국, 조직은 동일한 선택에 직면하게 되며, 두 응용 프로그램의 상호 의존성과 순환적인 관계를 보여주게 될 것이다.


Increasing the Spatial Scale

Paradox theory explores tensions not only over time but also across space.

패러독스 이론은 시간뿐만 아니라 공간에서도 긴장을 탐구한다.


Paradoxical tensions are nested and interwoven across multiple levels of analysis (Andriopoulos & Lewis, 2009).

패러독스적인 긴장감은 여러 분석 수준에서 서로 얽혀 있다 (Andriopoulos & Lewis, 2009).


Addressing a tension at one level of analysis may therefore simply reproduce the tension on a different level (Smith & Lewis, 2011).

하나의 분석 수준에서 긴장을 해결하면 다른 수준에서 동일한 긴장이 다시 나타날 수 있다 (Smith & Lewis, 2011).


Elevating the spatial scale from one task to multiple tasks allows us to explore automation and augmentation’s nested interdependence across levels of analysis.

하나의 작업에서 여러 작업으로 공간적 범위를 확장하면 자동화와 증강의 얽혀 있는 상호 의존성을 분석 수준별로 탐구할 수 있게 된다.


Focusing our attention on the use of either one (i.e., automation) or the other (i.e., augmentation) solution for a specific task sets artificial boundaries, fosters distinctions, and fuels opposites (Smith & Tracey, 2016).

특정 작업에 대해 자동화 또는 증강 중 하나의 해결책에만 집중하는 것은 인위적인 경계를 설정하고 구분을 촉진하며 상반된 선택지를 부추긴다 (Smith & Tracey, 2016).


However, in practice managerial tasks rarely occur in isolation, but are generally embedded in a managerial process.

그러나 실제로 관리 작업은 거의 고립된 상태로 발생하지 않고, 일반적으로 관리 프로세스에 통합되어 있다.


There are interdependencies between the various tasks constituting this process.
이 프로세스를 구성하는 다양한 작업들 간에는 상호 의존성이 존재한다.
These interdependencies cause managerial interventions in one task to have ripple effects throughout the process (Lüscher & Lewis, 2008).
이 상호 의존성은 한 작업에서의 관리 개입이 전체 프로세스에 파급 효과를 미치게 한다 (Lüscher & Lewis, 2008).


If organizations automate a task hitherto reserved for humans, this change could affect other, closely related human tasks, and lead managers to start interacting with machines.

조직이 지금까지 인간에게 맡겨진 작업을 자동화한다면, 이 변화는 다른 인간 작업에 영향을 미칠 수 있으며, 관리자가 기계와 상호작용을 시작하게 만들 수 있다.


Such interactions are often iterative, resulting in the augmentation of adjacent tasks.

이러한 상호작용은 종종 반복적이며, 인접 작업의 증강을 초래한다.


For example, at Symrise the automation of the “idea generation” task also affected the preceding “objective setting” and the succeeding “idea selection” tasks in the product innovation process.

예를 들어, Symrise에서 “아이디어 생성” 작업의 자동화는 제품 혁신 프로세스에서 앞선 “목표 설정” 작업과 뒤따르는 “아이디어 선택” 작업에도 영향을 미쳤다.


Consequently, in the initial, objective-setting stage the company’s master perfumers must now enter customers’ objectives and constraints into the AI-based system to allow the automated generation of fragrance formulas matching these requirements in the subsequent idea-generation stage (Goodwin et al., 2017).

따라서 초기 목표 설정 단계에서 회사의 마스터 조향사들은 이제 고객의 목표와 제약 조건을 AI 기반 시스템에 입력해야 하며, 이를 통해 다음 아이디어 생성 단계에서 이러한 요구 사항에 맞는 향수 포뮬라가 자동으로 생성된다 (Goodwin et al., 2017).


This is often an iterative process, with the master perfumers circling back to adjust the objectives and the constraints according to the system outputs.

이것은 종종 반복적인 과정이며, 마스터 조향사들은 시스템 출력에 따라 목표와 제약 조건을 조정하기 위해 다시 돌아가는 작업을 반복한다.


In the later idea-selection stage, the master perfumers continue using their human senses, expertise, and intuition to select one of the formulas that the machine proposed.

아이디어 선택 단계에서는 마스터 조향사들이 인간의 감각, 전문 지식, 직관을 활용하여 기계가 제안한 포뮬라 중 하나를 선택하게 된다.


They subsequently use the AI-based solution to further refine their chosen formula (Bergstein, 2019).

그 후 AI 기반 솔루션을 사용하여 선택한 포뮬라를 더욱 정제한다 (Bergstein, 2019).


For example, the master perfumers employ the machine to experiment with different dosages of the selected formula’s ingredients.

예를 들어, 마스터 조향사들은 선택한 포뮬라 성분의 다양한 배합을 실험하기 위해 기계를 사용한다.


This refinement process can include hundreds of iterations between the machine and the master perfumers.

이 정제 과정은 기계와 마스터 조향사들 간의 수백 번의 반복을 포함할 수 있다.


This iterative process involving close human–machine interaction has led to the augmentation of the idea-selection task.

이와 같은 인간과 기계 간의 긴밀한 상호작용을 포함하는 반복적인 과정은 아이디어 선택 작업의 증강으로 이어졌다.


As this example illustrates, a task’s automation can lead to human–machine interaction in the preceding or the succeeding tasks in the managerial process.

이 예시에서 보여지듯, 작업의 자동화는 관리 프로세스에서 앞선 또는 후속 작업에서 인간과 기계 간의 상호작용으로 이어질 수 있다.


Automation in one task “spills over,” enabling adjacent tasks’ augmentation.
하나의 작업에서 자동화가 발생하면 그 효과가 확산되어 인접 작업의 증강을 가능하게 한다.
These spillovers are particularly rapid in AI systems, which often rely on distributed computing and cloud-based solutions that make the knowledge gained from a given insight immediately accessible across the system (Benlian, Kettinger, Sunyaev, & Winkler, 2018; Gregory, Henfridsson, Kaganer, & Kyriakou, 2020).
이러한 파급 효과는 특히 AI 시스템에서 빠르게 일어나며, AI 시스템은 분산 컴퓨팅과 클라우드 기반 솔루션에 의존하여 특정 통찰력에서 얻은 지식을 즉시 시스템 전반에 접근 가능하게 만든다 (Benlian, Kettinger, Sunyaev, & Winkler, 2018; Gregory, Henfridsson, Kaganer, & Kyriakou, 2020).



The two AI applications in management are therefore interdependent not only across time but also across space.

따라서 경영에서의 두 AI 응용 프로그램은 시간뿐만 아니라 공간적으로도 상호 의존적이다.


While automation and augmentation are distinct activities operating in different temporal or spatial spheres, they are nevertheless intertwined at a higher level of analysis.

자동화와 증강은 서로 다른 시간적 또는 공간적 영역에서 작동하는 별개의 활동이지만, 더 높은 분석 수준에서 상호 얽혀 있다.


Viewed as a paradox, automation and augmentation are no longer separate, but are mutually enabling and constituent of one another.
패러독스의 관점에서 보면, 자동화와 증강은 더 이상 분리된 것이 아니며, 서로를 가능하게 하고 서로의 구성 요소가 된다.



Persistence of the tension.


Paradox refers to a tension between interdependent elements; however, this tension is only considered paradoxical if it persists over time (Schad et al., 2016).
패러독스는 상호 의존적인 요소들 간의 긴장을 의미하지만, 이 긴장이 시간이 지나도 지속될 때만 패러독스라고 간주된다 (Schad et al., 2016).


We argue that the emerging coexistence of interdependent automated and augmented tasks will persist in the management domain.
우리는 상호 의존적인 자동화 및 증강 작업의 공존이 경영 분야에서 지속될 것이라고 주장한다.


Sometimes, highly visible advancements driven by machine-learning applications are misinterpreted and extrapolated to imply that we are on the threshold of advancing toward artificial general intelligence.

때로는 기계 학습 응용 프로그램이 이끄는 눈에 띄는 발전이 잘못 해석되어, 우리가 일반 인공지능으로 나아가는 문턱에 있다고 확대 해석된다.


However, there is widespread agreement among computer scientists that we are actually far from machines wholly surpassing human intelligence (Brynjolfsson & Mitchell, 2017; Walsh, 2017).

그러나 컴퓨터 과학자들 사이에서는 우리가 실제로는 기계가 인간의 지능을 완전히 초월하는 것과는 아직 거리가 멀다는 의견이 널리 퍼져 있다 (Brynjolfsson & Mitchell, 2017; Walsh, 2017).


Technical and social limitations make the full automation of complex managerial processes impossible in the foreseeable future.
기술적 및 사회적 제한으로 인해 복잡한 관리 프로세스의 완전한 자동화는 예측 가능한 미래에 불가능하다.
Managers will therefore remain involved in these processes and interact with machines on a wide range of tasks.
따라서 관리자는 이러한 프로세스에 계속 관여하고, 다양한 작업에서 기계와 상호작용할 것이다.


A few limitations of machines are worth pointing out here:

여기서 몇 가지 기계의 한계를 지적할 필요가 있다:


First, machines have no sense of self or purpose, which means managers need to define their objectives (Braga & Logan, 2017).
첫째, 기계는 자아나 목적 의식이 없기 때문에 관리자가 목표를 설정해야 한다는 것이다 (Braga & Logan, 2017).
Setting objectives is closely related to taking responsibility for the associated tasks and outcomes; consequently, while organizations can extend accountability to machines, responsibility requires intentionality, which is an exclusively human ability (Floridi, 2008).
목표 설정은 관련된 작업과 결과에 대한 책임과 밀접한 관련이 있으며, 따라서 조직이 기계에 책임을 부여할 수 있지만, 책임은 의도성을 필요로 하며, 이는 인간만이 가진 능력이다 (Floridi, 2008).


In turn, humans can only take responsibility if they retain some level of involvement with and control over the relevant tasks.

반대로, 인간은 관련 작업에 어느 정도의 관여와 통제권을 유지할 때만 책임을 질 수 있다.


In our example of product innovation at Symrise, the perfumers set the objectives, remain involved throughout the innovation process, and take responsibility for its outcomes.

Symrise의 제품 혁신 사례에서, 조향사들은 목표를 설정하고 혁신 과정 전반에 걸쳐 참여하며 그 결과에 대한 책임을 진다.


The same is true of HR managers in the talent-acquisition process.

이와 같은 것은 인재 확보 과정의 HR 관리자에게도 해당된다.


A recent example is the media hype around AlphaGo Zero, an AI-based system representing state-of-the-art chess and Go play (Silver et al., 2017).

최근의 예로는 AI 기반 시스템인 AlphaGo Zero를 둘러싼 언론의 열풍이 있다. AlphaGo Zero는 첨단 체스 및 바둑 게임을 대표한다(Silver et al., 2017).


AlphaGo Zero learned these games through trial and error (or reinforcement) without human guidance, only playing games against itself.

AlphaGo Zero는 인간의 지침 없이 시도와 오류(또는 강화)를 통해 이 게임들을 학습했으며, 오직 자신과의 게임을 통해 학습했다.


However, people often overlook that programmers still needed to feed AlphaGo Zero an important piece of human knowledge: the rules of the game.

그러나 사람들은 프로그래머들이 AlphaGo Zero에게 여전히 중요한 인간 지식을 제공해야 했다는 사실을 종종 간과한다. 그것은 바로 게임의 규칙이다.


Chess and Go have explicit, finite, and stable goals, rules, and reward signals, which allow machine learning to be optimized.

체스와 바둑은 명확하고 한정된 목표, 규칙, 그리고 보상 신호를 가지고 있어서 기계 학습의 최적화가 가능하다.


Most real-world managerial problems are far more complex than games like chess or Go.
대부분의 실제 경영 문제는 체스나 바둑과 같은 게임보다 훨씬 복잡하다.


For example, the rules of managerial problems might not be known, might be ambiguous, or might change over time.
예를 들어, 경영 문제의 규칙은 알려지지 않았거나 모호하거나 시간이 지남에 따라 변할 수 있다.


While AlphaGo Zero is impressive, it represents little, if any, progress toward artificial general intelligence.

AlphaGo Zero는 인상적이지만, 일반 인공지능으로 가는 진전은 거의 없다고 볼 수 있다.


Second, with respect to complex managerial tasks, machines can only provide a range of options that all relax certain real-life constraints.
둘째, 복잡한 경영 업무와 관련하여, 기계는 현실에서의 제약을 완화한 다양한 옵션만을 제공할 수 있다.


Managers need to use their intuition and common-sense judgment—reconciling the machine output with reality—to make a final decision about the most desirable option (Brynjolfsson & McAfee, 2014: 92).

관리자들은 기계의 출력을 현실과 조화시키기 위해 직관과 상식적인 판단을 사용하여 가장 바람직한 옵션에 대해 최종 결정을 내려야 한다 (Brynjolfsson & McAfee, 2014: 92).


In our example of talent acquisition at JP Morgan Chase, the AI-based solution enabled the candidate assessment’s automation, but HR managers are still needed for the subsequent candidate selection (Riley, 2018) because no model can cover this task’s full complexity.

JP모건 체이스의 인재 확보 사례에서, AI 기반 솔루션은 후보자 평가의 자동화를 가능하게 했지만, 후보자 선정을 위해서는 여전히 HR 관리자들이 필요하다 (Riley, 2018). 이는 어떤 모델도 이 작업의 모든 복잡성을 처리할 수 없기 때문이다.


Machines cannot fully capture ambiguous predictors, such as cultural fit or interpersonal relations, for which there are simply no codified data available.
기계는 문화적 적합성이나 대인 관계와 같은 모호한 예측 변수를 완전히 포착할 수 없으며, 이를 위한 코드화된 데이터는 존재하지 않는다.


The same applies to the product development process at Symrise, where the master perfumers ultimately choose one of the machine’s suggested fragrance formulas (Bergstein, 2019).

이와 같은 문제는 Symrise의 제품 개발 과정에서도 나타나며, 마스터 조향사들은 최종적으로 기계가 제안한 향수 공식 중 하나를 선택한다 (Bergstein, 2019).


Third, machines are limited to the specific task for which they have been trained.
셋째, 기계는 자신이 훈련받은 특정 작업에만 한정된다.


They cannot take on other tasks, since they do not possess the general intelligence to learn from their experience in one domain to conduct tasks in other domains (Davenport & Kirby, 2016: 35).
기계는 하나의 영역에서의 경험을 통해 다른 영역의 작업을 수행하는 데 필요한 일반 지능을 가지고 있지 않기 때문에 다른 작업을 맡을 수 없다 (Davenport & Kirby, 2016: 35).


Managers therefore need to ensure contextualization beyond an automated task.

따라서 관리자는 자동화된 작업을 넘어 상황적 맥락을 보장해야 한다.


For example, HR managers still need to spend hours coordinating meetings to ensure that their hiring decisions are aligned with the business strategy, and product developers need to continue interacting with marketing departments to align their products with the business models.

예를 들어, HR 관리자들은 여전히 채용 결정이 비즈니스 전략과 일치하도록 하기 위해 회의를 조정하는 데 많은 시간을 할애해야 하며, 제품 개발자들은 제품이 비즈니스 모델과 일치하도록 마케팅 부서와 계속 상호작용해야 한다.


Fourth, machines do not possess human senses, perceptions, emotions, and social skills (Braga & Logan, 2017).
넷째, 기계는 인간의 감각, 인지, 감정 및 사회적 기술을 가지고 있지 않다 (Braga & Logan, 2017).


For example, HR managers can use their emotional and social intelligence to provide a “human touch,” or the advanced communication required to build true relationships, entice talent to work for their firm, and convince others to support the decisions made (Davenport & Kirby, 2016: 74).

예를 들어, HR 관리자들은 감정적, 사회적 지능을 활용하여 “인간적 감성”을 제공하거나, 진정한 관계를 구축하고, 인재를 회사로 유도하며, 결정에 대한 다른 사람들의 지지를 이끌어내는 고급 커뮤니케이션을 할 수 있다 (Davenport & Kirby, 2016: 74).


In the Symrise case, machines can neither smell nor fully predict how humans will perceive new fragrances, or the emotions and memories they trigger.

Symrise 사례에서 기계는 냄새를 맡을 수 없으며, 인간이 새로운 향을 어떻게 인식할지, 또는 그 향이 어떤 감정이나 기억을 불러일으킬지 완전히 예측할 수 없다.


Master perfumers have these skills and can also use them to tell a compelling story about a fragrance and its meaning, which is important for its commercialization.

마스터 조향사들은 이러한 기술을 가지고 있으며, 향수와 그 의미에 대해 매력적인 이야기를 만들어 내어 상업화에 중요한 역할을 할 수 있다.


To conclude, the augmentation of a managerial task may enable its subsequent automation.

결론적으로, 경영 업무의 증강은 후속 자동화를 가능하게 할 수 있다.


Such automation can, in turn, trigger further augmentation in closely related managerial tasks.

이러한 자동화는 다시 밀접하게 관련된 경영 업무에서 추가적인 증강을 촉진할 수 있다.


While these dynamics are likely to promote increasing augmentation and automation, technological and social limitations prevent progress toward the full automation of managerial processes in organizations.

이러한 역학은 증강과 자동화의 증대를 촉진할 가능성이 있지만, 기술적 및 사회적 제한은 조직의 경영 프로세스의 완전한 자동화로의 진전을 막는다.


This is particularly true of managerial contexts characterized by high degrees of ambiguity, complexity, and rare events, which limit deterministic approaches’ applicability (Davis & Marcus, 2015).

이는 특히 높은 수준의 모호성, 복잡성, 그리고 희귀한 사건들로 특징지어지는 경영 상황에서 더욱 그러하며, 이러한 상황에서는 결정론적 접근의 적용 가능성이 제한된다 (Davis & Marcus, 2015).


In such contexts, automation and augmentation provide different, partly conflicting, but also complementary logics and functionalities that organizations require.
이러한 상황에서 자동화와 증강은 조직이 필요로 하는 서로 다른, 때로는 상충되지만 상호 보완적인 논리와 기능을 제공한다.


While the optimal balance between automation and augmentation depends on contingencies, such as organizations’ AI expertise and the nature of the environmental contexts they face, organizations will experience a persistent tension between these interrelated applications of AI in management.

자동화와 증강 사이의 최적의 균형은 조직의 AI 전문성과 그들이 직면한 환경적 맥락의 특성에 따라 달라지지만, 조직은 경영에서 이 상호 관련된 AI 응용 프로그램 간의 지속적인 긴장을 경험하게 될 것이다.



Management Strategies


Recent technological progress has made the AI tension salient for organizations.

최근의 기술 발전은 조직에게 AI와 관련된 긴장을 두드러지게 만들었다.


Organizations facing such a salient tension tend to apply management strategies to address it.

이러한 명백한 긴장에 직면한 조직들은 이를 해결하기 위한 관리 전략을 적용하는 경향이 있다.


According to paradox theory, these organizational responses fuel reinforcing cycles that can be either negative or positive (Smith & Lewis, 2011).

패러독스 이론에 따르면, 이러한 조직의 대응은 부정적이거나 긍정적인 강화 주기를 촉발시킨다 (Smith & Lewis, 2011).


If organizations are unaware of a tension’s paradoxical nature they risk applying partial strategies, which cause vicious cycles that escalate the tension.

조직이 긴장의 패러독스적 특성을 인식하지 못하면, 부분적인 전략을 적용할 위험이 있으며, 이는 긴장을 심화시키는 악순환을 초래할 수 있다.


Conversely, organizations that accept a tension as paradoxical and pay attention to its competing demands could enable virtuous cycles (Schad et al., 2016).

반대로, 긴장을 패러독스로 인식하고 상충되는 요구에 주목하는 조직은 선순환을 가능하게 할 수 있다 (Schad et al., 2016).



Vicious cycles.


Organizations are likely to prioritize automation due to its promise of short-term cost efficiencies (Davenport & Kirby, 2016: 204).
조직들은 자동화가 단기 비용 효율성을 제공할 것이라는 기대 때문에 자동화를 우선시할 가능성이 있다 (Davenport & Kirby, 2016: 204).
This strategy forces organizations’ competitors to also pursue automation in order to remain cost competitive.
이 전략은 조직의 경쟁자들도 비용 경쟁력을 유지하기 위해 자동화를 추구하도록 만든다.


Consequently, the whole industry may be “entering (…) in a race toward the zero-margin reality of commoditized work” (Davenport & Kirby, 2016: 204).

결과적으로, 전체 산업이 “상품화된 작업의 무이익 현실로 달려가는 경쟁”에 돌입하게 될 수 있다 (Davenport & Kirby, 2016: 204).


Over time, these organizations lose the human skills required to alter their processes (Endsley & Kiris, 1995).

시간이 지나면, 이러한 조직들은 자신들의 프로세스를 변화시키는 데 필요한 인간의 기술을 잃게 된다 (Endsley & Kiris, 1995).


Human experts are either made redundant through automation or they lose their specific skills regarding the tasks they no longer pursue.

인간 전문가들은 자동화로 인해 불필요해지거나, 더 이상 수행하지 않는 작업과 관련된 특정 기술을 잃게 된다.


Prior research has shown that automation can deskill humans, make them complacent, and diffuse their sense of responsibility (Parasuraman & Manzey, 2010; Skitka, Mosier, & Burdick, 2000).

이전 연구는 자동화가 인간의 기술을 저하시키고, 자만하게 만들며, 책임 의식을 희석시킬 수 있다는 것을 보여준다 (Parasuraman & Manzey, 2010; Skitka, Mosier, & Burdick, 2000).


Ultimately, organizations become entrenched in their automated processes, because automation is limited to specific tasks in well-understood domains and imposes formal rules that narrow organizations’ choices and penalize deviation (Lindebaum et al., 2020).

궁극적으로 조직은 자동화된 프로세스에 갇히게 되며, 이는 자동화가 잘 이해된 영역의 특정 작업에 한정되고 공식적인 규칙을 부과하여 조직의 선택을 좁히고 일탈을 처벌하기 때문이다 (Lindebaum et al., 2020).


To conclude, while automation can free up resources for potential search activities, it is also associated with short-term thinking, the loss of human expertise, and lock-in effects that, together, fuel a reinforcing cycle, which makes it increasingly difficult for organizations to implement such search activities.
결론적으로, 자동화는 잠재적인 탐색 활동을 위한 자원을 확보할 수 있지만, 단기적인 사고, 인간 전문 지식의 상실, 고착 효과와 연관되어 있으며, 이 모두가 악순환을 초래하여 조직이 이러한 탐색 활동을 구현하는 것을 점점 더 어렵게 만든다.


In contrast, organizations could follow the three books’ combined advice and focus on augmentation.

반면, 조직은 세 권의 책에서 제안한 조언을 따르고 증강에 초점을 맞출 수 있다.


This AI application requires extensive resources to work through iterative cycles of human–machine learning.

이 AI 응용 프로그램은 인간-기계 학습의 반복 주기를 처리하는 데 광범위한 자원을 필요로 한다.


Contrary to automation, augmentation demands continued human involvement and experimentation (Amershi et al., 2014).
자동화와 달리, 증강은 지속적인 인간의 개입과 실험을 요구한다 (Amershi et al., 2014).


Since emotions and other subjective factors affect humans, augmentation is difficult or even impossible to replicate, which means every augmentation initiative is a new learning effort (Holzinger, 2016).
감정과 다른 주관적 요소들이 인간에게 영향을 미치기 때문에, 증강은 복제하기 어렵거나 불가능하며, 이는 모든 증강 활동이 새로운 학습 노력이 된다는 것을 의미한다 (Holzinger, 2016).


Owing to their inherent complexity and uncertainty, augmentation efforts often fail (Amershi et al., 2014).

내재된 복잡성과 불확실성 때문에 증강 노력은 종종 실패한다 (Amershi et al., 2014).


Furthermore, the continued human involvement implies that human biases persist, which means augmentation outcomes are never fully consistent, reliable, or persistent (Huang, Hsu, & Ku, 2012).

또한 지속적인 인간의 개입은 인간의 편견이 지속된다는 것을 의미하며, 이는 증강 결과가 결코 완전하게 일관되거나 신뢰할 수 없고 지속적이지 않다는 것을 의미한다 (Huang, Hsu, & Ku, 2012).


To legitimize their large augmentation investments, organizations experiencing failure may be tempted to reinforce their augmentation efforts further, which could escalate their commitment (Sabherwal & Jeyaraj, 2015; Staw, 1981), with failure leading to continued augmentation, in turn leading to continued failure.

증강에 대한 큰 투자를 정당화하기 위해 실패를 겪고 있는 조직은 증강 노력을 더욱 강화하고자 하는 유혹을 받을 수 있으며, 이는 헌신의 확대를 초래할 수 있다 (Sabherwal & Jeyaraj, 2015; Staw, 1981). 이는 실패가 지속적인 증강으로 이어지고, 다시 실패로 이어지는 악순환을 초래한다.


To conclude, one-sided orientations toward either automation or augmentation cause vicious cycles, because they neglect the dynamic interdependencies between AI’s dual applications in management.
결론적으로, 자동화나 증강 중 어느 한쪽으로 치우친 방향은 경영에서 AI의 이중 응용 프로그램 간의 역동적인 상호 의존성을 무시하기 때문에 악순환을 초래한다.

Managers limiting their perspective to either automation or augmentation risk developing partial and incomplete managerial solutions.

관리자가 시야를 자동화나 증강 중 하나로만 제한하면 부분적이고 불완전한 경영 해결책을 개발할 위험이 있다.


While these solutions may be appropriate within the strict boundaries that time and space impose, the use of AI in management causes an organizational tension that persists across time and space.

이러한 해결책들이 시간과 공간이 부과하는 엄격한 경계 내에서 적절할 수 있지만, 경영에서의 AI 사용은 시간과 공간을 초월하는 조직적 긴장을 유발한다.



Virtuous cycles.


Paradox theory offers a more constructive response to tensions by envisioning a virtuous cycle, with organizations overcoming their defensiveness to embrace these tensions and viewing them as an opportunity to find synergies that accommodate and transcend the opposing poles (Schad et al., 2016).

패러독스 이론은 조직이 방어적 태도를 극복하고 이러한 긴장을 포용하며, 이를 상반된 극단을 수용하고 초월하는 시너지를 찾을 기회로 보는 선순환을 구상함으로써 긴장에 대한 더 건설적인 대응을 제공한다 (Schad et al., 2016).


A first step toward enabling such a virtuous cycle is the acceptance of the tensions as paradoxical (Smith & Lewis, 2011). 이러한 선순환을 가능하게 하는 첫 번째 단계는 긴장을 패러독스로 받아들이는 것이다 (Smith & Lewis, 2011).


While managers initially perceive automation and augmentation as a trade-off, they may eventually recognize that they cannot simply choose between these dual AI applications, because either choice intensifies the need for its opposite.

관리자들은 처음에는 자동화와 증강을 상호 대체 가능한 선택으로 인식할 수 있지만, 결국 이 두 가지 AI 응용 프로그램 중 어느 하나를 선택할 수 없음을 인식하게 된다. 왜냐하면 어느 하나를 선택할 때 그 반대의 필요성이 더욱 커지기 때문이다.


However, transitioning to a more encompassing paradox perspective requires cognitive and behavioral complexity (Miron-Spektor, Ingram, Keller, Smith, & Lewis, 2018).

그러나 더 포괄적인 패러독스 관점으로 전환하기 위해서는 인지적, 행동적 복잡성이 요구된다 (Miron-Spektor, Ingram, Keller, Smith, & Lewis, 2018).


Stimulating an exchange between organizational actors with different perspectives, such as data scientists and business managers, could develop more complex understandings of the phenomenon.

데이터 과학자와 비즈니스 관리자와 같은 서로 다른 관점을 가진 조직 구성원 간의 교류를 촉진하면 현상에 대한 더 복잡한 이해가 발전할 수 있다.


Once actors accept that automation and augmentation can and should coexist, they can explore the dynamic relationship between them mindfully, which could be part of their organization’s vision or guiding principles regarding the use of AI in management.
구성원들이 자동화와 증강이 공존할 수 있으며 공존해야 한다는 것을 받아들이면, 그들은 이를 신중하게 탐구할 수 있으며, 이는 AI를 경영에 활용하는 데 있어 조직의 비전 또는 지침의 일부가 될 수 있다.


While acceptance lays the groundwork for virtuous cycles, it has to be complemented with a subsequent resolution strategy (Smith & Lewis, 2011).

수용이 선순환의 기초를 마련하더라도, 그 후속으로 해결 전략이 필요하다 (Smith & Lewis, 2011).


Resolution involves seeking responses to paradoxical tensions through a combination of differentiation and integration practices (Poole & van de Ven, 1989).

해결은 차별화 및 통합 실천을 결합하여 패러독스적인 긴장에 대한 대응책을 찾는 것을 포함한다 (Poole & van de Ven, 1989).


Differentiation allows organizations to recognize and appreciate automation and augmentation’s distinctive benefits and leverage them separately.
차별화는 조직이 자동화와 증강의 독특한 이점을 인식하고 이를 별도로 활용할 수 있도록 한다.


Organizations can purposefully iterate between distinct automation and augmentation tasks, allowing long-term engagement with both forces.

조직은 자동화와 증강 작업을 의도적으로 반복하며, 두 가지 힘과 장기적으로 연관될 수 있도록 한다.


For example, Symrise’s master perfumers iterate between automation (i.e., when generating alternative fragrance formulas) and augmentation (i.e., when selecting and refining the most promising formula).

예를 들어, Symrise의 마스터 조향사들은 자동화(즉, 대체 향수 공식을 생성할 때)와 증강(즉, 가장 유망한 공식을 선택하고 정제할 때) 사이를 반복한다.


The use of automation allows exploration beyond humans’ abilities by searching through the whole landscape of possible options.

자동화의 사용은 가능한 모든 옵션을 탐색하여 인간의 능력을 초과하는 탐색을 가능하게 한다.


Their cognitive limitations mean that humans’ search field is restricted, while machines do not face such information-processing limitations (Davenport & Kirby, 2016: 17).

인간의 인지적 한계로 인해 탐색 범위가 제한되지만, 기계는 그러한 정보 처리의 한계를 겪지 않는다 (Davenport & Kirby, 2016: 17).


Excluding humans at this stage may help break path dependencies and promote greater novelty.

이 단계에서 인간을 제외하는 것은 경로 의존성을 깨고 더 큰 참신성을 촉진하는 데 도움이 될 수 있다.


Switching to augmentation allows machine limitations to be overcome by subsequently using humans’ more holistic and intuitive information processing to choose between options and contextualize beyond the specific task at hand (Brynjolfsson & McAfee, 2014: 92).

증강으로 전환하면, 기계의 한계를 극복할 수 있으며, 인간의 더 전체적이고 직관적인 정보 처리를 사용하여 옵션을 선택하고, 특정 작업을 넘어 상황적 맥락을 제공할 수 있다 (Brynjolfsson & McAfee, 2014: 92).


While such differentiation allows for engaging in both automation and augmentation, integration enables the finding of linkages that transcend the two poles (Smith & Lewis, 2011).
이러한 차별화가 자동화와 증강 모두를 활용할 수 있게 해주는 반면, 통합은 두 극단을 초월하는 연결점을 찾을 수 있게 해준다 (Smith & Lewis, 2011).


By switching, the machine’s independent output can be used to challenge human intuition and judgment, with human feedback enabling further rounds of machine analysis (Hoc, 2001).

자동화와 증강을 전환함으로써, 기계의 독립적인 출력은 인간의 직관과 판단에 도전할 수 있으며, 인간의 피드백은 기계 분석의 추가적인 단계를 가능하게 한다 (Hoc, 2001).


At these transition points, automation and augmentation become mutually enabling.

이러한 전환 지점에서 자동화와 증강은 서로를 가능하게 하는 역할을 한다.


The two AI approaches’ juxtaposition stimulates learning and fosters adaptability, allowing the combination of (machine) rationality and (human) intuition, which enables more comprehensive information processing and better decisions (Calabretta, Gemser, & Wijnberg, 2017).
두 AI 접근법의 병치는 학습을 자극하고 적응성을 촉진하며, (기계의) 합리성과 (인간의) 직관을 결합할 수 있게 하여 더 포괄적인 정보 처리와 더 나은 결정을 가능하게 한다 (Calabretta, Gemser, & Wijnberg, 2017).


Through integration, automation and augmentation jointly generate outcomes that neither application can enable individually.
통합을 통해 자동화와 증강은 각각의 응용 프로그램이 단독으로는 만들어낼 수 없는 결과를 함께 생성한다.

It is no easy feat to ensure such integration.

이러한 통합을 보장하는 것은 결코 쉬운 일이 아니다.


As described above, the risks of organizations overemphasizing either automation or augmentation are real.

위에서 설명한 바와 같이, 조직이 자동화나 증강 중 하나를 과도하게 강조하는 위험성은 실제로 존재한다.


Integration therefore requires humans to retain overall responsibility for a managerial process.

따라서 통합은 인간이 경영 프로세스에 대한 전반적인 책임을 유지해야 한다.


Prior studies have shown that maintaining overall human responsibility not only reduces human bias (Larrick, 2004), but also prevents human–machine collaboration biases (Skitka et al., 2000).

이전 연구들은 인간이 전반적인 책임을 유지하는 것이 인간의 편향을 줄일 뿐만 아니라 인간-기계 협업의 편향도 방지한다는 것을 보여주었다 (Larrick, 2004; Skitka et al., 2000).


As these studies have shown, assigning the overall responsibility for processes to humans leads to increased vigilance and verification behavior, the consideration of a wider range of inputs prior to making decisions, and the use of greater cognitive complexity when processing such information.

이러한 연구들이 보여주었듯이, 프로세스의 전반적인 책임을 인간에게 맡기는 것은 경계를 강화하고 검증 행동을 유도하며, 결정을 내리기 전에 더 넓은 범위의 입력을 고려하고, 그러한 정보를 처리할 때 더 큰 인지적 복잡성을 사용하는 것으로 이어진다.


Consequently, retaining human responsibility for managerial processes promotes integration, which transcends automation and augmentation.
결과적으로, 경영 프로세스에서 인간의 책임을 유지하는 것은 자동화와 증강을 초월하는 통합을 촉진한다.



Outcomes


Paradox theory suggests that managing tensions through the dynamic strategies of acceptance and resolution fosters sustainability (Smith & Lewis, 2011).

패러독스 이론은 긴장을 수용하고 해결하는 역동적인 전략을 통해 지속 가능성을 촉진한다고 제안한다 (Smith & Lewis, 2011).


By managing paradox, organizations enable learning and creativity, promote flexibility and reliance, and unleash human potential.

패러독스를 관리함으로써 조직은 학습과 창의성을 촉진하고, 유연성과 신뢰를 증진하며, 인간의 잠재력을 해방시킨다.


However, paradox scholars have also acknowledged that narrow organizational attention to just one of the tensions’ poles can trigger unintended organizational and societal consequences (Schad & Bansal, 2018).
그러나 패러독스 학자들은 긴장의 한쪽 극단에만 집중하는 좁은 조직적 관심이 의도치 않은 조직적 및 사회적 결과를 초래할 수 있다고도 인정한다 (Schad & Bansal, 2018).


We therefore conclude our analysis of the automation–augmentation paradox by assessing its organizational and societal outcomes.

따라서 우리는 자동화–증강 패러독스에 대한 분석을 마무리하며, 그 조직적 및 사회적 결과를 평가한다.



Organizational outcomes.


The three books we reviewed argued that organizations benefit greatly from using AI.

우리가 검토한 세 권의 책은 AI를 사용하는 것이 조직에 큰 이익을 가져다준다고 주장했다.


In particular, the authors emphasized augmentation’s potential to increase productivity, improve service quality, and foster innovation.

특히 저자들은 증강이 생산성을 높이고, 서비스 품질을 개선하며, 혁신을 촉진할 수 있는 잠재력을 강조했다.


Moreover, they assumed that the combination of complementary human and machine skills will increase the quality, speed, and extent of learning in organizations (Brynjolfsson & McAfee, 2014: 182; Daugherty & Wilson, 2018: 106; Davenport & Kirby, 2016: 206).
또한 그들은 상호 보완적인 인간과 기계의 기술을 결합하면 조직 내 학습의 질, 속도, 범위가 증가할 것이라고 가정했다 (Brynjolfsson & McAfee, 2014: 182; Daugherty & Wilson, 2018: 106; Davenport & Kirby, 2016: 206).

In contrast, we have argued that focusing on either automation or augmentation can lead to reinforcing cycles that harm long-term performance.
이에 반해, 우리는 자동화나 증강 중 하나에만 집중하는 것이 장기 성과에 해로운 강화 주기를 초래할 수 있다고 주장했다.


We suggest that organizations benefit if they differentiate between and integrate across automation and augmentation.
우리는 조직이 자동화와 증강을 구분하고 이를 통합할 때 이익을 얻을 수 있다고 제안한다.


Differentiation allows organizations to benefit from both AI applications’ unique benefits.

차별화는 조직이 두 가지 AI 응용 프로그램의 고유한 이점에서 이익을 얻을 수 있게 한다.


Automation enables organizations to drive cost efficiencies, establish faster processes, and ensure greater information-processing rationality and consistency.
자동화는 조직이 비용 효율성을 높이고, 더 빠른 프로세스를 확립하며, 정보 처리의 합리성과 일관성을 보장할 수 있게 해준다.
As described above, augmentation provides complementary benefits arising from the mutual enhancing of human and machine skills.
위에서 설명한 것처럼, 증강은 인간과 기계의 기술을 상호 보완하여 발생하는 이점을 제공한다.


The integration of automation and augmentation leads to additional benefits that accrue from the synergies between these interdependent activities.

자동화와 증강의 통합은 이러한 상호 의존적인 활동 간의 시너지 효과로 인해 추가적인 이점을 창출한다.


Automation could free up scarce resources for augmentation, which, in turn, could help identify the rules or models that enable automation.

자동화는 증강을 위해 부족한 자원을 확보할 수 있으며, 이는 다시 자동화를 가능하게 하는 규칙이나 모델을 식별하는 데 도움이 될 수 있다.


Balancing automation and augmentation helps prevent the escalating cycles that focusing on just one of these AI applications could cause.

자동화와 증강의 균형을 맞추는 것은 이 두 가지 AI 응용 프로그램 중 하나에만 집중함으로써 발생할 수 있는 악순환을 방지하는 데 도움이 된다.


Furthermore, the combination of automation and augmentation could enable new business models.
더 나아가, 자동화와 증강의 결합은 새로운 비즈니스 모델을 가능하게 할 수 있다.


AI is, for example, the major driver behind the current trend toward personalized medicine, with treatments being tailored to each patient’s specific biological profile (Fleming, 2018; Lichfield, 2018).

예를 들어, AI는 현재 맞춤형 의학의 추세를 이끄는 주요 동인으로, 각 환자의 특정 생물학적 프로필에 맞춘 치료가 이루어진다(Fleming, 2018; Lichfield, 2018).


While augmentation allows for identifying patterns in large volumes of patient data, automation makes the design and manufacture of tailored drugs economically viable.

증강은 대량의 환자 데이터에서 패턴을 식별하는 것을 가능하게 하고, 자동화는 맞춤형 약물의 설계와 제조를 경제적으로 가능하게 한다.


These varied benefits suggest that automation and augmentation’s combination creates complementary returns that lead to superior firm performance.

이러한 다양한 이점은 자동화와 증강의 결합이 상호 보완적인 수익을 창출하며, 이를 통해 우수한 기업 성과를 달성하게 한다는 것을 시사한다.


Together, AI’s dual applications in management provide organizations with a range of benefits that neither automation nor augmentation can provide alone.
자동화와 증강의 이중 응용 프로그램이 결합하면, 둘 중 하나만으로는 제공할 수 없는 다양한 이점을 조직에 제공한다.


However, realizing these benefits is contingent upon organizations’ active management of the automation–augmentation paradox.
그러나 이러한 이점을 실현하려면 조직이 자동화-증강 패러독스를 적극적으로 관리해야 한다는 전제가 따른다.



Societal outcomes.


Tensions’ systemic nature is a central tenet of paradox theorizing (Jarzabkowski, Bednarek, Chalkias, & Cacciatori, 2019; Smith & Lewis, 2011).

긴장의 체계적인 특성은 패러독스 이론화의 중심 원칙이다 (Jarzabkowski, Bednarek, Chalkias, & Cacciatori, 2019; Smith & Lewis, 2011).


Paradoxes are embedded in open systems and their implications extend beyond a single organization’s boundaries.

패러독스는 개방된 시스템에 내재되어 있으며 그 영향은 하나의 조직 경계를 넘어선다.


Consequently, it is important to adopt a more systemic perspective of paradox, which takes not only the organizational outcomes into consideration but also tensions’ and their management’s larger, system-wide or societal implications (Schad & Bansal, 2018).

따라서 패러독스에 대한 더 체계적인 관점을 채택하는 것이 중요하며, 이는 조직적 결과뿐만 아니라 긴장과 그 관리의 더 큰, 시스템 전체 또는 사회적 영향을 고려하는 것이다 (Schad & Bansal, 2018).


While firms may gain profits from their use of AI in management, the three books—to a varying extent—also pointed out that the larger societal implications are less certain (e.g., Brynjolfsson & McAfee, 2014: 171).

기업들이 경영에서 AI를 활용하여 이익을 얻을 수 있지만, 세 권의 책은 다양한 정도로 더 큰 사회적 영향이 불확실하다는 점도 지적하고 있다 (예: Brynjolfsson & McAfee, 2014: 171).


There is a risk that organizations could take a narrow perspective of either automation or augmentation, triggering unintended consequences that affect society negatively.
조직이 자동화나 증강에 대한 좁은 관점을 채택하면 의도치 않은 결과가 발생하여 사회에 부정적인 영향을 미칠 위험이 있다.


However, if organizations adopt a more comprehensive perspective, the outcomes could be positive for both business and society.

그러나 조직이 더 포괄적인 관점을 채택하면 그 결과는 비즈니스와 사회 모두에 긍정적일 수 있다.


We explore these issues further by focusing our attention on two societal outcomes discussed extensively in the three books: AI’s labor market impact (e.g., Brynjolfsson & McAfee, 2014: 147ff), and its effects regarding social equality and justice (e.g., Daugherty & Wilson, 2018: 129ff).

우리는 AI의 노동 시장에 대한 영향(예: Brynjolfsson & McAfee, 2014: 147ff)과 사회적 평등 및 정의에 대한 영향(예: Daugherty & Wilson, 2018: 129ff)에 대해 논의된 두 가지 사회적 결과에 초점을 맞추어 이 문제를 더 깊이 탐구한다.


First, a one-sided focus on automation could cause extensive job losses and result in the deskilling of managers who relinquish tasks to machines, which could lead to the further risks of rising unemployment and social inequality (Brynjolfsson & McAfee, 2014: 171; see also Autor, 2015).
첫째, 자동화에 치우친 접근은 광범위한 일자리 상실을 초래할 수 있으며, 관리자가 기계에 작업을 넘기면서 그들의 기술이 약화되어 실업률 증가와 사회적 불평등의 위험이 커질 수 있다 (Brynjolfsson & McAfee, 2014: 171; Autor, 2015 참조).


Conversely, one-sided augmentation is likely to cause another “digital divide,” with social tensions arising between the few who currently have the capabilities and resources for augmentation and those who do not (Brynjolfsson & McAfee, 2014: 134f; see also Brynjolfsson & Mitchell, 2017).
반대로, 증강에 치우친 접근은 또 다른 “디지털 격차”를 야기할 가능성이 있으며, 현재 증강을 위한 능력과 자원을 가진 소수와 그렇지 못한 사람들 간에 사회적 긴장이 발생할 수 있다 (Brynjolfsson & McAfee, 2014: 134f; Brynjolfsson & Mitchell, 2017 참조).


Balancing automation and augmentation could, however, enable a virtuous cycle of selective deskilling (i.e., humans offload tasks where their abilities are inferior to those of machines) and strategic requalification (i.e., humans stay ahead of machines in their core abilities), thereby gradually enhancing both human and machine capabilities.

그러나 자동화와 증강의 균형을 맞추면 선택적 기술 약화(즉, 인간이 기계보다 능력이 떨어지는 작업을 넘기고)와 전략적 재교육(즉, 인간이 핵심 능력에서 기계보다 앞서는 것)을 통해 인간과 기계의 역량을 점진적으로 향상시키는 선순환이 가능해질 수 있다.


This virtuous cycle could help organizations reduce the digital transition’s negative effects on their employees and the labor market at large.

이러한 선순환은 조직이 디지털 전환이 직원과 노동 시장 전체에 미치는 부정적인 영향을 줄이는 데 도움이 될 수 있다.


Employees and managers whose basic skills are made redundant by automation could be given the opportunity to gradually build higher-level augmentation skills that remain in demand.

자동화로 인해 기본 기술이 불필요해진 직원과 관리자들은 여전히 수요가 있는 더 높은 수준의 증강 기술을 점진적으로 습득할 기회를 가질 수 있다.


This skill-enhancement cycle could also help “rehumanize work” by gradually shifting the focus from repetitive and monotonous tasks to more creative and fulfilling tasks (Daugherty & Wilson, 2018: 214).

이러한 기술 향상 주기는 반복적이고 단조로운 작업에서 더 창의적이고 성취감 있는 작업으로 초점을 점진적으로 전환함으로써 “일의 인간화를 다시 촉진”하는 데도 도움이 될 수 있다 (Daugherty & Wilson, 2018: 214).


A recent initiative at UBS’s investment-banking division illustrates this virtuous cycle.

UBS 투자은행 부서에서 최근 진행된 이니셔티브는 이러한 선순환을 보여준다.


UBS used an AI-based solution to automate the task of reading and executing client demands for fund transfers, which previously took an investment banker 45 minutes per demand.

UBS는 AI 기반 솔루션을 사용하여 이전에 투자 은행가가 요청 당 45분이 걸리던 자금 이체 요구를 읽고 실행하는 작업을 자동화했다.


Simultaneously, the bank implemented another AI-based solution to augment the development of trading strategies.

동시에, 은행은 거래 전략 개발을 증강하기 위한 또 다른 AI 기반 솔루션을 도입했다.


The investment bankers used the time freed up by automation to collaborate closely with the AI-based tool to explore new strategies for adaptive trading.

투자 은행가들은 자동화로 확보된 시간을 활용해 AI 기반 도구와 긴밀히 협력하여 적응형 거래를 위한 새로운 전략을 모색했다.


Data scientists provided the investment bankers with organizational support to develop their augmentation skills.

데이터 과학자들은 투자 은행가들에게 증강 기술을 개발하기 위한 조직적 지원을 제공했다.


Consequently, the combined use of automation and augmentation allowed UBS to exploit cost efficiencies while exploring new client solutions (Arnold & Noonan, 2017).

그 결과, 자동화와 증강의 결합된 사용은 UBS가 비용 효율성을 극대화하면서도 새로운 고객 솔루션을 탐색할 수 있게 했다 (Arnold & Noonan, 2017).


Second, the use of AI in management could also have implications for social equality and fairness.
둘째, 경영에서의 AI 사용은 사회적 평등과 공정성에 영향을 미칠 수 있다.


Automation takes humans “out of the loop,” reducing human biases and, in turn, promising greater equality and fairness.
자동화는 인간을 “과정에서 제외”함으로써 인간의 편견을 줄이고, 그 결과 더 큰 평등과 공정성을 약속한다.


For example, using automation for credit approval could reduce bankers’ bias that might previously have kept people from qualifying for credit due to their ethnicity, gender, or postal code (Daugherty & Wilson, 2018: 167).

예를 들어, 신용 승인에 자동화를 사용하면 은행가들이 인종, 성별 또는 우편번호 때문에 사람들에게 신용 자격을 부여하지 않았던 편견을 줄일 수 있다 (Daugherty & Wilson, 2018: 167).


Similarly, automated candidate assessment based on predetermined criteria and consistent machine processing could help eliminate humans’ implicit biases in their hiring decisions.

마찬가지로, 미리 정해진 기준과 일관된 기계 처리를 기반으로 한 자동화된 후보자 평가 시스템은 채용 결정에서 인간의 암묵적인 편견을 제거하는 데 도움이 될 수 있다.


However, real-world applications show that machine biases caused by noisy data, statistical errors, or socially vexed predictors often lead to new, even more systematic discrimination.
그러나 실제 사례들은 잡음이 있는 데이터, 통계적 오류, 또는 사회적으로 문제된 예측 변수들로 인해 기계 편향이 발생하며, 이는 새로운, 더 체계적인 차별로 이어지는 경우가 많음을 보여준다.


Daugherty and Wilson (2018: 179) cited the example of an automated AI system, used to predict defendants’ future criminal behavior, that was biased against Black defendants.

Daugherty와 Wilson (2018: 179)은 피고인의 미래 범죄 행위를 예측하는 데 사용된 자동화된 AI 시스템이 흑인 피고인에 대해 편향된 사례를 인용했다.


Another example involves Amazon, which discontinued the use of an automated AI-hiring tool found to discriminate against female applicants for technical jobs (Dastin, 2018).

또 다른 예로, 아마존은 기술 직무에 대한 여성 지원자들을 차별하는 것으로 판명된 자동화된 AI 채용 도구의 사용을 중단했다 (Dastin, 2018).


In contrast, augmentation is likely to reduce such machine biases through human back-testing and feedback.
반대로, 증강은 인간의 백테스트와 피드백을 통해 이러한 기계 편향을 줄일 가능성이 크다.


However, the intense interaction between managers and machines increases the risk of human biases being carried over to machines.
그러나 관리자와 기계 간의 긴밀한 상호작용은 인간의 편향이 기계로 전이될 위험을 높인다.


This problem is particularly pernicious, since machines then confirm humans’ biased intuition, which makes humans even less likely to question their preconceived positions (Huang et al., 2012).

이 문제는 특히 해롭다. 왜냐하면 기계가 인간의 편향된 직관을 확인하게 되어, 인간이 자신의 선입견을 의심할 가능성이 더욱 낮아지기 때문이다 (Huang et al., 2012).


The solution could be once more to combine differentiation and integration practices to address the paradox.

이 패러독스를 해결하기 위해 다시 한 번 차별화와 통합 실천을 결합하는 것이 해결책이 될 수 있다.


Differentiation allows for independent analyses with (i.e., augmentation) and without (i.e., automation) human involvement.
차별화는 인간의 개입이 있는 분석(즉, 증강)과 없는 분석(즉, 자동화)을 독립적으로 수행할 수 있게 한다.


Integration ensures that machine outputs are used to challenge humans, and human inputs to challenge machines (Hoc, 2001), allowing for mutual learning (Panait & Luke, 2005) and debiasing (Larrick, 2004).

통합은 기계의 출력을 인간의 직관에 도전하고, 인간의 입력을 기계에 도전하게 하여 (Hoc, 2001) 상호 학습 (Panait & Luke, 2005) 및 편향 완화를 (Larrick, 2004) 가능하게 한다.


Furthermore, humans “in the loop” could explain the system’s outputs, rendering algorithmic decisions more accountable and transparent (Binns, Van Kleek, Veale, Lyngs, Zhao, & Shadbolt, 2018).

또한, 인간이 과정에 개입함으로써 시스템의 출력을 설명할 수 있으며, 이를 통해 알고리즘 결정이 더 책임감 있고 투명하게 된다(Binns, Van Kleek, Veale, Lyngs, Zhao, & Shadbolt, 2018).


For example, much like JP Morgan Chase, Unilever differentiates clearly between automation (used for the initial candidate assessment) and augmentation (used for the final selection) in their talent-acquisition process.

예를 들어, JP 모건 체이스와 마찬가지로, 유니레버는 인재 확보 과정에서 자동화(초기 후보자 평가에 사용)와 증강(최종 선발에 사용)을 명확하게 구분한다.


Integration is ensured by retaining overall human responsibility for the entire process.

통합은 전체 과정에 대한 인간의 전반적인 책임을 유지함으로써 보장된다.


Unilever has reported that the combination of automation and augmentation has led to a 16% increase in new hires’ ethnic and gender diversity, making it the “most diverse class to date.”

유니레버는 자동화와 증강의 결합으로 신규 채용자의 인종 및 성별 다양성이 16% 증가했으며, 이는 “현재까지 가장 다양한 채용 인원”이라고 보고했다.


At the same time, the company managed to save 70,000 person-days of interviewing and assessing candidates, which resulted in annual cost savings of GBP 1 million and a reduction of the time-to-hire by 90% (from an average of four months to two weeks) (Feloni, 2017).

동시에, 회사는 인터뷰 및 후보자 평가에 소요되는 70,000인일(person-days)을 절감하여 연간 100만 파운드를 절약하고, 채용 시간을 평균 4개월에서 2주로 90% 단축했다 (Feloni, 2017).




DISCUSSION


Inspired by three recent business books, we have explored the emergent use of AI-based applications in organizations to automate and augment managerial tasks.

최근 출판된 세 권의 비즈니스 책에서 영감을 받아 우리는 AI 기반 응용 프로그램이 조직에서 관리 업무를 자동화하고 증강하는 데 사용되는 신흥 트렌드를 탐구했다.


The central argument of this review essay is that automation and augmentation are not only separable and conflicting but in fact fundamentally interdependent.
이 리뷰 에세이의 핵심 주장은 자동화와 증강이 서로 분리되고 대립하는 것이 아니라, 사실 근본적으로 상호 의존적이라는 것이다.


We suggest that the prevailing trade-off perspective is overdrawn; viewed as a paradox, augmentation is both the driver and outcome of automation, and the two applications of AI develop and fold into one another across space and time.
우리는 기존의 상호 대체 관점이 지나치게 단순화되었다고 제안한다. 패러독스로 보았을 때, 증강은 자동화의 동력이자 결과이며, 이 두AI 응용 프로그램은 시간과 공간을 초월하여 서로 발전하고 결합한다.


The automation–augmentation model’s popularity stems largely from its clear boundaries and simplicity.

자동화-증강 모델의 인기는 주로 그 명확한 경계와 단순성에서 기인한다.


However, adopting this intuitively appealing model uncritically obscures how automation and augmentation intertwine in managerial practice.

그러나 직관적으로 매력적인 이 모델을 비판 없이 채택하면 자동화와 증강이 경영 실무에서 어떻게 얽혀 있는지를 흐리게 한다.


This review essay therefore sheds light on automation and augmentation’s complementarities and identifies opportunities to transcend the paradoxical relationship between them.

따라서 이 리뷰 에세이는 자동화와 증강의 상호 보완성을 조명하고, 그들 간의 패러독스적 관계를 초월할 수 있는 기회를 식별한다.


In the following, we discuss our reflections’ implications for organization and management research.

다음에서는 우리의 성찰이 조직 및 경영 연구에 미치는 영향을 논의한다.


We argue that the ways in which scientific research on AI is conducted need to change in order to accurately capture and analyze its organizational and societal implications for managerial practice.

우리는 AI에 대한 과학적 연구가 경영 실무에 미치는 조직적 및 사회적 영향을 정확하게 포착하고 분석하기 위해 연구 방법이 변화할 필요가 있다고 주장한다.


Our discussion will be loosely structured along the famous “5w & 1h” questions (addressed in order here as who, how, what, why, where, and when).

우리의 논의는 유명한 “5W & 1H” 질문(여기서는 ‘누구’, ‘어떻게’, ‘무엇’, ‘왜’, ‘어디서’, ‘언제’의 순서로 다룸)을 따라 대략적으로 구성될 것이다.


Our analysis of the automation–augmentation paradox suggests that the jury is out on whether the use of AI in management will turn out to be a blessing or a curse.
자동화-증강 패러독스에 대한 우리의 분석은 경영에서 AI의 사용이 축복이 될지 저주가 될지는 아직 판결이 나지 않았음을 시사한다.


Scholars can still make a difference by exploring the topic and informing practice regarding the ways forward.

학자들은 여전히 이 주제를 탐구하고 미래의 방향에 대한 실무에 정보를 제공함으로써 변화를 만들어낼 수 있다.


However, this will require a change in who conducts research on AI.

그러나 이를 위해서는 AI 연구를 수행하는 주체에 변화가 필요하다.


Currently, computer scientists, roboticists, and engineers are the scholars most commonly studying AI.

현재 AI를 가장 흔히 연구하는 학자들은 컴퓨터 과학자, 로봇 공학자, 그리고 엔지니어들이다.


Their primary objective is to automate as far as possible, because they often regard humans as “a mere disturbance in the system that can and should be designed out” (Cummings, 2014: 62).

이들의 주요 목표는 가능한 한 자동화하는 것이며, 이는 인간을 “시스템 내에서 제거할 수 있고 제거해야 하는 단순한 방해 요소”로 간주하는 경향이 있기 때문이다 (Cummings, 2014: 62).


Computer scientists may be expert technologists, but they are generally not trained social or behavioral scientists (Rahwan et al., 2019).

컴퓨터 과학자들은 기술 전문가일 수 있지만, 일반적으로는 사회과학자나 행동과학자로 훈련받지 않는다 (Rahwan et al., 2019).


Instead, they tend to use laboratory settings for their research, which reduce the inherent variability that characterizes human behavior.

대신, 이들은 연구를 위해 실험실 환경을 사용하는 경향이 있으며, 이는 인간 행동의 특성을 나타내는 내재된 변동성을 줄인다.


These settings permit the use of methodologies aimed at maximizing algorithmic performance, but disregard the role of humans and the wider organizational and societal implications.

이러한 환경은 알고리즘 성능을 극대화하기 위한 방법론의 사용을 허용하지만, 인간의 역할 및 더 넓은 조직적 및 사회적 영향을 무시한다.


The three business books’ augmentation perspective reveals the importance of inducing social scientists to participate in the debate.

세 권의 비즈니스 책에서의 증강 관점은 사회과학자들을 이 논의에 참여시키는 것이 중요함을 보여준다.


With respect to managerial tasks, humans will remain “in the loop” and interact closely with machines.
경영 업무와 관련하여 인간은 여전히 “과정에 포함”되며 기계와 긴밀하게 상호작용할 것이다.
Management scholars are particularly well-equipped to study these human–machine interactions in real-world settings, as well as to explore the organizational and societal implications thereof.
경영학자들은 실제 상황에서 이러한 인간-기계 상호작용을 연구하고, 그로 인한 조직적 및 사회적 영향을 탐구하는 데 특히 적합하다.


It is therefore no wonder that the three business books devote the bulk of their attention to augmentation.

따라서 세 권의 비즈니스 책이 대부분의 관심을 증강에 할애하는 것은 놀라운 일이 아니다.


However, our analysis suggests that management research limited to augmentation may be as biased as computer science’s traditional focus on automation.

그러나 우리의 분석은 증강에 국한된 경영 연구도 컴퓨터 과학의 전통적인 자동화 중심 연구만큼 편향될 수 있음을 시사한다.


Research on AI in management would therefore benefit greatly from more interdisciplinary efforts.
따라서 경영에서의 AI 연구는 보다 다학문적인 노력이 크게 도움이 될 것이다.


The technological and the social worlds are merging (Orlikowski, 2007), which means that computer scientists and management scholars no longer study separate phenomena.
기술적 세계와 사회적 세계가 융합되고 있으며 (Orlikowski, 2007), 이는 컴퓨터 과학자와 경영학자들이 더 이상 별개의 현상을 연구하지 않는다는 것을 의미한다.


By juxtaposing and integrating their different perspectives, theories, and methodologies, computer scientists and management scholars can jointly create a foundation for meaningful research on the use of AI in management.

각자의 다양한 관점, 이론, 그리고 방법론을 나란히 두고 통합함으로써, 컴퓨터 과학자들과 경영학자들은 경영에서 AI를 활용한 의미 있는 연구를 위한 기초를 공동으로 구축할 수 있다.


Such efforts also require a change in how research on AI is conducted in the management domain.

이러한 노력에는 경영 분야에서 AI 연구가 수행되는 방식에도 변화가 필요하다.


The limited work to date has provided separate accounts with clear-cut contrasts between augmentation and automation.

현재까지의 제한된 연구는 증강과 자동화 사이의 명확한 대비를 바탕으로 별도의 설명을 제공해왔다.


On the one side, the research and practice doomsayers have warned us that automation will enslave humans, supervise and control them, and drive out every iota of humanity (e.g., Bostrom, 2014; Ford, 2015).

한편으로는, 연구 및 실무의 비관론자들은 자동화가 인간을 노예화하고, 감독하며 통제하고, 인간성을 완전히 몰아낼 것이라고 경고해왔다 (예: Bostrom, 2014; Ford, 2015).


For example, in their recent AMR review essay, Lindebaum et al. (2020) maintained that automation may lead to a technology-enabled totalitarian system with formal and oppressive rules representing the end of human choice.

예를 들어, Lindebaum 외 (2020)는 최근 AMR 리뷰 에세이에서 자동화가 공식적이고 억압적인 규칙을 가진 기술 중심의 전체주의 시스템으로 이어져 인간의 선택이 끝날 수 있다고 주장했다.


On the other side are technology utopians (e.g., Kurzweil, 2014; More & Vita-More, 2013), including the authors of two of the reviewed books (Daugherty & Wilson, 2018; Davenport & Kirby, 2016), who have argued that humans will remain in control and use augmentation to create huge benefits for organizations and society.

다른 한편으로는 기술 낙관론자들(예: Kurzweil, 2014; More & Vita-More, 2013)이 있으며, 여기에는 리뷰한 두 권의 책의 저자들도 포함되어 있는데 (Daugherty & Wilson, 2018; Davenport & Kirby, 2016), 이들은 인간이 여전히 통제권을 유지하고 증강을 활용해 조직과 사회에 막대한 혜택을 창출할 것이라고 주장했다.


The automation–augmentation paradox suggests that both perspectives are equally biased.
자동화–증강 패러독스는 두 가지 관점 모두가 편향되어 있음을 시사한다.
Automation and augmentation are not good or evil per se.
자동화와 증강은 본질적으로 선도 악도 아니다.


Derrida (1967) argued that humans tend to construct binary oppositions in their narratives, with a hierarchy that privileges one side of the dichotomy while repressing the other.

데리다(Derrida, 1967)는 인간이 서사에서 이분법적 대립을 구성하는 경향이 있으며, 그 대립에서 한쪽을 특권화하고 다른 한쪽을 억압하는 위계가 형성된다고 주장했다.


He warned that this approach is overly simplistic; it makes us forget that one side of a dichotomy cannot exist without the other.

그는 이러한 접근 방식이 지나치게 단순하며, 대립된 한쪽은 다른 쪽 없이는 존재할 수 없다는 사실을 잊게 만든다고 경고했다.


Similarly, researchers need to accept that automation and augmentation are interdependent AI applications in management that cannot be neatly separated and designated as either good or evil.
마찬가지로 연구자들은 자동화와 증강이 경영에서 상호 의존적인 AI 응용 프로그램임을 받아들여야 하며, 이를 선악의 기준으로 분리하여 지정할 수 없다는 점을 인식해야 한다.
These applications provide complementary functionalities that are both potentially useful for organizations.
이러한 응용 프로그램들은 조직에 유용할 수 있는 상호 보완적인 기능을 제공한다.


The complex interaction between these varied AI applications over time could have both positive and negative organizational and societal implications.

시간이 지나면서 이러한 다양한 AI 응용 프로그램 간의 복잡한 상호작용은 긍정적이거나 부정적인 조직적 및 사회적 영향을 미칠 수 있다.


Research on AI in management therefore needs to complexify its theorizing by moving from simple either–or perspectives to more encompassing both–and ones.

따라서 경영에서의 AI 연구는 단순한 이분법적 관점에서 벗어나 더 포괄적인 관점으로 이론화를 복잡하게 할 필요가 있다.


Complexifying theories is essential for understanding complex phenomena (Tsoukas, 2017), because “it takes richness to grasp richness” (Weick, 2007: 16).
이론을 복잡하게 만드는 것은 복잡한 현상을 이해하는 데 필수적이며 (Tsoukas, 2017), 이는 “풍부함을 이해하려면 풍부함이 필요하다”는 것과 같다 (Weick, 2007: 16).


More encompassing perspectives, such as paradox theory (Schad et al., 2016) or systems theory (Sterman, 2000), offer a vantage point from which researchers can observe the dynamic interplay between automation and augmentation.

패러독스 이론(Schad et al., 2016)이나 시스템 이론(Sterman, 2000)과 같은 더 포괄적인 관점은 연구자들이 자동화와 증강 사이의 역동적인 상호작용을 관찰할 수 있는 유리한 관점을 제공한다.


Accepting and embracing this complexity allows for studying AI and its managerial applications “in the wild.”

이 복잡성을 수용하고 받아들이면 AI와 그 경영 응용 프로그램을 “실제 상황”에서 연구할 수 있다.


This will lead to a more comprehensive and, ultimately, more rigorous and relevant discussion of AI’s organizational and societal implications.

이것은 AI가 조직 및 사회에 미치는 영향을 더 포괄적이고 궁극적으로 더 엄격하고 적절하게 논의할 수 있는 계기를 마련해 줄 것이다.


By working through this complexity, it becomes apparent what research needs to be conducted.

이 복잡성을 해결하면서 어떤 연구가 수행되어야 하는지 명확해진다.


At the most basic level, management scholars need to acknowledge that humans are no longer the sole agents in management, although most theories to date focus exclusively on human agency.

가장 기본적인 수준에서, 경영학자들은 이제 인간이 더 이상 경영에서 유일한 주체가 아님을 인식해야 한다. 지금까지의 대부분의 이론은 인간의 행위만을 중심으로 다뤄왔다.


Scholars need to overcome this human bias and integrate intelligent machines into their theories.

학자들은 이러한 인간 중심의 편향을 극복하고 지능형 기계를 그들의 이론에 통합해야 한다.


The use of AI for managerial tasks implies that machines are no longer simple artifacts, but a new class of agents in organizations (Floridi & Sanders, 2004).
경영 업무에서 AI를 사용한다는 것은 기계가 더 이상 단순한 도구가 아니라 조직 내에서 새로운 유형의 행위자가 되었다는 것을 의미한다 (Floridi & Sanders, 2004).


While machines have fundamental limitations, their actions nevertheless enjoy far-reaching autonomy, because humans delegate knowledge tasks to these machine agents and allow agents to act on their behalf (Rai, Constantinides, & Sarker, 2019).
기계에는 근본적인 한계가 있지만, 인간이 지식 업무를 기계 에이전트에게 위임하고 그들이 대신 행동하도록 허용하기 때문에, 기계의 행동은 상당한 자율성을 가지게 된다 (Rai, Constantinides, & Sarker, 2019).
Such automation leads to machine behavior that deviates significantly from the human behavior that management theories traditionally describe.
이러한 자동화는 전통적으로 경영 이론이 설명하는 인간 행동과 크게 다른 기계 행동을 초래한다.


The bulk of extant management research has relied on the behavioral assumptions of boundedly rational human actors, who—due to their information-processing limits and cognitive biases—engage in satisficing rather than maximizing behavior (Argote & Greve, 2007; Cyert & March, 1963).

기존 경영 연구의 대부분은 정보 처리의 한계와 인지적 편향으로 인해 최대화보다는 적정화 행동을 하는 제한된 합리성의 인간 행위자에 대한 행동 가정을 기반으로 하고 있다 (Argote & Greve, 2007; Cyert & March, 1963).


However, intelligent machines used for automation do not have these limitations; they have practically unlimited information-processing capacity and exhibit perfectly consistent behavior.

그러나 자동화에 사용되는 지능형 기계는 이러한 한계를 가지고 있지 않으며, 사실상 무제한의 정보 처리 능력을 가지고 완벽하게 일관된 행동을 보여준다.


Nonetheless, they can introduce statistical biases and have other limitations that humans do not have (Elsbach & Stigliani, 2019).

그럼에도 불구하고 기계는 통계적 편향을 도입할 수 있으며, 인간이 가지지 않은 다른 한계를 가지고 있다 (Elsbach & Stigliani, 2019).


These differences lead to entirely new machine behaviors (Rahwan et al., 2019).

이러한 차이점은 완전히 새로운 기계 행동을 초래한다 (Rahwan et al., 2019).


We could, for example, speculate that because machines do not have humans’ limitations when searching, organizations using automation and augmentation could suffer less from learning myopia and path dependencies (Levinthal & March, 1993).

예를 들어, 기계는 탐색할 때 인간의 한계를 가지지 않기 때문에, 자동화와 증강을 사용하는 조직은 학습 근시와 경로 의존성에서 덜 고통받을 수 있다고 추측할 수 있다 (Levinthal & March, 1993).


Management scholars thus need to broaden their perspective to include human and machine agents and explore their distinct behaviors in organizational contexts.
따라서 경영학자들은 인간과 기계 에이전트를 포함하도록 관점을 넓히고, 조직적 맥락에서 그들의 고유한 행동을 탐구할 필요가 있다.


If we increase the complexity further, we have to acknowledge that these human and machine agents do not simply coexist in separate worlds (working on separate tasks), but are interdependent (interacting on the same or closely related tasks).
복잡성을 더 높이면, 이러한 인간과 기계 에이전트가 단순히 별개의 세계에서 공존하는 것이 아니라 (각각 별개의 작업을 수행하는 것이 아니라), 상호 의존적임을 인정해야 한다 (같은 작업 또는 밀접하게 관련된 작업에서 상호 작용).


Augmentation therefore implies close collaboration between humans and machines.
따라서 증강은 인간과 기계 간의 긴밀한 협력을 의미한다.


Since automation and augmentation are interdependent, this interaction spreads across organizations.
자동화와 증강이 상호 의존적이기 때문에, 이러한 상호작용은 조직 전체로 확산된다.


When addressing this human–machine interaction, management scholars need to first explore how machines shape managerial behavior.

이 인간-기계 상호작용을 다룰 때, 경영학자들은 먼저 기계가 경영 행동을 어떻게 형성하는지 탐구해야 한다.


For example, Lindebaum et al. (2020) described how autonomous algorithms can direct and constrain human behavior by imposing formal rationality.

예를 들어, Lindebaum 외 (2020)는 자율 알고리즘이 공식적 합리성을 강요하여 인간 행동을 어떻게 지시하고 제약하는지를 설명했다.


This perspective resonates with Foucault’s (1977) concept of panoptic surveillance, characterizing information technology as a form of omnipresent architecture of control that creates, maintains, and cements central norms of expected behavior (see also Lyon, 2003; Zuboff, 1988, 2019).

이 관점은 정보 기술을 기대되는 행동의 중심 규범을 생성하고 유지하며 강화하는 편재하는 통제 구조로 묘사한 푸코(Foucault, 1977)의 판옵틱 감시 개념과 일맥상통한다 (Lyon, 2003; Zuboff, 1988, 2019 참조).


However, our broader paradox perspective of AI in management reveals that humans also shape machine behavior.

그러나 경영에서 AI에 대한 우리의 더 넓은 패러독스적 관점은 인간 또한 기계 행동을 형성한다는 점을 보여준다.


Managers define the objectives, set constraints, generate and choose the training data, and provide machines with feedback.

관리자들은 목표를 정의하고, 제약 조건을 설정하고, 학습 데이터를 생성하고 선택하며, 기계에 피드백을 제공한다.


In machine-learning systems, humans shape and reshape algorithms through their daily actions and interactions (Deng, Bao, Kong, Ren, & Dai, 2017).

기계 학습 시스템에서 인간은 일상적인 행동과 상호작용을 통해 알고리즘을 형성하고 재형성한다 (Deng, Bao, Kong, Ren, & Dai, 2017).


In a management context, machines may influence human behavior but without setting a static norm of conduct or an unsurpassable rule (Cheney-Lippold, 2011).

경영적 맥락에서 기계는 인간 행동에 영향을 미칠 수 있지만, 고정된 행동 규범이나 넘을 수 없는 규칙을 설정하지 않는다(Cheney-Lippold, 2011).


Managers participate in writing and rewriting the rules that shape behavior.
관리자들은 행동을 형성하는 규칙을 작성하고 다시 쓰는 데 참여한다.
Management research should thus explore both machines’ influence on human behavior and humans’ influence on machine behavior in the context of AI use in management.
따라서 경영 연구는 AI 사용 맥락에서 기계가 인간 행동에 미치는 영향과 인간이 기계 행동에 미치는 영향을 모두 탐구해야 한다.


If we increase the complexity even further, we finally see that humans and machines influence one another in an iterative process.

복잡성을 더욱 높이면, 우리는 인간과 기계가 반복적인 과정에서 서로 영향을 미친다는 사실을 최종적으로 깨닫게 된다.


While machine algorithms shape human actions, humans shape these algorithms through their actions, which create a recursive relationship (Beer, 2017).

기계 알고리즘이 인간 행동을 형성하는 동안, 인간은 그들의 행동을 통해 이러한 알고리즘을 형성하며, 이는 재귀적 관계를 형성한다(Beer, 2017).


Through augmentation, humans and machines become so closely intertwined that they collectively exhibit entirely new, emergent behaviors, which neither show individually (Amershi et al., 2014).

증강을 통해 인간과 기계는 매우 밀접하게 얽히며, 개별적으로는 나타나지 않는 완전히 새로운, 창발적인 행동을 집단적으로 보여준다(Amershi et al., 2014).


The use of AI in management leads to hybrid organizational systems manifesting collective behaviors.

경영에서 AI의 사용은 집단적 행동을 드러내는 하이브리드 조직 시스템을 이끈다.


It may therefore be difficult, or even impossible, to distinguish between humans and machines or the respective learning and actions of each.
따라서 인간과 기계를 구별하거나 각각의 학습과 행동을 구분하는 것이 어려울 수 있으며, 심지어 불가능할 수도 있다.


While it is convenient, and sometimes helpful, to separate research studies that have analyzed how machines influence managers and vice versa, studies examining hybrid organizational systems comprising both managers and machines should provide the greatest benefit.

기계가 관리자에게 미치는 영향을 분석한 연구와 반대로 관리자가 기계에 미치는 영향을 분석한 연구를 구분하는 것이 편리하고 때로는 도움이 될 수 있지만, 관리자와 기계를 모두 포함하는 하이브리드 조직 시스템을 연구하는 것이 가장 큰 이점을 제공할 것이다.


Only such studies can examine the feedback loops between human influence on machine behavior and machine influence on human behavior, which cause the emergent behaviors that are otherwise impossible to predict (Rahwan et al., 2019).

이러한 연구만이 기계 행동에 대한 인간의 영향과 인간 행동에 대한 기계의 영향을 통한 피드백 루프를 분석할 수 있으며, 이는 그렇지 않으면 예측할 수 없는 창발적 행동을 초래한다 (Rahwan et al., 2019).


Management scholars must provide further insights into how such hybrid organizational systems function by exploring the interactive behaviors thereof.

경영학자들은 이러한 하이브리드 조직 시스템이 어떻게 작동하는지에 대한 추가적인 통찰을 제공하기 위해 이들의 상호작용 행동을 탐구해야 한다.


This systemic perspective will also enable them to predict or explore the automation–augmentation paradox’s systemic dynamics, which, as we have described above, can include unintended consequences and escalating cycles.

이러한 체계적인 관점은 또한 그들이 자동화–증강 패러독스의 체계적인 역학을 예측하거나 탐구할 수 있게 해 줄 것이며, 이는 우리가 앞서 설명한 바와 같이 의도치 않은 결과와 점점 더 심화되는 주기를 포함할 수 있다.


Management research therefore has a crucial mandate to explore managers’ continued interactions with machines, as well as the emergent behaviors and systemic outcomes they cause.

따라서 경영 연구는 관리자가 기계와 계속 상호작용하는 방식과 그로 인해 발생하는 창발적 행동 및 체계적 결과를 탐구하는 중대한 임무를 가지고 있다.


This discussion leads us to the heart of the fourth question, namely why research on AI in management is essential.
이 논의는 우리를 네 번째 질문의 핵심으로 이끈다. 즉, 경영에서의 AI 연구가 왜 필수적인가에 대한 질문이다.


As argued above, the emergent use of AI in management leads to iterative interactions between humans and machines.

앞서 주장한 바와 같이, 경영에서 AI의 등장적 사용은 인간과 기계 간의 반복적인 상호작용을 이끈다.


The resulting hybrid organizational systems exhibit behaviors and produce organizational, as well as societal, effects that are impossible to predict precisely and are often entirely unanticipated (O’Neil, 2016).

그 결과 나타나는 하이브리드 조직 시스템은 행동을 보여주며, 조직적 그리고 사회적 영향을 초래하며, 이는 정확히 예측할 수 없고 종종 전혀 예상치 못한 결과를 가져온다 (O’Neil, 2016).


No single actor in these systems has full control over these outcomes.
이 시스템 내에서 어느 한 주체도 이러한 결과를 완전히 통제할 수 없다.

Consequently, it is difficult to apportion accountability for outcomes to specific actors, which creates an “accountability gap” (Mittelstadt, Allo, Taddeo, Wachter, & Floridi, 2016).
따라서 특정 주체에게 결과에 대한 책임을 명확히 할 수 없으며, 이는 “책임 격차”를 초래한다 (Mittelstadt, Allo, Taddeo, Wachter, & Floridi, 2016).


There is widespread fear—and initial empirical evidence—that this lack of accountability can have harmful societal consequences regarding equality (Autor, 2015), privacy (Acquisti, Brandimarte, & Loewenstein, 2015), security (Brundage et al., 2018), and transparency (Castelvecchi, 2016).

투명성에 관한 유해한 사회적 결과를 초래할 수 있다는 우려가 널리 퍼져 있으며, 이에 대한 초기 실증적 증거도 있다 (Castelvecchi, 2016).


Traditional managerial and organizational solutions may be inadequate for sufficiently addressing such systemic problems (Schad & Bansal, 2018).

전통적인 경영 및 조직적 해결책은 이러한 체계적인 문제를 충분히 해결하는 데 부적절할 수 있다 (Schad & Bansal, 2018).


Management research should therefore contribute to the development of new organizational solutions that allow AI’s benefits to be realized while mitigating the associated negative side effects.

따라서 경영 연구는 AI의 혜택을 실현하면서도 그에 따른 부정적인 부작용을 완화할 수 있는 새로운 조직적 해결책을 개발하는 데 기여해야 한다.


In order to fully understand the automation–augmentation paradox’s societal implications, scholars could adopt a relational ontology which accepts that, in the digital age, human and machine agents are so closely intertwined in hybrid collectives that their relations determine their actions (Floridi & Taddeo, 2016).

자동화–증강 패러독스의 사회적 함의를 완전히 이해하려면, 학자들은 디지털 시대에 인간과 기계 에이전트가 하이브리드 집합체 내에서 매우 밀접하게 얽혀 있어 그 관계가 행동을 결정한다는 관계론적 존재론을 채택할 수 있다 (Floridi & Taddeo, 2016).


Rather than focusing on individual actors, the interactions between these actors should be the unit of analysis.
개별 행위자에 집중하는 대신, 이들 행위자 간의 상호작용을 분석의 단위로 삼아야 한다.


Such a perspective will enable a discussion of “distributed morality” (Floridi, 2013), which relies on shared ethical norms developed through collaborative practices (Mittelstadt et al., 2016) and critically assesses whether, and to what extent, such morality replaces or complements our current focus on individual responsibility in the digital age.

이러한 관점은 협력적 실천을 통해 발전된 공유 윤리 규범에 기반을 둔 “분산된 도덕성”에 대한 논의를 가능하게 할 것이며 (Floridi, 2013), 이러한 도덕성이 디지털 시대의 개인 책임에 대한 현재의 초점을 대체하거나 보완하는지, 그리고 어느 정도까지 그러한지에 대한 비판적 평가를 가능하게 한다.


With regard to the question of where, this refers to the locus of management scholars’ research attention.

‘어디에서’라는 질문과 관련해서는, 이는 경영학자들의 연구 관심의 초점이 어디에 있는지를 나타낸다.


AI is a particularly broad research field with a great variety of organizational and societal implications.

AI는 특히 광범위한 연구 분야로, 다양한 조직적 및 사회적 함의를 지니고 있다.


Accordingly, researchers from disciplines such as astronomy (Haiman, 2019), biology (Webb, 2018), law (Corrales, Fenwick, & Forgó, 2018), medicine (Topol, 2019), politics (Helbing et al., 2019), psychology (Jaeger, 2016), and sociology (McFarland, Lewis, & Goldberg, 2016) have addressed and presented conceptual ideas.

이에 따라 천문학(Haiman, 2019), 생물학(Webb, 2018), 법학(Corrales, Fenwick, & Forgó, 2018), 의학(Topol, 2019), 정치학(Helbing et al., 2019), 심리학(Jaeger, 2016), 사회학(McFarland, Lewis, & Goldberg, 2016) 등의 학문 분야에서 연구자들이 AI에 대한 개념적 아이디어를 제시했다.


In this regard, our focus was exclusively on the emergent use of AI for managerial tasks in practice.

이와 관련하여, 우리는 실무에서 경영 업무를 위한 AI의 사용에만 초점을 맞추었다.


While management scholars may (and should) become involved in the broader discussion of AI and its societal implications, the use of automation and augmentation in management relates to the core of management scholars’ research.

경영학자들이 AI와 그 사회적 함의에 대한 더 광범위한 논의에 참여할 수 있고 참여해야 하지만, 경영에서의 자동화와 증강의 사용은 경영학자들의 연구 핵심과 관련이 있다.


We therefore suggest that the management domain should be the specific focus of our attention.

따라서 우리는 경영 분야가 연구의 특정 초점이 되어야 한다고 제안한다.


In this review essay, our focus was predominantly on questions of organizational functioning, such as those pertaining to the effect of collaboration between multiple humans and machines on managerial tasks.

이 리뷰 에세이에서는 여러 인간과 기계 간의 협력이 경영 업무에 미치는 영향과 같은 조직 기능에 관한 질문에 주로 초점을 맞추었다.


While such meso-level topics will likely play a central role in future research, organizations’ use of AI in management should also be explored on the micro and macro levels of analysis.

이러한 중간 수준 주제가 향후 연구에서 중심 역할을 할 가능성이 있지만, 경영에서 AI의 사용은 미시적 및 거시적 분석 수준에서도 탐구되어야 한다.


Micro-level research could investigate how the emergence of AI-based solutions changes the role of managers in organizations.

미시적 연구는 AI 기반 솔루션의 등장이 조직에서 관리자들의 역할을 어떻게 변화시키는지 조사할 수 있다.


In the past, management theories emphasized managers’ domain expertise, which granted them expert power and status in their organizations (Finkelstein, 1992).

과거 경영 이론은 관리자의 전문성을 강조하며, 이로 인해 그들은 조직 내에서 전문적 권력과 지위를 부여받았다 (Finkelstein, 1992).


Although domain expertise remains relevant for managers regarding educating and challenging machines, automation and augmentation will lead to institutionalized knowledge—for example, in the form of algorithms—which is often superior to individual managers’ expert knowledge.

도메인 전문성이 기계를 교육하고 도전하는 측면에서 여전히 관리자에게 중요하지만, 자동화와 증강은 알고리즘 형태로 나타나는 제도화된 지식을 초래하며, 이는 종종 개별 관리자들의 전문 지식보다 뛰어나다.


At the same time, general human skills that complement machines, such as creativity, common sense, and advanced communication (Davenport & Kirby, 2016: 30), as well as integration skills such as AI literacy, will gain further importance in an era of automation and augmentation (Daugherty & Wilson, 2018: 191).
동시에 창의성, 상식, 고급 커뮤니케이션(Davenport & Kirby, 2016: 30)과 같은 기계를 보완하는 일반적인 인간 기술, 그리고 AI 활용 능력과 같은 통합 기술은 자동화와 증강의 시대에 더욱 중요해질 것이다 (Daugherty & Wilson, 2018: 191).


These developments could lead to important shifts in managers’ roles, competencies, and status.

이러한 발전은 관리자들의 역할, 역량, 지위에서 중요한 변화를 가져올 수 있다.


Macro-level research could explore how the emergence of automation and augmentation in management leads to institutional action and change.

거시적 연구는 경영에서 자동화와 증강의 등장이 제도적 행동과 변화를 어떻게 이끄는지 탐구할 수 있다.


For example, AI is often applied in open systems, blurring organizational boundaries (Panait & Luke, 2005).

예를 들어, AI는 종종 개방형 시스템에 적용되어 조직 경계를 흐리게 만든다 (Panait & Luke, 2005).


Data are collected widely, with diverse stakeholders updating them continuously and collectively through their actions (Gregory et al., 2020).

데이터는 광범위하게 수집되며, 다양한 이해관계자들이 그들의 행동을 통해 이를 지속적으로 그리고 집단적으로 업데이트한다(Gregory et al., 2020).


Inputs from agents within and outside the organization thereby impact the automation and augmentation process, which, in turn, can have wide-reaching societal implications.

조직 내부와 외부의 에이전트로부터의 입력이 자동화와 증강 프로세스에 영향을 미치며, 이는 다시 광범위한 사회적 영향을 미칠 수 있다.


A core focus of management scholars’ future research attention should therefore be on studying how broader networks of actors, comprising activists, companies, governments, international organizations, and public institutions, collaborate to set standards, build institutions, and organize collective action to address issues pertaining to the use of AI in management.

따라서 경영학자들의 향후 연구에서 중요한 초점은 활동가, 기업, 정부, 국제기구, 공공기관 등으로 구성된 광범위한 행위자 네트워크가 어떻게 협력하여 경영에서의 AI 사용에 관한 문제를 해결하기 위해 기준을 세우고, 제도를 만들고, 집단적 행동을 조직하는지를 연구하는 데 있어야 한다.


This leaves a final question of when scholars should address the phenomenon of emerging AI use in managerial practice.
마지막 질문은 학자들이 언제 경영 실무에서 등장하는 AI 사용 현상을 다루어야 하느냐이다.
The answer is: “Immediately!”
답은 “즉시!“이다.


Managers in key organizational domains, including customer management, human resources, marketing, product innovation, sales, and strategy have already started working closely with intelligent machines on automated and augmented tasks.

고객 관리, 인적 자원, 마케팅, 제품 혁신, 판매, 전략을 포함한 주요 조직 영역에서 관리자는 이미 자동화 및 증강 작업을 위해 지능형 기계와 긴밀히 협력하기 시작했다.


This introduction of AI in practice will profoundly change the nature of management.
AI의 실무 도입은 경영의 본질을 깊이 변화시킬 것이다.


These developments offer many fruitful areas for scholarly research.

이러한 발전은 학문적 연구에 있어 풍부한 기회를 제공한다.


Management scholars still have the opportunity to make a lasting impact on how organizations perceive and cope with the complex challenges they face.

경영학자들은 여전히 조직이 직면한 복잡한 문제를 인식하고 대처하는 방식에 지속적인 영향을 미칠 기회를 가지고 있다.


Our review essay shows that there is an urgent need for better understanding, more reliable theories, and sustainable managerial solutions.

우리의 리뷰 에세이는 더 나은 이해, 더 신뢰할 수 있는 이론, 그리고 지속 가능한 경영 해결책이 시급히 필요하다는 것을 보여준다.


We therefore close with a call to action and encourage our readers to embrace the topic of AI in management.

따라서 우리는 행동을 촉구하며, 독자들이 경영에서의 AI 주제를 수용할 것을 권장하며 마무리한다.



keyword
매거진의 이전글논문 리뷰 : 공공행정에서의 AI 채택 및 확산