Madan, R., & Ashok, M. 2022. AI adoption and diffusion in public administration: A systematic literature review and future research agenda. Government Information Quarterly, 40: 101774.
Artificial Intelligence (AI) implementation in public administration is gaining momentum heralded by the hope of smart public services that are personalised, lean, and efficient.
공공행정에서 인공지능(AI) 도입은 맞춤형, 간소화된, 효율적인 스마트 공공 서비스의 희망을 불러일으키며 점차 가속화되고 있다.
However, the use of AI in public administration is riddled with ethical tensions of fairness, transparency, privacy, and human rights.
그러나 공공행정에서의 AI 사용은 공정성, 투명성, 프라이버시, 인권에 대한 윤리적 긴장으로 가득하다.
We call these AI tensions.
우리는 이를 ‘AI 긴장’이라고 부른다.
The current literature lacks a contextual and processual understanding of AI adoption and diffusion in public administration to be able to explore such tensions.
현재 문헌은 공공행정에서 AI의 채택과 확산을 탐구하기 위한 맥락적 및 과정적 이해가 부족하다.
Previous studies have outlined risks, benefits, and challenges with the use of AI in public administration.
이전 연구들은 공공행정에서 AI 사용에 따른 위험, 이점, 그리고 도전과제들을 개괄적으로 설명하였다.
However, a large gap remains in understanding AI tensions as they relate to public value creation.
그러나 AI 긴장이 공공 가치 창출과 관련된 부분에 대한 이해는 여전히 큰 격차를 보인다.
Through a systematic literature review grounded in public value management and the resource-based view of the firms, we identify technology-organisational-environmental (TOE) contextual variables and absorptive capacity as factors influencing AI adoption as discussed in the literature.
공공 가치 관리와 자원 기반 관점에 근거한 체계적 문헌 검토를 통해, 우리는 문헌에서 논의된 대로 AI 채택에 영향을 미치는 기술-조직-환경적(TOE) 맥락적 변수와 흡수 능력을 식별한다.
To our knowledge, this is the first paper that outlines distinct AI tensions from an AI implementation and diffusion perspective within public administration.
우리가 알기로는, 이 논문은 공공행정에서 AI 도입 및 확산 관점에서 구체적인 AI 긴장을 기술한 최초의 논문이다.
We develop a future research agenda for the full AI innovation lifecycle of adoption, implementation, and diffusion.
우리는 AI 혁신의 전체 생애주기(채택, 구현, 확산)를 위한 향후 연구 과제를 제시한다.
Keywords: Public administration, Public values, AI tensions, Absorptive capacity, Data governance, AI adoption, AI diffusion
Technological innovation driven by Artificial Intelligence (AI) is making headways in public administration on the heels of the last decade’s e-government innovations focused on the goals of efficiency and cost savings.
인공지능(AI)에 의해 주도되는 기술 혁신은 지난 10년간 효율성과 비용 절감을 목표로 한 전자정부 혁신에 이어 공공행정에서 큰 진전을 이루고 있다.
The smart technology-centric model of public governance engages citizens through digital platforms and advocates for a lean service delivery without compromising quality (Dunleavy, Margetts, Bastow, & Tinkler, 2006; Wirtz & Müller, 2018).
스마트 기술 중심의 공공 거버넌스 모델은 디지털 플랫폼을 통해 시민과 소통하고, 품질을 저해하지 않으면서 간소화된 서비스 제공을 지지한다 (Dunleavy, Margetts, Bastow, & Tinkler, 2006; Wirtz & Müller, 2018).
AI-driven innovation is expected to have a profound impact on not only public sector employees but also on citizens and society.
AI에 의해 추진되는 혁신은 공공 부문 직원들뿐만 아니라 시민과 사회 전반에 깊은 영향을 미칠 것으로 예상된다.
When AI becomes an agent for making public decisions, a profound transformation of public administration ensues questioning the roles and functions of government in society.
AI가 공공 결정을 내리는 도구가 될 때, 공공행정은 근본적인 변화를 겪으며 정부의 역할과 기능에 대한 의문을 불러일으킨다.
The age-old dilemmas of power, trust, and legitimacy become embedded in AI influencing citizens’ lives and societies.
권력, 신뢰, 정당성에 대한 오랜 딜레마가 AI에 내재되어 시민의 삶과 사회에 영향을 미치게 된다.
A comprehensive understanding of contextual variables influencing the adoption and diffusion is essential for determining public value creation from the use of AI in public administration.
AI 사용으로 공공행정에서 공공 가치 창출을 결정하는 데 있어 채택과 확산에 영향을 미치는 맥락적 변수를 포괄적으로 이해하는 것이 필수적이다.
Defining AI presents terminological challenges.
AI를 정의하는 것은 용어적인 어려움을 수반한다.
Dwivedi et al. (2021, p. 24) suggest an “institutional hybrid” approach to defining AI and its typology as per the context and discipline.
Dwivedi 등(2021, p. 24)은 AI를 정의하고 그 유형을 맥락과 학문에 따라 “제도적 하이브리드” 접근 방식을 제안한다.
Thus, AI is defined as “a cluster of digital technologies that enable machines to learn and solve cognitive problems autonomously without human intervention” (Madan & Ashok, 2022, pg. 188).
따라서 AI는 “기계가 인간의 개입 없이 자율적으로 학습하고 인지 문제를 해결할 수 있도록 하는 디지털 기술들의 집합체”로 정의된다(Madan & Ashok, 2022, pg. 188).
The context for this paper is public administration which is defined as public organisations that implement government policies and may contribute to its development.
이 논문의 맥락은 공공행정으로, 이는 정부 정책을 실행하고 그 발전에 기여할 수 있는 공공 조직으로 정의된다.
Key applications of AI in this context include process automation, virtual agents and speech analytics, predictive analytics for decision-making, sentiment analysis, and document reviews (Ojo, Mellouli, & Zeleti, 2019; Wirtz, Weyerer, & Geyer, 2018).
이 맥락에서 AI의 주요 응용 분야로는 프로세스 자동화, 가상 에이전트 및 음성 분석, 의사결정을 위한 예측 분석, 감정 분석, 그리고 문서 검토 등이 있다 (Ojo, Mellouli, & Zeleti, 2019; Wirtz, Weyerer, & Geyer, 2018).
We focus on two specific AI technologies: machine learning (ML) and natural language processing (NLP).
우리는 두 가지 특정 AI 기술인 기계 학습(ML)과 자연어 처리(NLP)에 초점을 맞춘다.
These two technologies characterise most public administration AI applications exemplified by Madan and Ashok (2022)’s cross-case analysis and European Commission and Joint Research Center (JRC) (2021) AI case study archive.
이 두 기술은 Madan과 Ashok(2022)의 사례 분석과 유럽연합 집행위원회 및 공동연구센터(JRC, 2021)의 AI 사례 연구 자료에서 설명된 대부분의 공공행정 AI 응용 프로그램을 특징짓는다.
The implementation of AI represents radical innovations involving not only technology but also culture, processes, and workforce (Agarwal, 2018; Ashok, Narula, & Martinez-Noya, 2016).
AI의 도입은 기술뿐만 아니라 문화, 프로세스, 그리고 인력을 포함하는 근본적인 혁신을 나타낸다 (Agarwal, 2018; Ashok, Narula, & Martinez-Noya, 2016).
The use of AI in public administration is riddled with ethical tensions such as questions of fairness, transparency, privacy, and human rights (Ashok, Madan, Joha, & Sivarajah, 2022; Helbing et al., 2019; Kuziemski & Misuraca, 2020).
공공행정에서의 AI 사용은 공정성, 투명성, 프라이버시, 그리고 인권에 대한 윤리적 긴장으로 가득 차 있다
(Ashok, Madan, Joha, & Sivarajah, 2022; Helbing et al., 2019; Kuziemski & Misuraca, 2020).
Notwithstanding the use of AI provides immense benefits, the risks of harm to society require the assessment of the overall impact of AI from a public values perspective (Medaglia, Gil-Garcia, & Pardo, 2021).
AI 사용이 막대한 이익을 제공함에도 불구하고, 사회에 미치는 위험을 고려할 때 공공 가치 관점에서 AI의 전반적인 영향을 평가할 필요가 있다 (Medaglia, Gil-Garcia, & Pardo, 2021).
Several governments and technology companies have published ethical guidelines on the use of AI such as EU’s ethical guidelines (European Commission, 2019), Canada’s Algorithmic Impact Assessment (Canada, 2020), UK’s guidance (Gov.uk, 2019b), etc.
여러 정부 및 기술 회사들은 EU의 윤리 가이드라인(유럽연합 집행위원회, 2019), 캐나다의 알고리즘 영향 평가(Canada, 2020), 영국의 가이드라인(Gov.uk, 2019b) 등 AI 사용에 대한 윤리적 지침을 발표했다.
In the context of public administration, these ethical principles at the macro level provide overall boundaries for the use of AI.
공공행정의 맥락에서, 이러한 윤리적 원칙들은 AI 사용을 위한 전반적인 경계를 제공한다.
However, at the meso and micro levels of public administration, the resolution of AI tensions resulting from public value conflicts remains elusive.
그러나 공공행정의 중간 및 미시적 수준에서는 공공 가치 갈등으로 인한 AI 긴장의 해결이 여전히 불분명하다.
Morley, Floridi, Kinsey, and Elhalal (2020) state that AI scholars need to translate the largely agreed AI principles to the ‘what’ and ‘how’ of implementation.
Morley, Floridi, Kinsey, 그리고 Elhalal(2020)은 AI 학자들이 대체로 합의된 AI 원칙을 ‘무엇을’ 그리고 ‘어떻게’ 실행할지로 번역할 필요가 있다고 말한다.
The majority of AI literature views the government as a regulator.
대부분의 AI 문헌은 정부를 규제자로 본다.
The discussion of the role of public administration from a vantage of a user of AI is scarce even though public administration is increasingly becoming a significant user of AI (Kuziemski & Misuraca, 2020; Medaglia et al., 2021).
공공행정이 점점 더 중요한 AI 사용자가 되고 있음에도 불구하고, AI 사용자의 관점에서 공공행정의 역할에 대한 논의는 드물다(Kuziemski & Misuraca, 2020; Medaglia et al., 2021).
Wirtz et al. (2018)’s literature review showcases research gaps on public sector challenges related to AI applications.
Wirtz 등(2018)의 문헌 검토는 AI 응용 프로그램과 관련된 공공 부문 도전 과제에 대한 연구 격차를 보여준다.
Madan and Ashok (2022)’s cross-case analysis highlights the scarcity of research on the implementation and use of AI within governments.
Madan과 Ashok(2022)의 사례 분석은 정부 내에서 AI 도입과 사용에 관한 연구의 부족을 강조한다.
The mechanisms behind public value creation through the use of AI are not well understood (Wang, Teo, & Janssen, 2021).
AI 사용을 통한 공공 가치 창출의 메커니즘은 잘 이해되지 않고 있다 (Wang, Teo, & Janssen, 2021).
Scholars (Alsheibani, Cheung, & Messom, 2018; Medaglia et al., 2021; Misuraca, van Noordt, & Boukli, 2020; David Valle-Cruz, Alejandro Ruvalcaba-Gomez, Sandoval-Almazan, & Ignacio Criado, 2019; Wang et al., 2021) have called for research to develop a theoretical framework of environmental factors, organisational capabilities, and challenges with AI adoption and diffusion in public administration.
학자들(Alsheibani, Cheung, & Messom, 2018; Medaglia 등, 2021; Misuraca, van Noordt, & Boukli, 2020; David Valle-Cruz, Alejandro Ruvalcaba-Gomez, Sandoval-Almazan, & Ignacio Criado, 2019; Wang 등, 2021)은 공공행정에서AI 채택 및 확산과 관련된 환경 요인, 조직 역량, 그리고 도전 과제에 대한 이론적 틀을 개발하기 위한 연구를 촉구하고 있다.
In light of these literature gaps, this review intends to answer two research questions:
이러한 문헌 격차를 고려하여, 이 리뷰는 두 가지 연구 질문에 답하려고 한다.
RQ1: What are the key factors discussed in the literature that influence AI adoption in public administration?
연구 질문 1: 문헌에서 논의된 공공행정에서 AI 채택에 영향을 미치는 주요 요인은 무엇인가?
RQ2: What are the key tensions discussed in the literature that might be associated with AI implementation and diffusion in public administration?
연구 질문 2: 문헌에서 논의된 공공행정에서 AI 도입 및 확산과 관련된 주요 긴장은 무엇인가?
AI adoption is the process of “integration of new and diverse knowledge through the creation…of new capabilities, technologies and training programmes” (Ashok et al., 2016, p. 1008).
AI 채택은 “새로운 능력, 기술 및 교육 프로그램의 창출을 통해 새로운 지식과 다양한 지식을 통합하는 과정”이다 (Ashok 등, 2016, p. 1008).
AI implementation and diffusion refers to “events and actions that pertain to … preparing the organization for its use, trial use, acceptance of the innovation by the users [and finally] use of the innovation until it becomes a routine feature of the organization” (Damanpour & Schneider, 2006, p. 217).
AI 도입 및 확산은 “조직이 AI를 사용할 준비를 하고, 시범적으로 사용하며, 사용자들이 혁신을 수용하고, 궁극적으로 그 혁신이 조직의 일상적인 특징이 될 때까지의 사건과 행동”을 의미한다 (Damanpour & Schneider, 2006, p. 217).
The review adopts a multi-disciplinary approach using theories from technology adoption, strategic management, and public administration literature.
이 리뷰는 기술 채택, 전략적 관리, 공공행정 문헌에서 이론을 사용하는 다학문적 접근 방식을 채택한다.
In the next section, public value theory, the resource-based view (RBV), and the technology-organisation-environment (TOE) framework are introduced as key theoretical underpinnings for this review.
다음 섹션에서는 이 리뷰의 주요 이론적 기반으로 공공 가치 이론, 자원 기반 관점(RBV), 그리고 기술-조직-환경(TOE) 프레임워크가 소개된다.
The following section details the systematic literature review methodology followed by a summary of key themes and results.
다음 섹션에서는 체계적 문헌 검토 방법론을 자세히 설명하고, 주요 주제와 결과를 요약한다.
In the corresponding discussion section, the resulting themes are synthesised to develop a future research agenda.
해당 논의 섹션에서는 도출된 주제들을 종합하여 향후 연구 과제를 개발한다.
Public values management (PVM) argues public managers’ key role is determination and pursuit of public values through engagement and deliberation with elected politicians, stakeholders, and citizens (Moore, 1995; Stoker, 2006).
공공 가치 관리(PVM)는 공공 관리자들이 선출된 정치인, 이해관계자 및 시민들과의 참여와 숙고를 통해 공공 가치를 결정하고 추구하는 것이 핵심 역할이라고 주장한다 (Moore, 1995; Stoker, 2006).
Stoker (2006) contends public values debate grew as a response to the narrow economic focus of New Public Management (NPM) reforms.
Stoker(2006)는 공공 가치 논쟁이 신공공관리(NPM) 개혁의 좁은 경제적 초점에 대한 대응으로 성장했다고 주장한다.
NPM tried to limit the role of politics in determining public goals and reducing them to efficiency and performance-based measures (Ibid.).
신공공관리는 공공 목표를 결정하는 데 있어서 정치의 역할을 제한하고 이를 효율성과 성과 기반의 척도로 축소하려고 했다 (Ibid.).
Technology not only serves as a catalyst for value creation as enabled by digitalisation but also as a platform for higher engagement with citizens (Ashok, 2018; Ranerup & Henriksen, 2019).
기술은 디지털화를 통해 가치 창출을 촉진하는 역할을 할 뿐만 아니라 시민들과의 더 높은 참여를 위한 플랫폼 역할도 한다 (Ashok, 2018; Ranerup & Henriksen, 2019).
Thus, PVM’s focus on citizen and political engagement provides an appropriate democratic means for the resolution of tensions emerging from the implementation of AI in public administration (Andrews, 2018; Panagiotopoulos, Klievink, & Cordella, 2019).
따라서 PVM의 시민 및 정치 참여에 대한 초점은 공공행정에서 AI 도입으로 발생하는 긴장을 해결하기 위한 적절한 민주적 수단을 제공한다 (Andrews, 2018; Panagiotopoulos, Klievink, & Cordella, 2019).
The generative perspective of PVM suggests public value is context-driven and part of the deliberations themselves (Davis & West, 2008).
PVM의 생성적 관점은 공공 가치는 맥락에 의해 주도되며 숙고 과정의 일부라고 제안한다 (Davis & West, 2008).
The institutional perspective focuses on developing a typology of public values such as Hood (1991) and Bannister and Connolly (2014).
제도적 관점은 Hood(1991) 및 Bannister와 Connolly(2014)와 같은 공공 가치의 유형화를 개발하는 데 중점을 둔다.
This research adopts an integrated framework adapted from Davis and West (2008) consolidating generative and institutional perspectives.
이 연구는 생성적 및 제도적 관점을 통합한 Davis와 West(2008)의 통합된 프레임워크를 채택한다.
We build on the already established typology of public values developed by Bannister and Connolly (2014) in the context of technology.
우리는 Bannister와 Connolly(2014)가 기술적 맥락에서 개발한 공공 가치의 이미 확립된 유형화를 바탕으로 한다.
We argue dominant public value orientations are embedded in the fabric of organisational routines as cultural values and beliefs.
우리는 지배적인 공공 가치 지향이 조직의 일상적인 구조 속에 문화적 가치와 신념으로 내재되어 있다고 주장한다.
Stakeholder engagement might challenge existing values and give rise to new public values in specific contexts, especially in terms of tensions put forth by AI implementation.
이해관계자의 참여는 기존 가치를 도전할 수 있으며, 특히 AI 도입으로 인한 긴장 측면에서 특정 맥락에서 새로운 공공 가치를 생성할 수 있다.
Drawing on Moore (1995)’s strategic triangle, we further contend a key role of a public manager is to build capabilities in pursuit of these public values, existing or emergent.
Moore(1995)의 전략 삼각형을 바탕으로, 우리는 공공 관리자의 주요 역할이 이러한 공공 가치를 추구하면서 기존 또는 새롭게 떠오르는 역량을 구축하는 것이라고 주장한다.
Hence, as opposed to external strategy-based planning, public managers need to focus on internal capabilities building.
따라서 외부 전략 기반의 계획과는 달리, 공공 관리자는 내부 역량 구축에 집중해야 한다.
In this respect, a resource-based view of the firm is suitable for exploring the implementation of AI and the corresponding transformation it entails.
이 점에서, 자원 기반 관점은 AI 도입과 그에 따른 변화를 탐구하는 데 적합하다.
The resource-based view (RBV) is discussed in the next section as a key theoretical underpinning for this paper.
자원 기반 관점(RBV)은 이 논문의 주요 이론적 기반으로 다음 섹션에서 논의된다.
The resource-based view (RBV) has been extensively used in literature to explain organisational performance in terms of heterogeneity of internal resources (Barney, 1991).
자원 기반 관점(RBV)은 내부 자원의 이질성 측면에서 조직 성과를 설명하기 위해 문헌에서 널리 사용되어 왔다 (Barney, 1991).
Public organisations generally control large societal resources both in terms of workforce and tangible assets such as land, buildings, infrastructure, etc. (Clausen, Demircioglu, & Alsos, 2020; Harvey, Skelcher, Spencer, Jas, & Walshe, 2010).
공공 조직은 일반적으로 인력뿐만 아니라 토지, 건물, 인프라 등의 유형 자산과 같은 대규모 사회적 자원을 통제한다 (Clausen, Demircioglu, & Alsos, 2020; Harvey, Skelcher, Spencer, Jas, & Walshe, 2010).
Organisational capabilities, distinct from resources, refer to business capabilities, enterprise systems and processes, and culture.
자원과는 구별되는 조직 역량은 비즈니스 역량, 기업 시스템과 프로세스, 그리고 문화를 의미한다.
Organisations function as a collection of resources and capabilities that are aimed at value creation by putting resources to their best use (Piening, 2013).
조직은 자원을 최적 활용하여 가치를 창출하기 위한 자원과 역량의 집합체로 기능한다 (Piening, 2013).
The flip side of organisational capabilities is incumbent inertia in the form of routine rigidity inhibiting change and the development of new capabilities (Ashok, Narula, & Martinez-Noya, 2014; Leonard-Barton, 1992).
조직 역량의 반대 측면은 일상적인 경직성으로 변화와 새로운 역량 개발을 저해하는 기존의 관성이다 (Ashok, Narula, & Martinez-Noya, 2014; Leonard-Barton, 1992).
Public administration faces a constantly changing external environment characterised by ongoing policy changes and election cycles.
공공행정은 지속적인 정책 변화와 선거 주기로 특징지어지는 끊임없이 변화하는 외부 환경에 직면하고 있다.
The external environment turbulence and a need for public value deliberations require public managers to develop internal knowledge processes to navigate opposing demands and counter inertia to change (Ashok, Al Dhaheri, Madan, & Dzandu, 2021).
외부 환경의 혼란과 공공 가치 숙고의 필요성은 공공 관리자들이 상충되는 요구를 조정하고 변화에 대한 관성을 극복하기 위해 내부 지식 프로세스를 개발해야 함을 요구한다 (Ashok, Al Dhaheri, Madan, & Dzandu, 2021).
Thus, public managers need to build dynamic capabilities defined as “a firm’s ability to integrate, build and reconfigure internal and external competencies to address rapidly changing environments” (Teece, Pisano, & Shuen, 1997, p. 516).
따라서 공공 관리자들은 “급변하는 환경에 대응하기 위해 내부 및 외부 역량을 통합하고 구축하며 재구성할 수 있는 능력”으로 정의되는 동적 역량을 구축해야 한다 (Teece, Pisano, & Shuen, 1997, p. 516).
Derived from the RBV, dynamic capabilities are essential for public administration, just as the private sector, to successfully renew core capabilities and overcome routine rigidity; this is because dynamic capabilities enable public sector organisations to fulfil policies and provide services (Piening, 2013).
자원 기반 관점(RBV)에서 파생된 동적 역량은 핵심 역량을 성공적으로 갱신하고 일상적인 경직성을 극복하기 위해 공공행정에서도 필수적이다. 이는 동적 역량이 공공 부문 조직이 정책을 이행하고 서비스를 제공할 수 있게 하기 때문이다 (Piening, 2013).
Moore (1995)’s strategic triangle consists of public values, legitimacy and support, and internal capabilities.
Moore(1995)의 전략 삼각형은 공공 가치, 정당성과 지원, 그리고 내부 역량으로 구성된다.
In the context of AI implementation, internal capabilities can be viewed as dynamic capabilities and internal knowledge processes needed to implement such radical innovations with a multitude of public value configurations.
AI 도입의 맥락에서, 내부 역량은 이러한 급진적 혁신을 다양한 공공 가치 구성과 함께 구현하는 데 필요한 동적 역량과 내부 지식 프로세스로 볼 수 있다.
Legitimacy and support for AI come from the political leadership and central governments pursuing digital transformation agendas.
AI에 대한 정당성과 지원은 디지털 전환 의제를 추진하는 정치적 리더십과 중앙 정부로부터 나온다.
Citizens’ co-creation and adoption of AI-driven services act as another aspect of legitimacy and support.
시민들의 AI 기반 서비스 공동 창출과 수용은 정당성과 지원의 또 다른 측면으로 작용한다.
And the specific AI characteristics and design determine public value creation.
또한 AI의 특정 특성과 설계는 공공 가치 창출을 결정한다.
Thus, three key contexts emerge influencing AI innovations: technology, organisation, and environment.
따라서 기술, 조직, 환경이라는 세 가지 주요 맥락이 AI 혁신에 영향을 미치는 요소로 등장한다.
In the next section, we detail the use of the technology-organisation-environment (TOE) framework for exploring our research questions.
다음 섹션에서는 연구 질문을 탐구하기 위해 기술-조직-환경(TOE) 프레임워크의 사용을 자세히 설명한다.
The Technology-Organisation-Environment (TOE) framework (Tornatzky & Fleischer, 1990) has been extensively used in literature to explore technology adoption in different settings.
기술-조직-환경(TOE) 프레임워크(Tornatzky & Fleischer, 1990)는 다양한 환경에서 기술 채택을 탐구하기 위해 문헌에서 널리 사용되어 왔다.
The key premise of the TOE framework is that organisational and environmental contexts are equally important as technological contexts when studying technology adoption and diffusion at the organisational level.
TOE 프레임워크의 핵심 전제는 조직 차원에서 기술 채택과 확산을 연구할 때 조직적, 환경적 맥락이 기술적 맥락만큼 중요하다는 것이다.
AI introduces a higher level of complexity to change associated with its implementation.
AI는 도입과 관련된 변화에 더 높은 수준의 복잡성을 가져온다.
AI-driven public administration builds on e-government initiatives introducing AI as an agent of the government and governance shifts to citizen-AI-government interactions (Williamson, 2014).
AI 기반 공공행정은 전자정부 이니셔티브를 바탕으로 정부의 에이전트로서 AI를 도입하고, 거버넌스가 시민-AI-정부 간 상호작용으로 전환된다 (Williamson, 2014).
This resulting “institutional matrix” consists of human contextual knowledge, AI technologies, and data (Chris & Susan, 2018, p. 207; Gao & Janssen, 2020).
이로 인해 형성된 “제도적 매트릭스”는 인간의 맥락적 지식, AI 기술, 그리고 데이터로 구성된다 (Chris & Susan, 2018, p. 207; Gao & Janssen, 2020).
Crawford (2021, p. 8) argues AI in the current version is far from being artificial or intelligent but depends on a “set of political and social structures … designed to serve … dominant interests [and] in this sense a registry of power.”
Crawford(2021, p. 8)는 현재 버전의 AI가 인공적이거나 지능적이라기보다는 “지배적 이익을 위한 정치적 및 사회적 구조의 집합”에 의존한다고 주장하며, 이러한 측면에서 AI는 권력의 기록이라고 설명한다.
Similarly, Coombs et al. (2021, p. 5) ask the pertinent question as to “whose interests do AI serve [and] who owns the machines.”
유사하게, Coombs 등(2021, p. 5)은 “AI가 누구의 이익을 위해 봉사하며, 누가 기계를 소유하는가”라는 적절한 질문을 던진다.
The political and democratic institutions influenced by technology companies driving the AI agenda in public administration will determine if AI can reduce or enhance the problems of inequality and power.
공공행정에서 AI 의제를 추진하는 기술 기업의 영향을 받는 정치 및 민주적 기관들이 AI가 불평등과 권력 문제를 줄일 수 있는지 또는 증대시킬지 결정할 것이다.
Thus, the adoption and diffusion of AI within public administration are not only driven by the purported benefits of the technology but also by citizens, organisational culture, and institutional arrangements.
따라서 공공행정 내에서 AI의 채택과 확산은 기술의 주장된 이점뿐만 아니라 시민, 조직 문화, 그리고 제도적 배열에 의해서도 주도된다.
The TOE framework provides a theoretical lens to explore these variables.
TOE 프레임워크는 이러한 변수를 탐구하기 위한 이론적 렌즈를 제공한다.
The ‘Preferred Reporting Items for Systematic Reviews and Meta-Analyses’ (PRISMA) methodology was used to conduct a systematic literature review and qualitative synthesis (Moher et al., 2009).
PRISMA 방법론을 사용하여 체계적 문헌 검토와 질적 종합을 수행하였다 (Moher et al., 2009).
The objective of this review was “theory landscaping” (Okoli, 2015a, p. 888) to synthesize key constructs and relationships discussed in the literature related to the phenomenon of AI adoption in public administration and the key tensions that are likely to be associated with AI implementation and diffusion.
이 리뷰의 목적은 공공 행정에서 AI 채택과 관련된 현상 및 AI 구현과 확산에 관련된 주요 갈등을 분석하는 데 있다 (Okoli, 2015a, p. 888).
A critical realist approach was adopted towards theory landscaping goals and both empirical and conceptual studies were included in the review (Okoli, 2015b).
비판적 실재론 접근법을 채택하여 이론을 정립하고, 실증적 연구와 개념적 연구 모두를 검토에 포함하였다 (Okoli, 2015b).
The empirical studies, quantitative or qualitative, help identify what concepts and relationships have been tested and explanations provided for the underlying mechanisms.
실증적 연구는 양적 또는 질적으로, 어떤 개념과 관계가 검증되었는지 확인하고 그 기저 메커니즘에 대한 설명을 제공한다.
The conceptual studies propose constructs and relationships that may produce the phenomena based on existing theory, discursive analysis, philosophical deduction, or legal argumentation.
개념적 연구는 기존 이론, 논의적 분석, 철학적 추론, 또는 법적 논증에 기반하여 현상을 유발할 수 있는 구조와 관계를 제안한다.
The qualitative synthesis of empirical and conceptual studies thus provides a rich snapshot of the current thought in the multi-disciplinary disciplines and the empirical evidence related to the phenomenon for future theory development and testing.
실증적 및 개념적 연구의 질적 종합은 다양한 학문 분야에서 현상의 미래 이론 개발 및 테스트를 위한 풍부한 자료를 제공한다.
The review was conducted in three phases as shown in the PRISMA flow in Fig. 1.
이 검토는 PRISMA 흐름도에 제시된 대로 세 단계로 진행되었다. Fig. 1.
The goal during the identification stage was literature sensitization and identification of a range of keywords.
식별 단계의 목표는 문헌의 민감성을 높이고 다양한 키워드를 식별하는 것이었다.
A combination of seven keyword strings (as shown in Table 1) was used to conduct a literature search in three databases: EBSCO Host, SCOPUS, and Web of Science.
EBSCO Host, SCOPUS, Web of Science의 세 데이터베이스에서 문헌 검색을 위해 7개의 키워드 문자열을 결합하여 사용했다. (as shown in Table 1)
The search strings include the terms AI, machine learning, algorithms, and natural language processing denoting AI technologies within the scope of this review; and big data and blockchains as technologies supporting these applications.
검색 문자열에는 AI 기술을 나타내는 인공지능, 머신러닝, 알고리즘, 자연어 처리, 빅데이터 및 블록체인과 같은 기술이 포함되었다.
This string was combined with a range of public administration terms and paradigms.
이 문자열은 다양한 공공 행정 용어 및 패러다임과 결합되었다.
The search criteria were limited to English language publications or conference proceedings published after 2010.
검색 기준은 2010년 이후에 출판된 영어 논문 또는 학회 발표 자료로 제한되었다.
The research protocol was developed outlining the inclusion and exclusion criteria.
포함 및 제외 기준을 설명하는 연구 프로토콜이 개발되었다.
The inclusion criterion was quantitative, qualitative, mixed-method, literature reviews or conceptual papers on AI in public administration settings, papers related to big data in the context of AI, and technical papers that at a minimum discuss AI development or implementation.
포함 기준은 공공 행정에서의 AI를 다룬 양적, 질적, 혼합 방법 연구, 문헌 리뷰 또는 개념적 논문과 AI 맥락에서의 빅데이터 관련 논문을 포함하며, 최소한 AI 개발 또는 구현을 논의하는 기술 논문도 포함되었다.
The exclusion criteria included eGovernment papers that do not discuss AI or big data, AI technologies other than ML or NLP, studies not focusing on public administration applications such as smart city, medicine, universities, policing, healthcare, open data, data governance, or cybersecurity that do not discuss AI applications.
제외 기준은 AI 또는 빅데이터를 다루지 않는 전자정부 논문, 머신러닝이나 자연어 처리를 제외한 AI 기술, 스마트 시티, 의학, 대학, 치안, 헬스케어와 같은 공공 행정 적용이 아닌 연구, AI 적용을 다루지 않는 개방 데이터, 데이터 거버넌스, 사이버 보안을 포함했다.
Use of AI in the public sector for promoting private sector innovation, macro-level studies on AI policies and guidelines developed by national and supranational bodies, and big data and blockchain studies that do not discuss these technologies in the context of AI.
공공 부문에서 민간 부문 혁신을 촉진하기 위한 AI 사용, 국가 및 초국가적 기구에 의해 개발된 AI 정책 및 가이드라인에 대한 거시적 연구, 그리고 AI 맥락에서 논의되지 않은 빅데이터 및 블록체인 연구도 제외되었다.
In the screening stage, a total of 221 records were identified following the above search protocol.
스크리닝 단계에서 위의 검색 프로토콜에 따라 총 221개의 기록이 확인되었다.
Furthermore, through citation review, recommendations from other scholars and reviewers, and a Google Scholar search (first five result pages), we identified 27 additional records.
또한 인용 검토, 다른 학자 및 리뷰어들의 추천, 그리고 구글 학술 검색(첫 다섯 페이지)을 통해 추가로 27개의 기록을 확인했다.
After removing duplicates, 166 total publications were identified for the title and abstract review.
중복을 제거한 후, 제목 및 초록 검토를 위해 총 166개의 출판물이 확인되었다.
This screening of the records resulted in 117 papers for the full-text article review.
이 기록 검토 결과 전체 본문 검토를 위한 117개의 논문이 선정되었다.
Following the full article review, 73 papers (shown in supplementary materials in Appendix A) were finally included in the qualitative synthesis.
전체 논문 검토 후, 최종적으로 73개의 논문이 질적 종합에 포함되었다 (부록 A에 추가 자료로 표시됨).
During the qualitative synthesis stage, template analysis was conducted using a three-step analysis (King, 2004).
질적 종합 단계에서는 템플릿 분석이 3단계 분석을 통해 수행되었다 (King, 2004).
In step one, an a priori template (as shown in Table 2) was developed using the theoretical frameworks discussed above.
첫 번째 단계에서는 위에서 논의된 이론적 틀을 사용하여 사전 템플릿이 개발되었다 (표 2에 제시된 바와 같이).
In step two, each publication was coded to explore the phenomenon of AI adoption and diffusion in public administration, identifying factors influencing adoption, outcomes, and AI tensions as discussed in the literature.
두 번째 단계에서는 각 출판물을 코딩하여 공공 행정에서 AI 채택과 확산 현상을 탐구하고, 문헌에서 논의된 채택에 영향을 미치는 요인, 결과 및 AI 갈등을 식별하였다.
The data extraction included the type of study (quantitative, qualitative, mixed-method, conceptual), AI technology or application, public administration paradigms, key constructs, measures, and relationships, benefits and outcomes, risks and challenges, and tensions.
데이터 추출은 연구 유형(양적, 질적, 혼합 방법, 개념적 연구), AI 기술 또는 응용 프로그램, 공공 행정 패러다임, 주요 개념, 측정치 및 관계, 이점과 결과, 위험과 도전 과제, 그리고 갈등을 포함했다.
After coding a set of five papers, organizing and conceptual themes were identified (Attride-Stirling, 2001).
5개의 논문을 코딩한 후 조직 및 개념 주제가 식별되었다 (Attride-Stirling, 2001).
This was repeated as a new set of papers were coded and reflectivity checks conducted.
새로운 논문 집합이 코딩되고 반사성 검토가 수행되면서 이 과정이 반복되었다.
After a further reorganization of themes and discussions between the authors, the final template was developed.
주제의 추가 재조직화와 저자 간의 논의 후 최종 템플릿이 개발되었다.
In step three, the results of the analysis were synthesized.
세 번째 단계에서는 분석 결과가 종합되었다.
This section discusses the results of the analysis.
이 섹션에서는 분석 결과를 논의한다.
The first part provides a descriptive analysis of the publications included in the review followed by content analysis which discusses the findings of qualitative synthesis.
첫 번째 부분에서는 검토에 포함된 출판물의 서술적 분석을 제공하고, 이어서 질적 종합의 발견을 논의하는 내용 분석이 이어진다.
The review included 73 publications of which 66% were journal articles and 34% were conference proceedings as shown in Table 3.
이 검토에는 총 73개의 출판물이 포함되었으며, 그 중 66%는 학술지 논문이고, 34%는 학회 발표 자료였다 (표 3 참조).
The highest number of articles (ten) were published in Government Information Quarterly, and the highest number of conference proceedings (eight) were from the Annual International Conference on Digital Government Research.
가장 많은 논문(10편)은 Government Information Quarterly에 출판되었고, 가장 많은 학회 발표 자료(8편)는 연례 국제 디지털 정부 연구 학회에서 발표되었다.
Fig. 2 shows the distribution of the journals by year; 85% of the publications are since 2019 showing the recency of the discussions on AI in public administration.
그림 2는 연도별 학술지 분포를 보여주며, 85%의 출판물이 2019년 이후에 출판되어 공공 행정에서 AI에 대한 논의가 최근에 이루어지고 있음을 보여준다.
As shown in Fig. 3, there is a lack of quantitative research and testing of conceptual models, with only seven publications (10%) in this category.
그림 3에서 보듯이, 개념 모델에 대한 양적 연구와 검증이 부족하며, 이 범주에 속하는 출판물은 7편(10%)에 불과하다.
58% of publications are either conceptual or literature reviews, and 29% are qualitative studies, representing the second-highest type of publications; 4% are mixed-method studies.
58%의 출판물이 개념적 연구나 문헌 리뷰이며, 29%는 질적 연구로, 두 번째로 많은 출판 유형을 차지하고 있으며, 4%는 혼합 방법 연구이다.
As shown in Fig. 4, in terms of technology discussed in the papers, 37% of the publications mention AI broadly and focus on the application outcomes such as crowdsourcing, delivery of e-services, citizen engagement, achieving efficiency, and process automation, etc.
그림 4에 따르면, 논문에서 논의된 기술 측면에서 37%의 출판물은 AI를 포괄적으로 언급하고, 크라우드소싱, 전자 서비스 제공, 시민 참여, 효율성 달성, 프로세스 자동화 등의 적용 결과에 중점을 둔다.
Another 12% of the studies refer to several related technologies and applications that can be categorized as cognitive computing, including machine learning, big data analytics, image processing, machine vision, NLP, etc.
또 다른 12%의 연구는 머신러닝, 빅데이터 분석, 이미지 처리, 머신 비전, 자연어 처리(NLP) 등 인지 컴퓨팅으로 분류할 수 있는 여러 관련 기술 및 응용 프로그램을 언급한다.
45% of the studies discuss AI in terms of machine learning, big data analytics, algorithmic decision making, and automated decision making.
45%의 연구는 AI를 머신러닝, 빅데이터 분석, 알고리즘적 의사 결정, 자동화된 의사 결정의 관점에서 논의한다.
And 5% of the studies refer specifically to natural language processing in terms of the implementation of text or voice chatbots or processing of large documents and texts as a precursor to machine learning and automation.
그리고 5%의 연구는 텍스트 또는 음성 챗봇 구현 또는 대규모 문서 및 텍스트 처리를 머신러닝 및 자동화의 전구 단계로서 자연어 처리(NLP)와 관련하여 논의한다.
This sub-section discusses the findings of the qualitative synthesis.
이 하위 섹션에서는 질적 종합의 결과를 논의한다.
The factors influencing AI adoption, implementation strategies related to AI implementation, and outcomes related to AI diffusion, as discussed in the literature, are outlined.
문헌에서 논의된 AI 채택에 영향을 미치는 요인, AI 구현과 관련된 전략, 그리고 AI 확산과 관련된 결과가 요약되어 있다.
Finally, the themes of AI tensions and data governance embedded in both the implementation and diffusion stages are discussed.
마지막으로, AI의 갈등과 데이터 거버넌스가 구현과 확산 단계에 모두 내재된 주제들이 논의된다.
The final template developed from template analysis is attached in the supplementary materials as Appendix B.
템플릿 분석에서 개발된 최종 템플릿은 부록 B에 추가 자료로 첨부되었다.
4.2.1. Factors influencing AI adoption
Deriving from the TOE framework, contextual factors under technology, organization, and environment are identified as influencing AI adoption.
TOE 프레임워크에서 도출된 바와 같이, 기술, 조직, 환경 측면의 맥락적 요인이 AI 채택에 영향을 미치는 것으로 확인되었다.
A global theme of absorptive capacity also emerged influencing AI adoption from the literature review.
문헌 검토에서 AI 채택에 영향을 미치는 흡수 능력이라는 글로벌 주제도 도출되었다.
Table 4 summarizes the main themes and codes, which are discussed below.
표 4는 주요 주제와 코드를 요약한 것으로, 아래에서 논의된다.
4.2.1.1. Technology context
The technology context identifies two themes of IT assets and capabilities.
기술적 맥락에서는 IT 자산과 역량이라는 두 가지 주제가 도출되었다.
These encompass the current level of e-government adoption and digitalization capabilities.
이들은 전자정부 채택의 현재 수준과 디지털화 역량을 포함한다.
The third theme is identified as characteristics of adopting technology in terms of its perceived benefits.
세 번째 주제는 기술 채택의 특성으로, 그 인식된 이점 측면에서 확인된다.
The theme of IT assets identifies an organization’s digital maturity as the determinant of AI adoption.
IT 자산 주제는 조직의 디지털 성숙도를 AI 채택의 결정 요소로 식별한다.
IT assets include cloud computing capabilities (Coglianese & Lehr, 2017); digital infrastructure in terms of connectivity, bandwidth, processing power, and networks (Alshahrani, Dennehy, & Mäntymäki, 2021; Chatfield & Reddick, 2018; Desouza, Dawson, & Chenok, 2020; Schedler, Guenduez, & Frischknecht, 2019; van Noordt & Misuraca, 2020a; van Noordt & Misuraca, 2020b; Wirtz & Müller, 2018); “compatibility” of existing assets with new AI technologies (Schaefer et al., 2021, p. 6); and the ability to integrate systems and data (Erkut, 2020; Mikalef, Fjortoft, & Torvatn, 2019; Rogge, Agasisti, & De Witte, 2017).
IT 자산에는 클라우드 컴퓨팅 역량(Coglianese & Lehr, 2017), 연결성, 대역폭, 처리 능력 및 네트워크와 같은 디지털 인프라(Alshahrani, Dennehy, & Mäntymäki, 2021; Chatfield & Reddick, 2018; Desouza, Dawson, & Chenok, 2020; Schedler, Guenduez, & Frischknecht, 2019; van Noordt & Misuraca, 2020a; van Noordt & Misuraca, 2020b; Wirtz & Müller, 2018), 기존 자산의 새로운 AI 기술과의 “호환성”(Schaefer et al., 2021, p. 6), 시스템 및 데이터 통합 능력(Erkut, 2020; Mikalef, Fjortoft, & Torvatn, 2019; Rogge, Agasisti, & De Witte, 2017)을 포함한다.
The data-related assets are identified as data accessibility, internally within the organization or externally, and quality (Alshahrani et al., 2021; Ballester, 2021; Fatima, Desouza, Buck, & Fielt, 2021; Gao & Janssen, 2020; Wirtz et al., 2018); database management infrastructure and enterprise architecture (Gong & Janssen, 2021; A. Ojo et al., 2019); ownership and sharing of data between governmental agencies (Alshahrani et al., 2021; Campion, Gasco-Hernandez, Mikhaylov, & Esteve, 2020; Janssen, Brous, Estevez, Barbosa, & Janowski, 2020; Makasi, Tate, Desouza, & Nili, 2021; Pencheva, Esteve, & Mikhaylov, 2020; Rogge et al., 2017; Vogl, Seidelin, Ganesh, & Bright, 2019); and cloud storage (Coglianese & Lehr, 2017).
데이터 관련 자산으로는 조직 내부 또는 외부의 데이터 접근성 및 품질(Alshahrani et al., 2021; Ballester, 2021; Fatima, Desouza, Buck, & Fielt, 2021; Gao & Janssen, 2020; Wirtz et al., 2018), 데이터베이스 관리 인프라 및 기업 아키텍처(Gong & Janssen, 2021; A. Ojo et al., 2019), 정부 기관 간 데이터 소유권 및 공유(Alshahrani et al., 2021; Campion, Gasco-Hernandez, Mikhaylov, & Esteve, 2020; Janssen, Brous, Estevez, Barbosa, & Janowski, 2020; Makasi, Tate, Desouza, & Nili, 2021; Pencheva, Esteve, & Mikhaylov, 2020; Rogge et al., 2017; Vogl, Seidelin, Ganesh, & Bright, 2019), 그리고 클라우드 스토리지(Coglianese & Lehr, 2017)가 있다.
The related theme of IT capabilities identifies current capabilities in managing IT assets, basic employee knowledge in AI and big data, and a data-oriented culture essential to building AI capabilities (Ballester, 2021; Campion et al., 2020; Casalino, Saso, Borin, Massella, & Lancioni, 2020; Chatfield & Reddick, 2018; Chen, Ran, & Gao, 2019; Clarke & Margetts, 2014; Desouza et al., 2020; Giest, 2017; Janssen, Brous, et al., 2020; Medaglia et al., 2021; Ojo et al., 2019; Pencheva et al., 2020; van Noordt & Misuraca, 2020a; van Noordt & Misuraca, 2020b).
관련된 IT 역량 주제는 IT 자산 관리, AI 및 빅데이터에 대한 직원의 기본 지식, 그리고 AI 역량을 구축하는 데 필수적인 데이터 지향적 문화를 식별한다 (Ballester, 2021; Campion et al., 2020; Casalino, Saso, Borin, Massella, & Lancioni, 2020; Chatfield & Reddick, 2018; Chen, Ran, & Gao, 2019; Clarke & Margetts, 2014; Desouza et al., 2020; Giest, 2017; Janssen, Brous, et al., 2020; Medaglia et al., 2021; Ojo et al., 2019; Pencheva et al., 2020; van Noordt & Misuraca, 2020a; van Noordt & Misuraca, 2020b).
Specialized capabilities are required to develop, deploy, and manage AI assets.
AI 자산을 개발, 배포, 관리하기 위해서는 전문 역량이 필요하다.
A lack of AI experts within public administration requires access to an ecosystem of commercial partners and external AI specialists (Alexopoulos et al., 2019; Campion et al., 2020; Desouza et al., 2020; Makasi et al., 2021; Medaglia et al., 2021; Wirtz & Müller, 2018).
공공 행정에서 AI 전문가의 부족은 상업적 파트너 및 외부 AI 전문가 생태계에 접근할 필요성을 제기한다 (Alexopoulos et al., 2019; Campion et al., 2020; Desouza et al., 2020; Makasi et al., 2021; Medaglia et al., 2021; Wirtz & Müller, 2018).
The third theme of perceived benefits encompasses adopting AI’s direct benefits such as cost savings, novel solutions, and the ability to meet users’ needs or indirect benefits of increased collaboration with peers and industry partners (Alshahrani et al., 2021; Cordella & Dodd, 2019; Mikalef et al., 2021; Schaefer et al., 2021).
세 번째 주제는 AI 채택의 직접적인 이점인 비용 절감, 새로운 해결책, 사용자 요구 충족 능력 등과 동료 및 산업 파트너와의 협업 증가와 같은 간접적인 이점을 포괄한다 (Alshahrani et al., 2021; Cordella & Dodd, 2019; Mikalef et al., 2021; Schaefer et al., 2021).
4.2.1.2. Organisational context
The organisational context identifies three themes of organisational culture, leadership, and inertia.
조직적 맥락에서는 조직 문화, 리더십, 그리고 관성이라는 세 가지 주제를 도출한다.
The theme of an organisational culture incorporates innovative culture as more receptive to AI adoption and successful diffusion given these new technologies represent high risks and an experimentation attitude (Kuziemski & Misuraca, 2020; Schaefer et al., 2021; van Noordt & Misuraca, 2020a; van Noordt & Misuraca, 2020b; Zuiderwijk, Chen, & Salem, 2021).
조직 문화 주제는 혁신적인 문화가 새로운 기술이 높은 위험을 수반하고 실험적 태도를 요구함에도 불구하고 AI 채택과 성공적인 확산에 더욱 개방적임을 포함한다 (Kuziemski & Misuraca, 2020; Schaefer et al., 2021; van Noordt & Misuraca, 2020a; van Noordt & Misuraca, 2020b; Zuiderwijk, Chen, & Salem, 2021).
Ojo et al. (2019) and Schedler et al. (2019) discuss institutional arrangements such as NPM orientation, bureaucratic structure, or digital-era governance mandates embedded in the culture of the organisations that influence AI-related innovations.
Ojo et al. (2019)와 Schedler et al. (2019)은 조직의 문화에 내재된 NPM 지향성, 관료적 구조 또는 디지털 시대의 거버넌스 명령과 같은 제도적 배열이 AI 관련 혁신에 미치는 영향을 논의한다.
These arrangements further manifest in terms of alignment between the organisational structure and big data (Giest, 2017), cross-agency collaborations, and the need for a redesign of processes and routines (Campion et al., 2020; Pencheva et al., 2020).
이러한 배열은 조직 구조와 빅데이터의 정렬(Giest, 2017), 기관 간 협업, 그리고 프로세스 및 루틴의 재설계 필요성(Campion et al., 2020; Pencheva et al., 2020)으로 더욱 구체화된다.
The theme of leadership stresses transformational leadership traits in leading change associated with AI adoption and diffusion (Campion et al., 2020; De Vries, Bekkers, & Tummers, 2016; Schedler et al., 2019).
리더십 주제는 AI 채택 및 확산과 관련된 변화를 주도하는 변혁적 리더십 특성에 중점을 둔다 (Campion et al., 2020; De Vries, Bekkers, & Tummers, 2016; Schedler et al., 2019).
Transformational leaders can influence culture by establishing personal and social identification related to innovation and institutionalising learning (Alblooshi, Shamsuzzaman, & Haridy, 2020; Alshahrani et al., 2021; Jia, Chen, Mei, & Wu, 2018).
변혁적 리더는 혁신과 관련된 개인적 및 사회적 정체성을 확립하고 학습을 제도화함으로써 문화를 변화시킬 수 있다 (Alblooshi, Shamsuzzaman, & Haridy, 2020; Alshahrani et al., 2021; Jia, Chen, Mei, & Wu, 2018).
Such leaders motivate employees to experiment and consider novel ways of working with AI.
이러한 리더는 직원들이 AI와 함께 새로운 방식으로 일하고 실험하도록 동기를 부여한다.
Specific to AI adoption and diffusion, the leadership qualities of the CIO are also highlighted as critical.
AI 채택 및 확산과 관련하여, CIO의 리더십 특성이 중요하게 강조된다.
CIOs should not only have technical knowledge of AI but also political acumen to effectively influence enterprise systems design within and across governmental agencies (Chatfield & Reddick, 2018).
CIO는 AI에 대한 기술적 지식뿐만 아니라 정부 기관 내외의 기업 시스템 설계에 효과적으로 영향을 미칠 수 있는 정치적 통찰력도 갖추어야 한다 (Chatfield & Reddick, 2018).
The theme of organisational inertia specific to public administration was identified as a major inhibiting factor for AI adoption and diffusion.
공공 행정에서 조직적 관성 주제는 AI 채택과 확산의 주요 억제 요인으로 확인되었다.
Inertia can be in terms of routine rigidity associated with bureaucracy, centralised decision-making, lack of employee empowerment, status-quo bias, and resistance to sharing data within or across agencies (Alshahrani et al., 2021; Campion et al., 2020; Chen et al., 2019; Fatima et al., 2021; Pencheva et al., 2020; van Noordt & Misuraca, 2020b; Zuiderwijk et al., 2021).
관성은 관료주의, 중앙집권적 의사 결정, 직원 권한 부여의 부족, 현상 유지 편향, 기관 내 또는 기관 간 데이터 공유에 대한 저항과 관련된 일상적 경직성으로 나타날 수 있다 (Alshahrani et al., 2021; Campion et al., 2020; Chen et al., 2019; Fatima et al., 2021; Pencheva et al., 2020; van Noordt & Misuraca, 2020b; Zuiderwijk et al., 2021).
Or inertia can manifest in terms of resource rigidity with resource scarcity for innovative projects, high demand for AI experts, economic investment requiring political approvals, and insufficient budget for piloting and experimentation (Campion et al., 2020; Mikalef et al., 2019; Schaefer et al., 2021; Schedler et al., 2019; Wirtz et al., 2018).
또는 관성은 혁신적인 프로젝트에 필요한 자원 부족, AI 전문가에 대한 높은 수요, 정치적 승인이 필요한 경제적 투자, 파일럿 및 실험을 위한 예산 부족으로 자원의 경직성으로 나타날 수 있다 (Campion et al., 2020; Mikalef et al., 2019; Schaefer et al., 2021; Schedler et al., 2019; Wirtz et al., 2018).
In addition, there is expected to be resistance from unions to the perceived threat to the workforce and displacement of jobs (Young, Bullock, & Lecy, 2019).
추가적으로, 노조에서는 인력에 대한 위협과 일자리 대체에 대한 인식된 위협에 저항할 것으로 예상된다 (Young, Bullock, & Lecy, 2019).
4.2.1.3. Environmental context
The mandates of public administration are determined by the political leadership and often influenced by election cycles.
공공 행정의 임무는 정치적 리더십에 의해 결정되며, 종종 선거 주기의 영향을 받는다.
In addition, such organisations are influenced by peer governmental bodies, citizen demands, private industry, and media scrutiny.
또한 이러한 조직은 동료 정부 기관, 시민의 요구, 민간 산업, 미디어의 감시에 영향을 받는다.
Thus, two themes under the environmental context are identified as vertical pressures and horizontal pressures.
따라서 환경적 맥락에서 두 가지 주제가 수직적 압력과 수평적 압력으로 식별되었다.
The theme of vertical pressure relates to policy signals, directives, and mandates encouraging digital service delivery and automation (Alshahrani et al., 2021; Clarke & Craft, 2017; Janssen, Brous, et al., 2020; Pencheva et al., 2020; Schaefer et al., 2021; Schedler et al., 2019; Wang, Zhang, & Zhao, 2020).
수직적 압력 주제는 디지털 서비스 제공과 자동화를 촉진하는 정책 신호, 지침 및 명령과 관련된다.
(Alshahrani et al ., 2021; Clarke & Craft, 2017; Janssen, Brous, et al., 2020; Pencheva et al., 2020; Schaefer et al., 2021; Schedler et al., 2019; Wang, Zhang, & Zhao, 2020).
Examples include the digital-first directives in Canada (Canada, 2021), UK’s GovTech fund under the AI Sector Deal (Gov.uk, 2019a), US’s National AI Initiative (AI.gov, 2021), and UAE’s National AI Strategy 2031 (AI.gov.ae, 2021).
예시로는 캐나다의 디지털 우선 정책(Canada, 2021), 영국의 AI 섹터 협약 하의 GovTech 펀드(Gov.uk, 2019a), 미국의 국가 AI 이니셔티브(AI.gov, 2021), 그리고 UAE의 2031년 국가 AI 전략(AI.gov.ae, 2021)이 있다.
The vertical pressure is further influenced by macro-level guidelines, regulations, and procurement practices related to the use of AI.
수직적 압력은 AI 사용과 관련된 거시적 가이드라인, 규제, 그리고 조달 관행의 영향을 더 받는다.
Such as algorithmic impact assessment by the Government of Canada (Canada, 2020), EU’s General Data Protection Regulation (European Commission, 2016), and the UK’s AI procurement in a box (Forum, 2020).
예를 들어 캐나다 정부의 알고리즘 영향 평가(Canada, 2020), EU의 일반 데이터 보호 규정(European Commission, 2016), 영국의 AI 조달 가이드(Forum, 2020)가 있다.
The theme of horizontal pressures incorporates intergovernmental competition, citizen demands, industry pressure, and media scrutiny.
수평적 압력 주제는 정부 간 경쟁, 시민의 요구, 산업적 압력, 미디어 감시를 포함한다.
Public administration is under pressure to implement innovations when it is shown to improve performance, save costs, and satisfy citizen demands for personalized and 24/7 services (Schaefer et al., 2021; Wang et al., 2021).
공공 행정은 성능을 개선하고 비용을 절감하며, 개인 맞춤형 및 24/7 서비스에 대한 시민의 요구를 충족하는 혁신을 구현해야 하는 압박을 받고 있다 (Schaefer et al., 2021; Wang et al., 2021).
The availability of AI technologies to meet these citizen demands exerts industry pressures (Schaefer et al., 2021).
이러한 시민의 요구를 충족시키기 위한 AI 기술의 사용 가능성은 산업적 압력을 가한다 (Schaefer et al., 2021).
This pressure is further influenced by the public sector’s fishbowl effect with constant media scrutiny and opposition parties’ critiques (Desouza et al., 2020), forcing public administrative bodies to emulate peer agencies’ successes.
이 압력은 끊임없는 미디어 감시와 야당의 비판으로 인한 공공 부문의 ‘투명성 효과’에 의해 더욱 영향을 받으며, 공공 행정 기관이 다른 기관의 성공을 모방하도록 강요한다 (Desouza et al., 2020).
Citizens’ perceptions of sharing data and its use by algorithms to make public decisions play a crucial role in public value deliberations related to innovations (Chohan, Hu, Khan, Pasha, & Sheikh, 2021; Criado & Gil-Garcia, 2019; Giest, 2017; Lopes, Macadar, & Luciano, 2019; Misuraca, 2020).
데이터 공유에 대한 시민들의 인식과 알고리즘을 통한 공공 결정 사용은 혁신과 관련된 공공 가치 논의에서 중요한 역할을 한다(Chohan, Hu, Khan, Pasha, & Sheikh, 2021; Criado & Gil-Garcia, 2019; Giest, 2017; Lopes, Macadar, & Luciano, 2019; Misuraca, 2020).
Wang et al. (2021) highlight the dual role of public value creation with AI and consider citizens’ perception as the demand component.
Wang et al. (2021)은 AI를 통한 공공 가치 창출의 이중적 역할을 강조하며, 시민들의 인식을 수요 요소로 간주한다.
The supply side is driven by political and administrative contexts as discussed under organisational and environmental contexts.
공급 측면은 조직적 및 환경적 맥락에서 논의된 대로 정치적 및 행정적 맥락에 의해 주도된다.
4.2.1.4. Absorptive capacity
A global theme of absorptive capacity emerged across all the TOE contexts.
모든 TOE 맥락에서 흡수 능력이라는 글로벌 주제가 등장했다.
In the context of AI adoption, absorptive capacity is manifested through a strong path dependency on existing infrastructure developed through previous e-government innovations, collaborations between organisations, and a network of external technical specialists (Aboelmaged & Mouakket, 2020; Ballester, 2021; Campion et al., 2020; Casalino et al., 2020; Janssen, Brous, et al., 2020; Kuziemski & Misuraca, 2020).
AI 채택의 맥락에서 흡수 능력은 이전 전자정부 혁신을 통해 개발된 기존 인프라, 조직 간 협력, 그리고 외부 기술 전문가 네트워크에 대한 강력한 경로 의존성을 통해 나타난다 (Aboelmaged & Mouakket, 2020; Ballester, 2021; Campion et al., 2020; Casalino et al., 2020; Janssen, Brous, et al., 2020; Kuziemski & Misuraca, 2020).
The knowledge management practices developing technical skills and a data-oriented culture facilitate the exploration of AI technologies in response to citizens’ needs, external environmental pressures, and fiscal austerity.
기술적 역량과 데이터 지향적 문화를 개발하는 지식 관리 관행은 시민들의 요구, 외부 환경적 압력, 그리고 재정 긴축에 대응하여 AI 기술을 탐구하는 것을 촉진한다.
Dynamic capabilities ensure optimal resource configurations can be mobilized during the assimilation of AI technologies (Erkut, 2020; Medaglia et al., 2021; Ojo, 2019).
동적 역량은 AI 기술의 통합 과정에서 최적의 자원 구성이 동원될 수 있도록 보장한다 (Erkut, 2020; Medaglia et al., 2021; Ojo, 2019).
The experience acquired through the use of deterministic systems facilitates clarity on the public value outcomes desired from AI rather than just following the herd and succumbing to external pressures (Janssen et al., 2022).
결정론적 시스템 사용을 통해 얻은 경험은 외부 압력에 단순히 굴복하기보다는 AI에서 기대되는 공공 가치 결과에 대한 명확성을 촉진한다 (Janssen et al., 2022).
4.2.2. Implementation strategies
The AI implementation strategies discussed are similar to those used in technology implementation projects in public administration, such as requirements identification, collaboration with citizens, a need for clear communications, change management, and skills training.
논의된 AI 구현 전략은 요구 사항 식별, 시민과의 협업, 명확한 커뮤니케이션 필요성, 변화 관리, 기술 교육과 같은 공공 행정 기술 구현 프로젝트에서 사용된 전략과 유사하다.
Two specific themes emerge as distinct for AI-related technologies: innovative procurement and experimentation.
AI 관련 기술에 대해 두 가지 독특한 주제가 나타난다: 혁신적 조달 및 실험.
Table 5 summarizes the themes and codes, which are discussed below.
표 5는 주제와 코드를 요약하며, 아래에서 논의된다.
4.2.2.1. Experimentation
Pilot testing and experimentation are considered critical for AI applications in public administration to identify and mitigate risks of failure, which may prove disastrous in eroding citizen trust (Fatima et al., 2021).
파일럿 테스트와 실험은 공공 행정에서 AI 응용 프로그램에 대해 중요하다고 간주되며, 이는 시민의 신뢰를 무너뜨릴 수 있는 실패의 위험을 식별하고 완화하는 데 중요한 역할을 한다 (Fatima et al., 2021).
The majority of ML projects in governments are currently pilot applications (Alexopoulos et al., 2019).
현재 정부에서의 대부분의 머신러닝 프로젝트는 파일럿 응용 프로그램이다 (Alexopoulos et al., 2019).
The proliferation of innovation labs is a testament to a realized need for experimentation with new technology applications.
혁신 연구소의 확산은 새로운 기술 응용 프로그램에 대한 실험의 필요성을 인식한 증거이다.
Smaller successes enable organizations to mature and build capabilities before undertaking a large-scale AI-driven challenge (Desouza et al., 2020; van Veenstra & Kotterink, 2017).
작은 성공은 조직이 대규모 AI 중심 도전에 착수하기 전에 성숙하고 역량을 구축할 수 있도록 한다 (Desouza et al., 2020; van Veenstra & Kotterink, 2017).
4.2.2.2. Innovative procurement
To support experimentation, the standard government procurements used for established technologies involving comprehensive bidding and evaluation processes are not suitable.
실험을 지원하기 위해서는 기존 기술을 위한 포괄적인 입찰 및 평가 프로세스를 포함하는 표준 정부 조달 방식이 적합하지 않다.
Instead, the agile procurement process allows iterative development lifecycles through the acquisition of hardware and software in stages (Desouza et al., 2020).
대신에, 애자일 조달 프로세스는 하드웨어와 소프트웨어의 단계적 획득을 통해 반복적인 개발 주기를 가능하게 한다 (Desouza et al., 2020).
This ensures early access to industry expertise and focuses on defining the problem rather than developing detailed solution specifications.
이는 초기 단계에서 산업 전문 지식을 확보하고, 세부적인 솔루션 사양을 개발하기보다는 문제 정의에 집중할 수 있게 해준다.
4.2.2.3. Collaboration and co-creation
Co-creation of AI solutions with stakeholders provides varied viewpoints and helps develop a clear definition of the problem (Fatima et al., 2021).
이해관계자와의 AI 솔루션 공동 창조는 다양한 관점을 제공하고 문제를 명확하게 정의하는 데 도움이 된다 (Fatima et al., 2021).
Citizen collaboration enhances positive perceptions of AI decisions and higher adoption (Criado & Gil-Garcia, 2019; Gesk & Leyer, 2022; Lopes et al., 2019; van Veenstra & Kotterink, 2017).
시민과의 협력은 AI 결정에 대한 긍정적인 인식을 높이고 더 높은 채택을 촉진한다 (Criado & Gil-Garcia, 2019; Gesk & Leyer, 2022; Lopes et al., 2019; van Veenstra & Kotterink, 2017).
Collaborating with employees on service design alleviates concerns of AI replacing jobs and enhances internal use and adoption (A. Ojo et al., 2019).
서비스 설계에서 직원과 협력하는 것은 AI가 일자리를 대체할 것이라는 우려를 완화하고 내부 사용 및 채택을 촉진한다 (A. Ojo et al., 2019).
Collaboration and sharing of data between government departments (Alexopoulos et al., 2019; Janssen, Brous, et al., 2020) help develop better models.
정부 부서 간의 협력과 데이터 공유는 더 나은 모델을 개발하는 데 도움이 된다 (Alexopoulos et al., 2019; Janssen, Brous, et al., 2020).
Collaboration with private technology companies is key for the development of AI solutions in public administration, which generally lack technical expertise (Gao & Janssen, 2020).
민간 기술 회사와의 협력은 일반적으로 기술 전문 지식이 부족한 공공 행정에서 AI 솔루션을 개발하는 데 중요한 역할을 한다 (Gao & Janssen, 2020).
4.2.2.4. Project management
In addition to agile being the preferred implementation approach, a strong project management culture remains a critical component for AI implementations.
애자일 방식이 선호되는 구현 접근 방식인 것 외에도, 강력한 프로젝트 관리 문화는 AI 구현에 중요한 요소로 남아 있다.
Project management best practices are required to support citizen and stakeholder engagement (Campion et al., 2020).
프로젝트 관리의 모범 사례는 시민 및 이해관계자 참여를 지원하기 위해 필요하다 (Campion et al., 2020).
Furthermore, collaboration and sharing between government departments increase complexity and require additional coordination (Giest, 2017).
더 나아가, 정부 부서 간의 협력과 공유는 복잡성을 증가시키고 추가적인 조정이 필요하다 (Giest, 2017).
Project management practices are also required to manage inertia towards sharing of data between government departments, status quo bias, and resistance from unions (Pencheva et al., 2020; van Noordt & Misuraca, 2020b; Young et al., 2019).
프로젝트 관리 관행은 또한 정부 부서 간의 데이터 공유에 대한 관성, 현상 유지 편향, 그리고 노조의 저항을 관리하는 데 필요하다(Pencheva et al., 2020; van Noordt & Misuraca, 2020b; Young et al., 2019).
4.2.3. Outcomes
The outcomes of AI diffusion are discussed as two themes: public values and public sector transformation.
AI 확산의 결과는 두 가지 주제, 즉 공공 가치와 공공 부문 혁신으로 논의된다.
Table 6 summarizes these outcomes and is discussed below.
표 6은 이러한 결과를 요약한 것이며 아래에서 논의된다.
4.2.3.1. Public values
The three public values themes are duty, service, and social.
세 가지 공공 가치 주제는 의무, 서비스, 그리고 사회적 가치이다.
The public value of duty is characterized by using AI in facilitating the democratic will by enabling citizen engagement and participation at scale (Fatima et al., 2021; Marri, Albloosh, Moussa, & Elmessiry, 2019; Rogge et al., 2017; Schedler et al., 2019).
의무라는 공공 가치는 AI를 사용하여 시민의 참여를 촉진하고 대규모로 참여를 가능하게 하여 민주적 의지를 구현하는 것으로 특징지어진다 (Fatima et al., 2021; Marri, Albloosh, Moussa, & Elmessiry, 2019; Rogge et al., 2017; Schedler et al., 2019).
Technologies such as NLP enable public managers to collect unstructured data, taking into account the wisdom of the crowd as input to policy development and decision-making (Höchtl, Parycek, & Schöllhammer, 2016).
NLP와 같은 기술은 공공 관리자가 정책 개발 및 의사 결정의 입력으로 군중의 지혜를 고려하여 비정형 데이터를 수집할 수 있게 한다(Höchtl, Parycek, & Schöllhammer, 2016).
Citizens and businesses can co-produce public services using AI-enabled platforms (Ojo, 2019).
시민과 기업은 AI를 활용한 플랫폼을 통해 공공 서비스를 공동 생산할 수 있다 (Ojo, 2019).
AI-based decision-making is discussed as techno-rational, eliminating human biases and being objective and neutral (Kuziemski & Misuraca, 2020; Young et al., 2019).
AI 기반 의사 결정은 인간의 편견을 제거하고 객관적이며 중립적인 기술적 합리성으로 논의된다 (Kuziemski & Misuraca, 2020; Young et al., 2019).
This objectivity strengthens values of integrity, honesty, and accountability in the efficient use of public funds.
이러한 객관성은 공공 자금의 효율적인 사용에서 청렴성, 정직성, 책임감을 강화한다.
The use of AI in public administration is mostly discussed in terms of enhancing service-oriented public values.
공공 행정에서 AI 사용은 주로 서비스 지향적 공공 가치를 향상시키는 측면에서 논의된다.
AI technologies enhance external public service delivery capabilities through personalization, responsiveness, and citizen orientation.
AI 기술은 개인화, 응답성 및 시민 지향을 통해 외부 공공 서비스 제공 능력을 향상시킨다.
Personalized services providing relevant information at the point of interest are achieved by developing detailed profiles of individuals and businesses (Androutsopoulou, Karacapilidis, Loukis, & Charalabidis, 2019; Chatfield & Reddick, 2018; Marri et al., 2019; Ojo, 2019; Rogge et al., 2017).
관심 지점에서 관련 정보를 제공하는 맞춤형 서비스는 개인 및 기업의 세부 프로필을 개발함으로써 달성된다 (Androutsopoulou, Karacapilidis, Loukis, & Charalabidis, 2019; Chatfield & Reddick, 2018; Marri et al., 2019; Ojo, 2019; Rogge et al., 2017).
This enables responsiveness to the needs of micro-clusters of citizens (Giest, 2017).
이는 소규모 시민 집단의 요구에 응답할 수 있도록 한다 (Giest, 2017).
Automation of application processes enables instant approval and feedback
(Androutsopoulou et al., 2019; Fatima et al., 2021) improving quality and service time.
신청 절차의 자동화는 즉각적인 승인과 피드백을 가능하게 하여(Androutsopoulou et al., 2019; Fatima et al., 2021) 서비스 품질과 시간을 개선한다.
Intelligent virtual agents and chatbots enable 24/7 access to information quickly and reliably (van Noordt & Misuraca, 2019; Wang et al., 2020).
지능형 가상 에이전트와 챗봇은 24시간 언제든지 신속하고 신뢰할 수 있는 정보 접근을 가능하게 한다 (van Noordt & Misuraca, 2019; Wang et al., 2020).
The internal aspect of service-oriented values relates to the use of AI in achieving efficiency goals.
서비스 지향적 가치의 내부적인 측면은 효율성 목표를 달성하기 위한 AI 사용과 관련된다.
The automation of simple processes and repetitive tasks enables the allocation of human resources toward higher-order tasks, alleviating workloads, improving efficiency, and enhancing productivity (Androutsopoulou et al., 2019; Chen et al., 2019; Fatima et al., 2021; Mikalef et al., 2019; van Noordt & Misuraca, 2019; Wang et al.; Young et al., 2019).
단순한 프로세스와 반복적인 작업의 자동화는 인적 자원을 고차원 작업으로 배분할 수 있게 하여 작업량을 줄이고, 효율성을 높이며 생산성을 향상시킨다 (Androutsopoulou et al., 2019; Chen et al., 2019; Fatima et al., 2021; Mikalef et al., 2019; van Noordt & Misuraca, 2019; Wang et al.; Young et al., 2019).
For complex interdependent problems, AI-augmented decision-making uncovers new options, anomaly detection, rigorous risk identification, and better service planning and interventions (Gao & Janssen, 2020; Lopes et al., 2019; A. Ojo et al., 2019).
복잡하고 상호 의존적인 문제의 경우, AI 증강 의사 결정은 새로운 옵션을 발견하고, 이상 탐지, 엄격한 위험 식별, 더 나은 서비스 계획 및 개입을 가능하게 한다 (Gao & Janssen, 2020; Lopes et al., 2019; A. Ojo et al., 2019).
Socially oriented public values are sparsely discussed as specific planned outcomes from the use of AI.
사회적으로 지향된 공공 가치는 AI 사용에서 도출된 구체적인 계획된 결과로는 드물게 논의된다.
Societal outcomes are instead considered in terms of ethical AI principles and implicit values.
사회적 결과는 대신 윤리적 AI 원칙과 암묵적인 가치 측면에서 고려된다.
These are discussed either as secondary benefits or tensions when pursuing service and duty-oriented values.
이들은 서비스 및 의무 지향적 가치를 추구할 때 부수적인 혜택 또는 갈등으로 논의된다.
For example, citizen collaboration (duty values) helps with equality and inclusiveness (Ojo et al., 2019; van Noordt & Misuraca, 2020a).
예를 들어, 시민 협력(의무적 가치)은 평등과 포용성을 돕는다 (Ojo et al., 2019; van Noordt & Misuraca, 2020a).
Or, the ability to redirect public managers towards complex societal issues by automating mundane tasks (service values) (Ojo, 2019).
또는 일상적인 작업을 자동화함으로써 공공 관리자를 복잡한 사회 문제로 재배치하는 능력(서비스 가치) (Ojo, 2019).
4.2.3.2. Public administration transformation
The adoption of AI in public administration represents disruptive innovation leading to a reconfiguration of organizational structures (Desouza et al., 2020).
공공 행정에서 AI 채택은 조직 구조의 재구성을 초래하는 파괴적 혁신을 나타낸다 (Desouza et al., 2020).
This is a step towards realizing the DEG vision envisaged with the first wave of technological innovation.
이는 첫 번째 기술 혁신 물결로 구상된 DEG 비전을 실현하는 단계이다.
Referred to as algorithmic bureaucracy, the use of AI transforms street-level bureaucrats into system-level (Henman, 2019).
알고리즘 관료제로 불리는 이 AI 사용은 일선 관료를 시스템 수준으로 변환한다 (Henman, 2019).
The positive aspects of the transformation are manifested in terms of achieving duty and service-oriented values as discussed in Section 4.2.3.1.
이 혁신의 긍정적인 측면은 4.2.3.1절에서 논의된 바와 같이 의무 및 서비스 지향적 가치를 달성하는 측면에서 나타난다.
Scholars have argued that building AI capabilities leads to a more innovative culture, thus a virtuous cycle ensues, further reinforcing the DEG vision (James & Whelan, 2022; Mikalef et al., 2021; Young et al., 2019).
학자들은 AI 역량 구축이 더 혁신적인 문화를 조성하며, 그 결과 선순환이 이어져 DEG 비전을 더욱 강화한다고 주장했다 (James & Whelan, 2022; Mikalef et al., 2021; Young et al., 2019).
The accompanying negative aspect is distancing public servants from citizens and inhibiting a rich knowledge generation avenue (Bullock, Young, & Wang, 2020; Young et al., 2019).
동반되는 부정적인 측면은 공무원들이 시민들과 멀어지게 하며 풍부한 지식 생성의 기회를 저해하는 것이다 (Bullock, Young, & Wang, 2020; Young et al., 2019).
Other negative implications include the social costs of job losses, re-skilling, and workforce displacement (Al Mutawa & Rashid, 2020; Fatima et al., 2021).
또 다른 부정적인 함의는 일자리 상실, 재교육, 노동력 대체로 인한 사회적 비용이다 (Al Mutawa & Rashid, 2020; Fatima et al., 2021).
Similar to the public values discussion, the resolution of AI tensions drives the positive and negative aspects of public sector transformation with the use of AI.
공공 가치 논의와 유사하게, AI 갈등의 해결은 AI 사용에 따른 공공 부문 혁신의 긍정적 및 부정적 측면을 주도한다.
4.2.4. AI tensions
The theme of AI tensions emerged as a global construct impacting the outcomes of AI implementation and diffusion in terms of public value creation and public sector transformation. Five sets of tensions are identified that arise as a result of a conflict between competing values.
AI 갈등 주제는 공공 가치 창출과 공공 부문 변혁 측면에서 AI 구현 및 확산의 결과에 영향을 미치는 글로벌 개념으로 나타났다. 경쟁 가치를 둘러싼 갈등의 결과로 다섯 가지 세트의 갈등이 식별되었다.
Such tensions can be “true dilemmas” where two or more values are inherently contradictory or “dilemmas in practice where tensions are not inherent” but as a result of limitations of technology or resources (Whittlestone, Nyrup, Alexandrova, Dihal, & Cave, 2019, p. 24).
이러한 갈등은 두 개 이상의 가치가 본질적으로 모순되는 “진정한 딜레마”일 수 있거나, 기술이나 자원의 한계로 인한 “실천의 딜레마”일 수 있다 (Whittlestone, Nyrup, Alexandrova, Dihal, & Cave, 2019, p. 24).
Table 7 summarises the themes and codes related to AI tensions which are discussed below.
표 7은 아래에서 논의되는 AI 갈등과 관련된 주제와 코드를 요약한 것이다.
4.2.4.1. Automation versus augmentation
The essence of automation versus augmentation tension can be distilled into three related issues.
자동화와 증강 간의 갈등의 본질은 세 가지 관련된 문제로 요약될 수 있다.
First, the level of control and public decision-making power humans should retain over AI.
첫째, AI에 대해 인간이 유지해야 할 통제 수준과 공공 의사 결정 권한이다.
Second, is the pursuit of efficiency and cost-saving goals.
둘째, 효율성과 비용 절감 목표의 추구이다.
Third, is the debate on the impact of technological advancement on jobs. 셋째, 기술 발전이 일자리에 미치는 영향에 대한 논쟁이다.
The common agreement between scholars is that automation using AI is only appropriate for repetitive and low discretionary tasks (Ahmad, Najm-ul-Islam, & Ahmed, 2017; Bullock et al., 2020; Mikalef et al., 2019).
학자들 사이의 일반적인 합의는 AI를 사용한 자동화가 반복적이고 낮은 재량 작업에만 적합하다는 것이다 (Ahmad, Najm-ul-Islam, & Ahmed, 2017; Bullock et al., 2020; Mikalef et al., 2019).
Gesk & Leyer, 2022’s analysis shows citizen disposition towards humans for delivery of specific public services while the acceptance of AI for general services is inhibited by “fear of failure” (p. 8) reflecting citizen’s perception of AI’s inability to handle exceptions.
Gesk & Leyer (2022)의 분석에 따르면 특정 공공 서비스 제공에 있어 시민들은 인간에게 더 우호적이지만, AI가 일반 서비스에 적용되는 것에 대해서는 “실패에 대한 두려움” 때문에 거부감을 느낀다고 한다(p. 8).
Higher discretionary tasks that may directly impact an individual or community are typically characterised by fuzzy success criteria and multiple interdependent systems that are difficult to model (Ballester, 2021; Young et al., 2019).
이는 AI가 예외 상황을 처리하지 못할 것이라는 시민들의 인식을 반영한다. 개인이나 공동체에 직접 영향을 미칠 수 있는 더 높은 재량 작업은 일반적으로 성공 기준이 불명확하고 상호 의존적인 여러 시스템이 있어 모델링이 어렵다 (Ballester, 2021; Young et al., 2019).
The use of AI as an augmented decision-support system for such tasks has immense benefits for generating hybrid knowledge combining complex analytical correlational options and human contextual intelligence (Ahmad et al., 2017; Liu, Tang, & Chen, 2020; Mikalef et al., 2019). The tensions arise between those seeking to implement AI for generating novel inputs to public decision-making versus those seeking efficiency (James & Whelan, 2022; Veale, Van Kleek, & Binns, 2018).
이러한 작업에 대해 증강된 의사 결정 지원 시스템으로 AI를 사용하는 것은 복잡한 분석 상관 관계 옵션과 인간의 맥락적 지능을 결합한 하이브리드 지식을 생성하는 데 엄청난 이점을 제공한다 (Ahmad et al., 2017; Liu, Tang, & Chen, 2020; Mikalef et al., 2019). 공공 의사 결정에 새로운 입력을 생성하기 위해 AI를 구현하려는 사람들과 효율성을 추구하는 사람들 사이에서 갈등이 발생한다(James & Whelan, 2022; Veale, Van Kleek, & Binns, 2018).
In a fiscally constrained environment, the pressures to adopt AI for achieving efficiency and cost savings might seem obligatory. The unknown risk of losing control to self-learning algorithms managing machine-to-machine interactions and critical public resources needs to be balanced against the apparent advantage in terms of task scalability and costs (Wirtz et al., 2018; Young et al., 2019).
재정적으로 제약이 많은 환경에서 효율성과 비용 절감을 달성하기 위해 AI를 도입해야 하는 압박은 의무적으로 느껴질 수 있다. 기계 대 기계 상호작용 및 중요한 공공 자원을 관리하는 자가 학습 알고리즘에 대한 통제력을 잃을 위험은 작업 확장성과 비용 측면에서 분명한 이점과 균형을 이루어야 한다 (Wirtz et al., 2018; Young et al., 2019).
The socially-oriented ethos of protecting citizens from algorithmic harm might conflict with the temptations of efficiency and cost savings (Misuraca, 2020).
시민을 알고리즘적 피해로부터 보호하는 사회적 지향의 윤리는 효율성 및 비용 절감의 유혹과 충돌할 수 있다 (Misuraca, 2020).
Ahn and Chen (2020, p. 249) ask the pertinent question, “how far are we going to allow AI to make [public] decisions?” and “… the process of reconciliation when there is a conflict … with human-based decisions.”
Ahn과 Chen (2020, p. 249)은 “AI가 공공 결정을 내리도록 허용할 범위는 어디까지인가?” 그리고 “인간 기반 결정과의 갈등이 있을 때 조정 과정은 무엇인가?“라는 중요한 질문을 제기한다.
The impact of AI on labour markets continues the age-old debate on workforce substitution and job losses with technological advancement. However, with AI able to automate or augment cognitive tasks, both front-line and managerial jobs are at risk (Alshahrani et al., 2021; Androutsopoulou et al., 2019; Casares, 2018; Reis, Santo, & Melão, 2019; van Noordt & Misuraca, 2020a; Wirtz et al., 2018; Zuiderwijk et al., 2021).
AI가 노동 시장에 미치는 영향은 기술 발전에 따른 인력 대체 및 일자리 손실에 대한 오랜 논쟁을 지속시킨다. 그러나 AI가 인지 작업을 자동화하거나 증강할 수 있기 때문에 최전선 및 관리직 모두 위험에 처해 있다 (Alshahrani et al., 2021; Androutsopoulou et al., 2019; Casares, 2018; Reis, Santo, & Melão, 2019; van Noordt & Misuraca, 2020a; Wirtz et al., 2018; Zuiderwijk et al., 2021).
Public administration is one of the largest employers in society and the replacement of employees with AI will have significant societal implications.
공공 행정은 사회에서 가장 큰 고용주 중 하나이며, AI로 인력을 대체하는 것은 사회에 중대한 영향을 미칠 것이다.
4.2.4.2. Nudging versus autonomy
The tension between nudging and autonomy can be viewed from the vantage of collective rights versus individual freedoms.
넛징과 자율성 간의 갈등은 집단적 권리 대 개인의 자유라는 관점에서 볼 수 있다.
State surveillance and behavioural control are often justified in terms of maintaining security and advancing collective well-being. This contrasts with individual values of liberalism and self-determination.
국가 감시와 행동 통제는 종종 안보 유지와 집단적 복지 증진을 이유로 정당화된다. 이는 자유주의와 자기결정권이라는 개인적 가치와 대조된다.
When a public administration adopts AI, citizens do not have the right to object to receiving public services (Gesk & Leyer, 2022; Reis et al., 2019). Large-scale surveillance enables governments to observe citizens and use algorithmic predictions to plan interventions influencing people’s lives, decisions, and economies (Erkut, 2020; Misuraca, 2020; Pencheva et al., 2020).
공공 행정이 AI를 도입할 때, 시민들은 공공 서비스를 받는 것에 대해 반대할 권리가 없다 (Gesk & Leyer, 2022; Reis et al., 2019). 대규모 감시는 정부가 시민들을 관찰하고 알고리즘 예측을 사용해 사람들의 삶, 결정, 경제에 영향을 미치는 개입을 계획하도록 한다 (Erkut, 2020; Misuraca, 2020; Pencheva et al., 2020).
The question of legitimacy and trust in officials in power becomes even more critical. Behavioural science and social engineering techniques using AI to influence citizens towards a policy goal might be socially beneficial but can be equally exploited for political or private motives (Kuziemski & Misuraca, 2020; Liaropoulos, 2019; van Noordt & Misuraca, 2020b).
권력자들에 대한 정당성과 신뢰 문제는 더욱 중요해진다. AI를 이용한 행동 과학 및 사회 공학 기법이 시민들을 정책 목표로 유도하는 것은 사회적으로 유익할 수 있지만 정치적 또는 사적인 동기로 악용될 수도 있다 (Kuziemski & Misuraca, 2020; Liaropoulos, 2019; van Noordt & Misuraca, 2020b).
Others argue such nudging even for altruistic policy goals threatens the core of modern democratic and liberal societies characterised by autonomy, free decision, and self-determination (Wirtz & Müller, 2018).
다른 사람들은 심지어 이타적인 정책 목표를 위한 넛징이라 할지라도 자율성과 자유로운 결정, 자기결정권을 특징으로 하는 현대 민주주의 및 자유주의 사회의 핵심을 위협한다고 주장한다 (Wirtz & Müller, 2018).
The pursuit of personalised services using AI enhances service-oriented values and customer satisfaction.
AI를 이용한 개인 맞춤형 서비스 추구는 서비스 지향적인 가치와 고객 만족도를 향상시킨다.
However, this level of personalisation can create filter bubbles (Pariser, 2011) against the ethos of public service delivery in providing consistent services and messages to all citizens alike.
그러나 이러한 수준의 개인 맞춤화는 모든 시민에게 일관된 서비스와 메시지를 제공하는 공공 서비스 제공의 정신에 반하는 필터 버블(Pariser, 2011)을 만들 수 있다.
The filter bubbles can further enable classification and behavioural control of citizens ensuing in a negative feedback loop towards algorithmic authoritarianism benefiting individuals or groups in power in the name of collective well-being.
필터 버블은 시민들의 분류 및 행동 통제를 더욱 가능하게 하여 집단적 복지라는 이름으로 권력을 가진 개인이나 그룹에게 이익이 되는 알고리즘적 권위주의로 이어질 수 있다.
4.2.4.3. Data accessibility versus security and privacy
Data privacy and security are among the most contentious topics debated in media and politics. Such debates have motivated national data protection legislation in several countries such as the EU’s General Data Protection Regulation (GDPR) (European Commission, 2016).
데이터 프라이버시와 보안은 미디어와 정치에서 가장 논란이 많은 주제 중 하나다. 이러한 논쟁은 여러 국가에서 EU의 일반 데이터 보호 규정(GDPR)과 같은 국가적 데이터 보호 법률을 촉발했다 (European Commission, 2016).
Governments generally have access to sensitive data related to taxes, health records, properties, and social benefits. The use of this data can provide a near accurate profile of citizens classified into micro-population clusters (Pencheva et al., 2020).
정부는 일반적으로 세금, 건강 기록, 자산, 사회적 혜택과 관련된 민감한 데이터에 접근할 수 있다. 이 데이터를 사용하면 미세 인구 집단으로 분류된 시민들의 거의 정확한 프로필을 제공할 수 있다 (Pencheva et al., 2020).
Citizens and front-line bureaucrats are unaware of how data generated through their interactions might be used downstream for data mining and machine learning (Veale et al., 2018) raising concerns about consent.
ernments for purposes other than what it was collected raises severe privacy-related concerns.
시민들과 최전선의 관료들은 그들의 상호작용을 통해 생성된 데이터가 데이터 마이닝 및 기계 학습을 위해 하류에서 어떻게 사용될 수 있는지에 대해 알지 못하며 (Veale et al., 2018) 이에 대한 동의 문제를 야기한다.
In some cases, the government can go to the extreme in encouraging citizens to part with data in return for getting services (Marri et al., 2019).
일부 경우에는 정부가 시민들이 서비스를 받는 대가로 데이터를 제공하도록 극단적으로 유도할 수 있다 (Marri et al., 2019).
Thus, accessibility to data and its use by governments for purposes other than what it was collected raises severe privacy-related concerns.
따라서 데이터에 대한 접근성과 수집된 목적 외의 정부 사용은 심각한 프라이버시 관련 우려를 불러일으킨다.
On one hand, use of data can lead to superior public policy and service delivery towards duty and service-oriented public values. However, at the same time, it undermines the social public value of privacy.
한편으로는 데이터 사용이 공공 의무 및 서비스 지향적인 공공 가치를 향한 우수한 공공 정책과 서비스 제공으로 이어질 수 있다. 그러나 동시에 프라이버시라는 사회적 공공 가치를 약화시킬 수 있다.
A related tension is due to limitations in technology and a constant threat to the security of collected data.
이와 관련된 갈등은 기술적 한계와 수집된 데이터 보안에 대한 지속적인 위협에서 비롯된다.
This requires specialised skills and technology to properly secure sensitive data and constantly monitor for threats that can become cost-prohibitive (Al Mutawa & Rashid, 2020; Chen et al., 2019; Clarke & Margetts, 2014; Coglianese & Lehr, 2017; Erkut, 2020; Fatima et al., 2021; Kuziemski & Misuraca, 2020; Ojo, 2019; Ojo et al., 2019; Reis et al., 2019; Rogge et al., 2017; Schedler et al., 2019; van Noordt & Misuraca, 2020a; Wirtz et al., 2018).
이를 해결하려면 민감한 데이터를 적절히 보호하고 위협을 지속적으로 모니터링할 수 있는 전문 기술과 기술이 필요하며, 이는 비용이 과도하게 발생할 수 있다 (Al Mutawa & Rashid, 2020; Chen et al., 2019; Clarke & Margetts, 2014; Coglianese & Lehr, 2017; Erkut, 2020; Fatima et al., 2021; Kuziemski & Misuraca, 2020; Ojo, 2019; Ojo et al., 2019; Reis et al., 2019; Rogge et al., 2017; Schedler et al., 2019; van Noordt & Misuraca, 2020a; Wirtz et al., 2018).
4.2.4.4. Predictive accuracy versus discrimination, biases, citizen rights
The tension between service and social-oriented values is the most severe in terms of achieving predictive accuracy at the cost of undermining citizen rights and amplifying biases and discrimination.
서비스 지향적 가치와 사회 지향적 가치 간의 갈등은 예측 정확성을 달성하는 과정에서 시민권을 훼손하고 편향과 차별을 증폭시키는 점에서 가장 심각하다.
A related debate is on the appropriateness of the type of knowledge used for decision-making by AI, i.e., correlational versus causation.
이와 관련된 논쟁은 AI가 의사 결정을 위해 사용하는 지식의 적절성, 즉 상관관계 대 인과관계에 대한 것이다.
The use of sensitive variables such as gender, religion, and race can increase the predictive power of algorithms. Even when such variables are prohibited from use in AI models, other related variables such as employment stability, two-parent households, neighborhoods, etc., can become proxies for race and socio-economic clusters, leading to higher predictability (Scurich & Krauss, 2020).
성별, 종교, 인종과 같은 민감한 변수를 사용하는 것은 알고리즘의 예측력을 높일 수 있다. 이러한 변수가 AI 모델에서 사용이 금지되더라도, 고용 안정성, 두 부모 가정, 거주 지역 등과 같은 다른 관련 변수들이 인종 및 사회경제적 집단의 대리 변수가 되어 더 높은 예측 가능성을 유도할 수 있다 (Scurich & Krauss, 2020).
However, this accuracy comes at the cost of propagating human biases and discrimination inherent in the data used for machine training (Janssen, Brous, et al., 2020; van Noordt & Misuraca, 2020b; Young et al., 2019). Public managers must decide on the acceptable error rates against the risk of marginalisation of vulnerable communities (Andrews, 2018; Coglianese & Lehr, 2017; Criado, Valero, & Villodre, 2020; Henman, 2019; Marri et al., 2019; D. Valle-Cruz et al., 2019).
그러나 이러한 정확성은 기계 학습을 위한 데이터에 내재된 인간의 편향과 차별을 확산시키는 대가를 치르게 된다 (Janssen, Brous, et al., 2020; van Noordt & Misuraca, 2020b; Young et al., 2019). 공공 관리자들은 취약한 공동체의 소외 위험에 대해 허용 가능한 오류율을 결정해야 한다 (Andrews, 2018; Coglianese & Lehr, 2017; Criado, Valero, & Villodre, 2020; Henman, 2019; Marri et al., 2019; D. Valle-Cruz et al., 2019).
The issue of the digital divide can become a double-edged sword. Disadvantaged groups are unable to provide sufficient data in the first place due to socio-economic barriers. Any policy interventions based on AI models will lack statistically significant perspectives on such clusters and thereby further exacerbating the digital divide (D. Valle-Cruz et al., 2019).
디지털 격차 문제는 양날의 검이 될 수 있다. 사회경제적 장벽으로 인해 취약 집단은 처음부터 충분한 데이터를 제공할 수 없으며, AI 모델에 기반한 정책 개입은 그러한 집단에 대한 통계적으로 유의미한 관점을 결여하게 되어 디지털 격차를 더욱 악화시킬 수 있다 (D. Valle-Cruz et al., 2019).
AI systems are prone to failures and malfunctions from time to time, learning negative behaviour from the environment (A. Ojo et al., 2019; Wirtz et al., 2018; Zuiderwijk et al., 2021).
AI 시스템은 환경에서 부정적인 행동을 학습하면서 종종 실패하거나 오작동할 수 있다 (A. Ojo et al., 2019; Wirtz et al., 2018; Zuiderwijk et al., 2021).
This will be detrimental to the well-being and justice of citizens and public administration employees (Fatima et al., 2021; Selbst, Boyd, Friedler, Venkatasubramanian, & Vertesi, 2019).
이는 시민들과 공공 행정 직원들의 복지와 정의에 해를 끼칠 것이다 (Fatima et al., 2021; Selbst, Boyd, Friedler, Venkatasubramanian, & Vertesi, 2019).
Maintenance of AI to ensure detections and rectification of models can become cost-prohibitive, requiring specialised skills and ongoing audits (Höchtl et al., 2016).
AI 모델의 탐지 및 수정 작업을 유지하기 위해서는 전문 기술과 지속적인 감사가 필요하며, 이는 비용이 많이 들 수 있다 (Höchtl et al., 2016).
Another aspect of the predictive power of AI relates to the epistemology of knowledge. Predictions generated through AI are based on historical data and correlational analysis of signs and associations found in the data (Höchtl et al., 2016; Liaropoulos, 2019).
AI의 예측력과 관련된 또 다른 측면은 지식의 인식론과 관련이 있다. AI를 통해 생성된 예측은 역사적 데이터와 데이터에서 발견된 징후와 연관성에 대한 상관 분석을 기반으로 한다 (Höchtl et al., 2016; Liaropoulos, 2019).
This epistemological stance of rationality lacking theory and context is contrasted with human traits of emotions, values, and ethics. These traits combined with domain knowledge establish causal links for making decisions on high discretion tasks (Harrison & Luna-Reyes, 2022; Wirtz et al., 2018).
이러한 이론과 맥락이 부족한 합리성의 인식론적 입장은 감정, 가치, 윤리와 같은 인간적 특성과 대조된다. 이러한 특성들은 도메인 지식과 결합하여 높은 재량 작업에 대한 의사 결정을 위한 인과 관계를 확립한다 (Harrison & Luna-Reyes, 2022; Wirtz et al., 2018).
When moral judgements are transformed into probabilistic ratios, the questions of power and legitimacy become critical. One needs to consider who is coding whose interests and the nature of the objective truth when communicated by algorithms (Ahn & Chen, 2020; Casares, 2018).
도덕적 판단이 확률적 비율로 변환될 때 권력과 정당성에 대한 문제가 중요해진다. 누가 누구의 이익을 코딩하고, 알고리즘을 통해 전달되는 객관적 진리의 본질이 무엇인지를 고려해야 한다 (Ahn & Chen, 2020; Casares, 2018).
AI making public sector decisions is akin to reducing citizens to data points, efficient and accurate but impersonal and non-democratic (Coglianese & Lehr, 2017).
공공 부문에서 AI가 의사 결정을 내리는 것은 시민들을 데이터 포인트로 축소시키는 것과 유사하며, 이는 효율적이고 정확하지만 비인간적이고 비민주적이다 (Coglianese & Lehr, 2017).
4.2.4.5. Predictive accuracy versus transparency and accountability versus gaming the system
Ensuring transparency with higher predictive accuracy presents tension in the design process.
예측 정확성을 높이면서도 투명성을 보장하는 것은 설계 과정에서 갈등을 초래한다.
AI architectures such as neural networks are challenging to reverse engineer to determine factors and weights that produced model outputs (Young et al., 2019).
신경망과 같은 AI 아키텍처는 모델 출력에 영향을 미친 요소와 가중치를 역설계하기 어렵다 (Young et al., 2019).
Private sector firms that develop such models regard this as intellectual property and are reluctant to provide design specifications (Harrison & Luna-Reyes, 2022; Mulligan & Bamberger, 2019).
이러한 모델을 개발한 민간 기업은 이를 지적 재산으로 여기며 설계 사양을 제공하는 것을 꺼려한다 (Harrison & Luna-Reyes, 2022; Mulligan & Bamberger, 2019).
This lack of transparency puts accountability and responsibility for AI-based decisions into question.
이러한 투명성의 부족은 AI 기반 의사 결정에 대한 책임과 책임성을 의문시하게 한다.
Janssen et al., 2022’s experiment shows transparency leads to more correct decisions when algorithmic options are used to support human decisions. However, a related tension ensues in the ability to game the system if such models were to become fully transparent.
Janssen et al., 2022의 실험에 따르면, 알고리즘 옵션이 인간의 결정을 지원할 때 투명성은 더 정확한 결정을 이끌어낸다. 그러나 이러한 모델이 완전히 투명해지면 시스템을 악용할 가능성에 대한 갈등이 발생한다.
AI systems are commonly referred to as black-box designs transforming input variables into predictions or classifications. The correlational analysis of large amounts of data is characterised by opaqueness in how information is handled (Makasi et al., 2021; Zuiderwijk et al., 2021).
AI 시스템은 일반적으로 입력 변수를 예측이나 분류로 변환하는 블랙박스 설계로 불린다. 대량의 데이터를 상관 분석하는 과정은 정보가 처리되는 방식에서 불투명성을 특징으로 한다 (Makasi et al., 2021; Zuiderwijk et al., 2021).
It lacks causal intuition on the statistical significance of explanatory variables (Coglianese & Lehr, 2017).
이는 설명 변수의 통계적 유의성에 대한 인과적 직관이 부족하다 (Coglianese & Lehr, 2017).
Public decisions supported by AI that cannot be explained, and more importantly justified, constitute challenges to legal accountability (Janssen, Brous, et al., 2020; Sousa, Melo, Bermejo, Farias, & Gomes, 2019; Veale & Brass, 2019).
AI에 의해 지원되는 공공 결정이 설명될 수 없고, 더 중요한 것은 정당화될 수 없다면 이는 법적 책임에 대한 도전 과제가 될 수 있다 (Janssen, Brous, et al., 2020; Sousa, Melo, Bermejo, Farias, & Gomes, 2019; Veale & Brass, 2019).
There is a lack of a legal framework as to the liability of algorithmic public decisions (Henman, 2019; Wirtz et al., 2018).
알고리즘에 기반한 공공 결정의 책임에 대한 법적 틀이 부족하다 (Henman, 2019; Wirtz et al., 2018).
Should the responsibility lie with the public administration, the technology company, or the technology itself (Chen et al., 2019)? What is the role of public servants as mediators of algorithmic decisions (Janssen, Brous, et al., 2020)? Is there a need to develop a legal stature for technology similar to businesses so that they can be held liable?
책임이 공공 행정에 있는가, 기술 회사에 있는가, 아니면 기술 자체에 있는가 (Chen et al., 2019)? 공무원은 알고리즘적 결정을 중재하는 역할을 어떻게 해야 하는가 (Janssen, Brous, et al., 2020)? 기술에 대해 기업과 유사한 법적 지위를 개발해 책임을 부여해야 할 필요가 있는가?
Transparency and explainability in AI-based decisions can garner higher trust both from public administration employees and citizens. However, the drawback of increased transparency is the ability to game the system for private motives (Janssen, Brous, et al., 2020; Ojo et al., 2019).
AI 기반 결정의 투명성과 설명 가능성은 공공 행정 직원과 시민들 모두로부터 더 높은 신뢰를 얻을 수 있다. 그러나 투명성이 증가하면 개인적 목적을 위해 시스템을 악용할 수 있는 단점이 발생한다 (Janssen, Brous, et al., 2020; Ojo et al., 2019).
A new industry might emerge in being able to manipulate public sector algorithmic decisions if the logic is transparent. Another concern is internal gaming by public administration employees towards opportunistic behaviours similar to performance measures being manipulated to meet specific targets for funding (Veale et al., 2018).
논리가 투명하면 공공 부문 알고리즘 결정을 조작할 수 있는 새로운 산업이 등장할 수 있다. 또 다른 우려는 공공 행정 직원들이 특정 자금 목표를 달성하기 위해 성과 측정치를 조작하는 기회주의적 행동과 유사한 내부 게임화이다 (Veale et al., 2018).
Thus, public administration leaders and technology vendors need to ensure a balance between opaqueness to prevent gaming of the systems against ensuring decisions can be explained and justified in a legal setting.
따라서 공공 행정 리더와 기술 공급업체는 시스템 악용을 방지하는 불투명성과 법적 상황에서 결정이 설명되고 정당화될 수 있도록 하는 균형을 보장해야 한다.
4.2.5. Data governance
The theme of data governance emerged across AI tensions as a critical component of managing such tensions.
데이터 거버넌스 주제는 이러한 갈등을 관리하는 중요한 구성 요소로서 AI 갈등 전반에 걸쳐 나타났다.
Table 7 summarises the themes and codes and is discussed below.
표 7은 주제와 코드를 요약하고 아래에서 논의된다.
The data driving AI technologies in public administration, in particular machine learning, is Big, Open, and Linked Data (BOLD) consisting of structured and unstructured formats, generated in real-time, and dependent on multiple organisations or systems with different data management practices (Alexopoulos et al., 2019; Gong & Janssen, 2021; Harrison & Luna-Reyes, 2022; Janssen, Brous, et al., 2020).
공공 행정에서 AI 기술을 주도하는 데이터, 특히 기계 학습은 실시간으로 생성되며 구조적 및 비구조적 형식으로 구성된 빅, 오픈, 링크드 데이터(BOLD)로 여러 조직 또는 시스템에 의존하며 각각의 데이터 관리 관행이 다르다 (Alexopoulos et al., 2019; Gong & Janssen, 2021; Harrison & Luna-Reyes, 2022; Janssen, Brous, et al., 2020).
In addition, AI lacking contextual domain knowledge can exacerbate data quality and validity issues (Harrison & Luna-Reyes, 2022).
또한, 맥락적 도메인 지식이 부족한 AI는 데이터 품질 및 유효성 문제를 악화시킬 수 있다 (Harrison & Luna-Reyes, 2022).
Data governance principles within public administration can ensure analogous management practices towards higher data quality and trustworthiness (Alshahrani et al., 2021; Janssen, Brous, et al., 2020).
공공 행정 내에서의 데이터 거버넌스 원칙은 더 높은 데이터 품질과 신뢰성을 보장하기 위한 유사한 관리 관행을 보장할 수 있다(Alshahrani et al., 2021; Janssen, Brous, et al., 2020).
Another component of governance is increasing the data literacy of public administrators to be able to promote and maintain such practices and question data validity and reliability within their domain knowledge (Harrison & Luna-Reyes, 2022).
거버넌스의 또 다른 구성 요소는 공공 행정가들의 데이터 리터러시를 향상시켜 이러한 관행을 촉진하고 유지하며 도메인 지식 내에서 데이터의 유효성과 신뢰성을 검토할 수 있도록 하는 것이다 (Harrison & Luna-Reyes, 2022).
Adopting a processual view of innovation, the AI adoption stage consists of “activities that pertain to recognizing a need, searching for solutions, becoming aware of existing innovations, identifying suitable [AI] innovations and proposing some for adoption” (Damanpour & Schneider, 2006, p. 217).
혁신의 과정적 관점을 채택하여, AI 채택 단계는 “필요를 인식하고, 솔루션을 찾고, 기존 혁신을 인식하며, 적절한 [AI] 혁신을 식별하고,채택할 일부를 제안하는 활동”으로 구성된다 (Damanpour & Schneider, 2006, p. 217).
Implementation of advanced computing technologies like AI needs to be first piloted and tested with low-risk applications (Desouza et al., 2020).
AI와 같은 고급 컴퓨팅 기술의 구현은 먼저 위험이 낮은 애플리케이션으로 시범 운영되고 테스트되어야 한다 (Desouza et al., 2020).
The AI implementation stage is the post-adoption phase reflecting project initiation, resource allocations and funding, iterative implementation of AI solutions, and preparing the organisation for its use (Damanpour & Schneider, 2006).
AI 구현 단계는 프로젝트 시작, 자원 배정 및 자금 조달, 반복적인 AI 솔루션 구현, 그리고 조직이 이를 사용할 준비를 하는 채택 이후 단계이다 (Damanpour & Schneider, 2006).
Finally, AI diffusion represents the rollout of a full-scale product for wider operational use following several pilot applications when its use “becomes a routine feature of the organization” (Damanpour & Schneider, 2006, p. 217).
마지막으로, AI 확산은 여러 파일럿 애플리케이션 이후에 전체 규모 제품이 운영적으로 사용되며, 그 사용이 “조직의 일상적인 기능이 되는” 시점을 나타낸다 (Damanpour & Schneider, 2006, p. 217).
Using the results of the qualitative synthesis and the theoretical framework, a future research agenda is developed for the adoption, implementation, and diffusion of AI innovation.
정성적 종합 결과와 이론적 프레임워크를 사용하여 AI 혁신의 채택, 구현, 확산에 대한 향후 연구 과제가 개발되었다.
Furthermore, the decisions on AI tensions are made during the implementation stages while their effects materialise in the diffusion stage.
또한 AI 갈등에 대한 결정은 구현 단계에서 이루어지며 그 영향은 확산 단계에서 나타난다.
These are discussed under diffusion given their embeddedness with public value creation.
이러한 결정들은 공공 가치 창출과 밀접하게 연결되어 있기 때문에 확산에서 논의된다.
The research agenda is shown in Table 8 and discussed below.
연구 과제는 표 8에 나와 있으며 아래에서 논의된다.
The TOE framework provided a theoretical lens for categorising factors influencing AI adoption, as discussed in the literature, under technology, organisational, and environmental context as discussed in Section 4.2.1.
TOE 프레임워크는 문헌에서 논의된 대로 AI 채택에 영향을 미치는 요소들을 기술적, 조직적, 환경적 맥락에서 분류하기 위한 이론적 틀을 제공했다. 이는 4.2.1절에서 논의된 바와 같다.
The findings concur with Mikalef & Gupta, 2021’s construct of AI capabilities consisting of tangible and human (reflected in the technology context) and intangible (reflected in the organisational context) resources. The emergence of the absorptive capacity construct as a global theme suggests a strong path dependency on past technology implementations and existing infrastructure, knowledge management processes, and innovative culture.
결과는 Mikalef & Gupta (2021)의 AI 역량 구성과 일치하며, 이는 기술적 맥락에서 유형적 및 인간적 자원, 조직적 맥락에서 무형적 자원을 포함한다. 흡수 능력이라는 개념의 등장으로 인해 과거의 기술 구현, 기존 인프라, 지식 관리 프로세스, 혁신 문화에 대한 강한 경로 의존성이 나타났다.
Lane, Koka, and Pathak (2006) describe two antecedents of absorptive capacity – internal and external. External factors relate to environmental conditions, knowledge characteristics, and learning relationships. Internal refers to mental models, structures, and organisational strategies. This concurs with technology and environmental contexts as external factors and organisational contexts as internal factors in the results of the review.
Lane, Koka, Pathak (2006)은 흡수 능력의 두 가지 선행 요인인 내부적 및 외부적 요인을 설명한다. 외부 요인은 환경적 조건, 지식의 특성, 학습 관계와 관련이 있다. 내부 요인은 정신적 모델, 구조, 조직 전략을 말한다. 이는 기술 및 환경적 맥락을 외부 요인으로, 조직적 맥락을 내부 요인으로 한 검토 결과와 일치한다.
The environmental pressures act as external triggers for public administration to respond to specific stimuli. The extent to which public managers can align their resource configurations to this external trigger is determined by their dynamic capabilities, organisational routines, and existing knowledge.
환경적 압력은 공공 행정이 특정 자극에 대응할 수 있는 외부적 계기로 작용한다. 공공 관리자들이 자원 구성을 이러한 외부 자극에 맞출 수 있는 정도는 동적 역량, 조직적 루틴, 기존 지식에 의해 결정된다.
Absorptive capacity enables the exploration and evaluation of AI technologies as solutions to these triggers. Thus, future qualitative and quantitative studies need to explore and test the effect of technology, organisation, environment contextual variables, and absorptive capacity on AI adoption.
흡수 능력은 이러한 자극에 대한 해결책으로 AI 기술을 탐색하고 평가할 수 있게 한다. 따라서 향후 정성적 및 정량적 연구는 기술, 조직, 환경 맥락 변수, 그리고 AI 채택에 대한 흡수 능력의 영향을 탐구하고 테스트할 필요가 있다.
The results showcase the importance of a strong project management culture for the design and implementation of AI technologies within the public administration.
결과는 공공 행정에서 AI 기술의 설계와 구현을 위해 강력한 프로젝트 관리 문화가 중요하다는 것을 보여준다.
Similar to prior technology implementations in public administration, AI implementation involves the coordination of several stakeholders, management of change related to both automation and augmentation, vendor management, and management of project costs.
공공 행정에서 이전 기술 구현과 마찬가지로, AI 구현은 여러 이해 관계자들의 협력, 자동화 및 증강과 관련된 변화 관리, 공급업체 관리, 그리고 프로젝트 비용 관리가 포함된다.
In addition, the unique aspects of AI implementation call for using agile methods and new innovative procurement methodologies.
또한, AI 구현의 독특한 측면은 애자일 방법론과 새로운 혁신적 조달 방법론의 사용을 요구한다.
Thus, future research should explore AI implementations in public administration through in-depth case studies or ethnographic studies outlining the underlying mechanisms and dynamics of AI projects.
따라서 향후 연구는 AI 프로젝트의 근본 메커니즘과 역학을 설명하는 심층 사례 연구나 민족지학적 연구를 통해 공공 행정에서의 AI 구현을 탐구해야 한다.
Quantitative studies can test the applicability of established conceptual models of technology implementations within the AI context.
정량적 연구는 AI 맥락에서 수립된 개념적 모델의 적용 가능성을 테스트할 수 있다.
As highlighted in the results, the three public value outcomes from AI diffusion are duty, service, and social.
결과에서 강조된 바와 같이, AI 확산으로 인한 세 가지 공공 가치 결과는 의무, 서비스, 그리고 사회적 가치이다.
Public administration by its very nature has several competing interests and demands, the pursuit of this pluralism often leads to conflicts between these public values.
공공 행정은 그 본질상 여러 상충되는 이익과 요구가 있으며, 이러한 다원주의의 추구는 종종 공공 가치 간의 충돌로 이어진다.
In the context of AI diffusion, conflicts between public values are embodied in AI tensions.
AI 확산의 맥락에서, 공공 가치 간의 갈등은 AI 긴장 상태로 구체화된다.
The decisions made on a wide spectrum of such apparent opposing poles during the design and implementation are deemed to emphasise certain values over others.
설계와 구현 과정에서 이러한 상반된 요소들에 대한 광범위한 결정은 특정 가치를 다른 가치보다 강조하는 것으로 간주된다.
Several pertinent research questions need to be explored related to each of the five AI tensions as outlined in Table 8.
표 8에 나와 있는 다섯 가지 AI 긴장 상태 각각에 관련된 중요한 연구 질문들이 탐구되어야 한다.
Future researchers can consider qualitative studies to explore each tension in-depth.
향후 연구자들은 각 긴장 상태를 심도 있게 탐구하기 위해 질적 연구를 고려할 수 있다.
In addition, scales can be developed and tested to measure each tension on a continuum between two opposing dimensions.
또한, 두 상반된 차원 사이의 연속선에서 각 긴장 상태를 측정하기 위한 척도를 개발하고 테스트할 수 있다.
AI tensions can also be viewed from a perceptual perspective in the way governments communicate management of these tensions impacting employees’ and citizens’ acceptance.
AI 긴장 상태는 또한 정부가 이러한 긴장 상태를 관리하는 방식이 직원과 시민들의 수용에 미치는 영향을 인식적인 관점에서 볼 수 있다.
Thus, future research will need to test the effect of decisions on AI tensions on citizen adoption.
따라서 향후 연구는 AI 긴장 상태에 대한 결정이 시민들의 수용에 미치는 영향을 테스트해야 한다.
Strong governance policies relating to acquiring, preparing, and ongoing auditing of the data can help identify and eliminate biases (Medaglia et al., 2021).
데이터의 획득, 준비 및 지속적인 감사와 관련된 강력한 거버넌스 정책은 편향을 식별하고 제거하는 데 도움이 될 수 있다(Medaglia et al., 2021).
This can partially alleviate tensions between predictive accuracy and discrimination.
이는 예측 정확성과 차별성 사이의 긴장을 부분적으로 완화할 수 있다.
Similarly, data governance principles on accessibility (see Table 1 in Janssen, Brous, et al., 2020) can help alleviate tensions related to privacy and security.
유사하게, 접근성에 관한 데이터 거버넌스 원칙(Janssen, Brous, et al., 2020의 표 1 참조)은 프라이버시와 보안 관련 긴장을 완화하는 데 도움이 될 수 있다.
Data stewardship and separation of control can become key aspects of the legal framework to define accountability of public decisions and enumerate delegation between humans and machines (Janssen, Brous, et al., 2020; Pencheva et al., 2020).
데이터 관리와 통제의 분리는 공공 결정의 책임을 정의하고 인간과 기계 간의 위임을 열거하는 법적 틀의 주요 측면이 될 수 있다(Janssen, Brous, et al., 2020; Pencheva et al., 2020).
Public administrators with advanced statistical knowledge and data management capabilities can provide domain expertise to software developers and evaluate the quality of AI outcomes improving the accuracy of these models towards the desired public value goals (Harrison & Luna-Reyes, 2022).
고급 통계 지식과 데이터 관리 능력을 가진 공공 행정자는 소프트웨어 개발자에게 도메인 전문 지식을 제공하고 AI 결과의 질을 평가하여 이러한 모델의 정확성을 원하는 공공 가치 목표에 맞게 향상시킬 수 있다(Harrison & Luna-Reyes, 2022).
Hence, future research needs to explore the role of data governance in the management of AI tensions towards public value creation.
따라서 향후 연구는 공공 가치 창출을 위한 AI 긴장 상태 관리에서 데이터 거버넌스의 역할을 탐구해야 한다.
This review aimed to synthesise current scholarship on the phenomenon of AI adoption and diffusion in public administration.
이 리뷰는 공공 행정에서 AI 채택과 확산 현상에 대한 현재 학문을 종합하는 것을 목표로 했다.
We outline four theoretical contributions.
우리는 네 가지 이론적 기여점을 제시한다.
First, adopting a multidisciplinary approach and a processual view of innovations, the full life cycle from AI adoption to diffusion was explored.
첫째, 다학문적 접근과 혁신의 과정적 관점을 채택하여 AI 채택에서 확산에 이르는 전체 생애 주기를 탐구했다.
The use of a critical realist perspective in a systematic literature review enabled us to propose underlying constructs at each stage of the process.
체계적 문헌 검토에서 비판적 실재론 관점을 사용하여 각 단계에서 근본적인 구성 요소들을 제안할 수 있었다.
We identify absorptive capacity and a comprehensive list of variables under technology, organisational, and environmental context as factors influencing AI adoption as discussed in the literature.
우리는 흡수 능력과 기술, 조직, 환경적 맥락 하의 다양한 변수들을 AI 채택에 영향을 미치는 요소로서 문헌에서 논의된 바대로 식별했다.
Thus, we propose a TOE model within the specific context of AI and public administration for future testing contributing to the technology adoption and public administration literature.
따라서 우리는 AI와 공공 행정의 특정 맥락에서 TOE 모델을 제안하여 향후 기술 채택 및 공공 행정 문헌에 기여할 수 있는 테스트를 제안한다.
Second, this review addresses the calls for using a public value-based perspective when exploring the implementation and use of AI in public administration.
둘째, 이 리뷰는 공공 행정에서 AI 구현과 사용을 탐구할 때 공공 가치 기반의 관점을 사용할 것을 요구하는 연구들을 다룬다.
AI outcomes are viewed from a vantage of public value creation leading to the identification of AI tensions.
AI 결과는 공공 가치 창출의 관점에서 보며, 이를 통해 AI 긴장 상태를 식별한다.
Third, to our knowledge, this is the first review that outlines five primary AI tensions that may be experienced as dilemmas or paradoxical tensions when implementing and using AI in public administration.
셋째, 우리가 아는 한, 이는 공공 행정에서 AI를 구현하고 사용할 때 경험할 수 있는 다섯 가지 주요 AI 긴장 상태를 딜레마 또는 역설적인 긴장 상태로 설명하는 최초의 리뷰이다.
Fourth, the suggested research questions highlight the current lack of understanding of the AI phenomenon within the public administration.
넷째, 제안된 연구 질문들은 공공 행정 내에서 AI 현상에 대한 현재의 이해 부족을 강조한다.
This also lays out a future research agenda for developing and testing theory in this area.
이는 또한 이 분야에서 이론을 개발하고 테스트할 수 있는 향후 연구 과제를 제시한다.
This review does come with limitations.
이 리뷰는 몇 가지 한계를 가지고 있다.
First, this review synthesises both conceptual and empirical literature to provide a theoretical landscape of the current thought and empirical evidence.
첫째, 이 리뷰는 개념적 문헌과 실증적 문헌을 종합하여 현재의 사상과 실증적 증거의 이론적 지형을 제공한다.
The findings are geared towards future theory development and testing and should be used within this context.
결과는 향후 이론 개발과 테스트를 목표로 하며, 이 맥락에서 사용되어야 한다.
Second, the review was limited to two specific AI technologies, ML and NLP, and the public administration context.
둘째, 이 리뷰는 두 가지 특정 AI 기술, 즉 머신러닝(ML)과 자연어 처리(NLP) 그리고 공공 행정 맥락에 한정되었다.
Future literature reviews can expand the scope of technologies as well as include a broader public sector context including law enforcement, healthcare, city planning, etc.
향후 문헌 검토는 기술 범위를 확장하고 법 집행, 의료, 도시 계획 등과 같은 더 넓은 공공 부문 맥락을 포함할 수 있다.
Third, following a systematic literature review, we intended to encompass extant literature within the defined research protocol.
셋째, 체계적 문헌 검토를 통해 정의된 연구 프로토콜 내에서 기존 문헌을 포함하려 했다.
However, AI in public administration is an active area of research and this review might have missed important publications published following our search.
그러나 공공 행정에서의 AI는 활발한 연구 분야이며, 이 리뷰는 검색 이후에 출판된 중요한 논문들을 놓쳤을 가능성이 있다.
The use of AI technologies in public administration is expeditiously accelerating with the prospect of efficient low-cost public service delivery and higher levels of citizen engagement.
공공 행정에서 AI 기술의 사용은 효율적이고 저비용의 공공 서비스 제공과 더 높은 수준의 시민 참여 가능성으로 빠르게 가속화되고 있다.
A long-awaited techno-centric governance model is around the corner.
오랫동안 기다려온 기술 중심의 거버넌스 모델이 곧 다가오고 있다.
However, similar to private sector applications, public leaders are grappling with the tensions AI introduces in service design and delivery.
그러나 민간 부문 응용 프로그램과 마찬가지로, 공공 지도자들은 AI가 서비스 설계와 제공에서 초래하는 긴장 상태에 고군분투하고 있다.
Notwithstanding several guidelines and frameworks that have been introduced by central governments and supra-national bodies, their application at the meso and micro level of public administration remains elusive.
중앙 정부와 초국가적 기구들이 도입한 여러 지침과 프레임워크에도 불구하고, 이들의 공공 행정 중간 및 미시적 수준에서의 적용은 여전히 모호하다.
This review attempted to explore the phenomenon of AI in public administration with specific goals of understanding the factors influencing AI adoption and key tensions during AI diffusion as discussed in the literature, both towards achieving the goals of public value creation.
이 리뷰는 AI 채택에 영향을 미치는 요인과 AI 확산 중 발생하는 주요 긴장 상태를 이해하는 것을 목표로 하여, 공공 가치 창출 목표를 달성하기 위한 공공 행정 내 AI 현상을 탐구하려 했다.
We used a multidisciplinary approach using theories from IS, management, and public administration literature.
우리는 정보 시스템(IS), 경영학, 공공 행정학 문헌에서 이론을 차용한 다학문적 접근 방식을 사용했다.
Through a systematic literature review, we identify TOE variables as factors influencing AI adoption.
체계적 문헌 검토를 통해 우리는 AI 채택에 영향을 미치는 요인으로 TOE 변수를 식별했다.
The construct of absorptive capacity emerged as a new theme during our analysis.
흡수 능력이라는 개념이 우리의 분석에서 새로운 주제로 떠올랐다.
Using a public value framework, we adopted the perspective that public administration leaders and managers are not just passive executors of political direction but play an important role in building the potential absorptive capacity of their organization, sensing changes in the political environment and responding to customer needs and horizontal pressures from other agencies.
공공 가치 프레임워크를 사용하여, 우리는 공공 행정 지도자와 관리자들이 정치적 지시의 수동적 실행자가 아니라, 정치 환경의 변화를 감지하고 고객의 요구와 다른 기관들로부터의 수평적 압력에 대응하며 조직의 잠재적 흡수 능력을 구축하는 데 중요한 역할을 한다는 관점을 채택했다.
Public managers strive to maximise public value through optimal use of resources.
공공 관리자는 자원의 최적 사용을 통해 공공 가치를 극대화하려 노력한다.
However, several tensions arise during the design and implementation of AI technologies.
그러나 AI 기술의 설계와 구현 과정에서 여러 긴장 상태가 발생한다.
Trade-offs made by public managers impact aggregate public value that can be realised from AI and ultimately the citizen adoption of such technologies.
공공 관리자가 내리는 절충 결정은 AI로부터 실현될 수 있는 총 공공 가치에 영향을 미치며 궁극적으로 이러한 기술의 시민 수용에 영향을 미친다.
Data governance maturity is further identified as an important component of managing some aspects of AI tensions.
데이터 거버넌스 성숙도는 AI 긴장 상태의 일부 측면을 관리하는 중요한 요소로 추가적으로 식별된다.
The suggested future research agenda lays the groundwork for addressing important research questions pertaining to understanding the AI phenomenon in public administration from a processual view.
제안된 향후 연구 과제는 공공 행정에서의 AI 현상을 과정적 관점에서 이해하는 데 관련된 중요한 연구 질문들을 다루는 토대를 마련한다.
The novel theoretical contribution of this review is the identification of five AI tensions.
이 리뷰의 새로운 이론적 기여점은 다섯 가지 AI 긴장 상태를 식별한 것이다.
Practitioners can also use the identified AI tensions to undertake a cost-benefit analysis before the design or acquisition of an AI solution for public administration needs.
실무자들도 공공 행정의 필요를 위한 AI 솔루션을 설계하거나 획득하기 전에 식별된 AI 긴장 상태를 사용하여 비용-편익 분석을 수행할 수 있다.