인공지능과 인간지성의 관계에 관한 노트
바티칸 교황청에서 2025년 1월 28일 발표한,
인공 지능(Artificial Intelligence)과 인간 지성(Human Intelligence)의 관계에 관한 노트입니다.
ANTIQUA ET NOVA
Note on the Relationship Between Artificial Intelligence and Human Intelligence
Contents
I. Introduction
II. What is Artificial Intelligence?
III. Intelligence in the Philosophical and Theological Tradition
An Integral Understanding of Human Intelligence
IV. The Role of Ethics in Guiding the Development and Use of AI
Helping Human Freedom and Decision-Making
AI, Misinformation, Deepfakes, and Abuse
AI and the Protection of Our Common Home
AI and Our Relationship with God
I. Introduction
I. 서론
1. With wisdom both ancient and new (cf. Mt. 13:52), we are called to reflect on the current challenges and opportunities posed by scientific and technological advancements, particularly by the recent development of Artificial Intelligence (AI). The Christian tradition regards the gift of intelligence as an essential aspect of how humans are created “in the image of God” (Gen. 1:27). Starting from an integral vision of the human person and the biblical calling to “till” and “keep” the earth (Gen. 2:15), the Church emphasizes that this gift of intelligence should be expressed through the responsible use of reason and technical abilities in the stewardship of the created world.
1. “옛 것과 새 것”(마태 13:52)의 지혜로, 우리는 과학기술의 발전, 특히 최근에 급격히 발전한 인공지능(이하 AI)이 야기하는 도전과 기회에 대해 성찰하도록 부름받았다. 기독교 전통은 지성의 선물을 인간이 “하느님의 모습대로”(창세기 1:27) 창조된 핵심 요소로 간주한다. 인간에 대한 통합적 비전과 “땅을 경작하고 돌보라”(창세기 2:15)는 성서적 소명을 바탕으로, 교회는 이 지성의 선물이 창조된 세상을 책임감 있게 돌보는 합리적 사고와 기술적 능력의 올바른 사용을 통해 드러나야 함을 강조한다.
2. The Church encourages the advancement of science, technology, the arts, and other forms of human endeavor, viewing them as part of the “collaboration of man and woman with God in perfecting the visible creation.”[1] As Sirach affirms, God “gave skill to human beings, that he might be glorified in his marvelous works” (Sir. 38:6). Human abilities and creativity come from God and, when used rightly, glorify God by reflecting his wisdom and goodness. In light of this, when we ask ourselves what it means to “be human,” we cannot exclude a consideration of our scientific and technological abilities.
2. 교회는 과학, 기술, 예술 그리고 다양한 인간 활동의 발전을 장려하며, 이를 "보이는 창조 세계를 완성하는 과정에서 남성과 여성이 하나님과 협력하는 것"의 일부로 본다.[1] 집회서(시라크서)가 말하듯이, 하느님께서는 “사람들에게 기술을 주셨는데, 이는 그분의 놀라운 업적을 드러내시려는 것”(시라 38:6)이었다. 인간의 능력과 창의성은 하느님께서 부여하신 것이며, 올바르게 사용될 때, 그것들은 그분의 지혜와 선함을 반영하여 하느님을 영광스럽게 한다. 이러한 맥락에서 우리가 ‘인간이 된다는 것’의 의미를 스스로 묻는다면, 우리의 과학적·기술적 능력에 대한 고려를 결코 빠뜨릴 수 없다.
3. It is within this perspective that the present Note addresses the anthropological and ethical challenges raised by AI—issues that are particularly significant, as one of the goals of this technology is to imitate the human intelligence that designed it. For instance, unlike many other human creations, AI can be trained on the results of human creativity and then generate new “artifacts” with a level of speed and skill that often rivals or surpasses what humans can do, such as producing text or images indistinguishable from human compositions. This raises critical concerns about AI’s potential role in the growing crisis of truth in the public forum. Moreover, this technology is designed to learn and make certain choices autonomously, adapting to new situations and providing solutions not foreseen by its programmers, and thus, it raises fundamental questions about ethical responsibility and human safety, with broader implications for society as a whole. This new situation has prompted many people to reflect on what it means to be human and the role of humanity in the world.
3. 바로 이 관점에서 이 노트는 AI가 제기하는 인간학적·윤리적 과제에 주목하고자 한다. AI의 주요 목표 중 하나가 AI를 만든 ‘인간 지성’을 모방하는 데 있기 때문에, 이는 특히 중요하다. 예를 들어, 다른 많은 인간의 산물과 달리, AI는 인간의 창의적 결과물들을 학습한 뒤, 빠르고 숙련된 방식으로 새로운 ‘창작물’을 만들어낼 수 있다. 때로는 인간이 만든 텍스트나 이미지를 거의 구별할 수 없을 만큼 생산해내며, 이는 공론장에서 팽배한 ‘진실성 위기’에 대한 심각한 우려를 불러일으킨다. 게다가 AI는 스스로 학습하여 어느 정도 자율적으로 선택을 내리고, 새로운 상황에 적응하며, 프로그래머가 예상하지 못한 해법을 내놓도록 설계되어 있다. 이는 윤리적 책임과 인간의 안전, 더 나아가 사회 전체에 대한 근본적 물음을 야기한다. 이러한 새로운 상황 속에서, 많은 이들이 인간이란 무엇이며 세상에서 인간이 차지하는 역할이 무엇인지 다시금 성찰하고 있다.
4. Taking all this into account, there is broad consensus that AI marks a new and significant phase in humanity’s engagement with technology, placing it at the heart of what Pope Francis has described as an “epochal change.”[2] Its impact is felt globally and in a wide range of areas, including interpersonal relationships, education, work, art, healthcare, law, warfare, and international relations. As AI advances rapidly toward even greater achievements, it is critically important to consider its anthropological and ethical implications. This involves not only mitigating risks and preventing harm but also ensuring that its applications are used to promote human progress and the common good.
4. 이를 종합해볼 때, AI는 인류가 기술과 맺어온 관계의 새로운 중대한 단계를 보여주며, 프란치스코 교황이 말한 “시대적 변화”[2]의 중심에 서 있다는 점에 대체로 공감대가 형성되어 있다. AI의 영향은 전 세계적으로, 인간관계, 교육, 노동, 예술, 보건의료, 법률, 군사, 국제관계 등 매우 광범위한 분야에 걸쳐 나타난다. AI가 더욱 놀라운 성취를 향해 빠르게 나아가는 상황에서, 인간학적·윤리적 함의를 숙고하는 일은 매우 중요하다. 이는 단지 위험을 경감하거나 피해를 예방하는 것을 넘어, AI가 참된 인간 발전과 공동선을 증진하도록 활용해야 한다는 과제도 함축한다.
5. To contribute positively to the discernment regarding AI, and in response to Pope Francis’ call for a renewed “wisdom of heart,”[3] the Church offers its experience through the anthropological and ethical reflections contained in this Note. Committed to its active role in the global dialogue on these issues, the Church invites those entrusted with transmitting the faith—including parents, teachers, pastors, and bishops—to dedicate themselves to this critical subject with care and attention. While this document is intended especially for them, it is also meant to be accessible to a broader audience, particularly those who share the conviction that scientific and technological advances should be directed toward serving the human person and the common good.[4]
5. AI에 관하여 이러한 분별 작업에 건설적으로 기여하기 위해, 그리고 프란치스코 교황이 요청하신 새롭고도 참된 “마음의 지혜”[3]에 응답하여, 교회는 이 노트에 담긴 인간학적·윤리적 성찰을 제안함으로써, 오랜 경험을 바탕으로 세계적 담론에 참여하고자 한다. 교회는 신앙을 전수할 책임을 맡은 이들(부모, 교사, 사목자, 주교 등)에게 이 중요한 문제에 관심을 갖고 주의를 기울이도록 촉구한다. 이 문서는 이들을 주요 대상으로 하지만, 과학기술의 발전이 인간과 공동선을 위해 봉사해야 한다는 확신을 공유하는 보다 폭넓은 이들을 위해서도 작성되었다.[4]
6. To this end, the document begins by distinguishing between concepts of intelligence in AI and in human intelligence. It then explores the Christian understanding of human intelligence, providing a framework rooted in the Church’s philosophical and theological tradition. Finally, the document offers guidelines to ensure that the development and use of AI uphold human dignity and promote the integral development of the human person and society.
6. 이를 위해, 본 문서는 먼저 AI에서 말하는 ‘지성’ 개념과 인간 지성이 지닌 특징을 구분한다. 그 다음, 교회의 철학적·신학적 전통을 바탕으로 하는 기독교적 인간 지성 이해를 제시한다. 마지막으로, AI의 개발과 사용이 인간의 존엄성을 유지하고, 인간 및 사회의 통합적 발전을 보장할 수 있도록 가이드라인을 제안한다.
II. What is Artificial Intelligence?
II. 인공지능이란 무엇인가?
7. The concept of “intelligence” in AI has evolved over time, drawing on a range of ideas from various disciplines. While its origins extend back centuries, a significant milestone occurred in 1956 when the American computer scientist John McCarthy organized a summer workshop at Dartmouth University to explore the problem of “Artificial Intelligence,” which he defined as “that of making a machine behave in ways that would be called intelligent if a human were so behaving.” [5] This workshop launched a research program focused on designing machines capable of performing tasks typically associated with the human intellect and intelligent behavior.
7. AI에서 말하는 “지성” 개념은 시간이 흐르면서 여러 학문 분야에서 다양한 아이디어를 흡수하며 발전해 왔다. 그 기원은 수 세기에 걸쳐 거슬러 올라가지만, 특히 1956년 미국의 컴퓨터 과학자 존 매카시(John McCarthy)가 다트머스 대학에서 여름 워크숍을 열어 “인공지능(Artificial Intelligence)” 문제를 논의한 사건이 중요한 이정표가 되었다. 그는 당시 AI를 “만일 인간이 그러한 행동을 보인다면 ‘지능적’이라고 불릴 만한 행동을 기계가 하도록 만드는 문제”[5]로 정의했다. 이 워크숍은 지적 능력과 지적 행동이 인간 특유의 것이라 여겨져 온 작업을 수행할 수 있는 기계를 만드는 연구 프로그램의 출발점이 되었다.
8. Since then, AI research has advanced rapidly, leading to the development of complex systems capable of performing highly sophisticated tasks.[6] These so-called “narrow AI” systems are typically designed to handle specific and limited functions, such as translating languages, predicting the trajectory of a storm, classifying images, answering questions, or generating visual content at the user’s request. While the definition of “intelligence” in AI research varies, most contemporary AI systems—particularly those using machine learning—rely on statistical inference rather than logical deduction. By analyzing large datasets to identify patterns, AI can “predict”[7] outcomes and propose new approaches, mimicking some cognitive processes typical of human problem-solving. Such achievements have been made possible through advances in computing technology (including neural networks, unsupervised machine learning, and evolutionary algorithms) as well as hardware innovations (such as specialized processors). Together, these technologies enable AI systems to respond to various forms of human input, adapt to new situations, and even suggest novel solutions not anticipated by their original programmers.[8]
8. 그 후 AI 연구는 빠르게 발전하며 고도로 복잡한 작업을 수행할 수 있는 복합 시스템을 탄생시켰다.[6] 이렇게 이른바 “좁은(특화형) AI” 시스템은, 예컨대 언어 번역, 폭풍의 이동 경로 예측, 이미지 분류, 사용자의 요구에 따라 텍스트·시각 자료 생성 등 특정하고 제한된 기능을 처리하도록 설계된다. “지능”을 어떻게 정의하느냐는 AI 연구에서 견해 차이가 있지만, 특히 머신러닝(machine learning)을 활용하는 현대 AI 시스템 대부분은 논리적 연역이 아니라 통계적 추론에 기반한다. 대규모 데이터 세트를 분석해 패턴을 파악함으로써 AI는 어떤 결과를 “예측”[7]하거나 새로운 접근법을 제시하여, 인간이 문제를 해결할 때 보이는 일부 인지 과정을 모방한다. 이런 진전은 신경망(neural networks), 비감독 학습(unsupervised learning), 진화 알고리즘(evolutionary algorithms) 등 컴퓨팅 기술의 발전과 GPU와 같은 하드웨어 혁신을 통해 가능해졌다. 이로써 AI는 다양한 형태의 인간 입력에 대응하고, 새로운 상황에 적응하며, 프로그래머가 예상하지 못한 해법도 제시할 수 있게 되었다.[8]
9. Due to these rapid advancements, many tasks once managed exclusively by humans are now entrusted to AI. These systems can augment or even supersede what humans are able to do in many fields, particularly in specialized areas such as data analysis, image recognition, and medical diagnosis. While each “narrow AI” application is designed for a specific task, many researchers aspire to develop what is known as “Artificial General Intelligence” (AGI)—a single system capable of operating across all cognitive domains and performing any task within the scope of human intelligence. Some even argue that AGI could one day achieve the state of “superintelligence,” surpassing human intellectual capacities, or contribute to “super-longevity” through advances in biotechnology. Others, however, fear that these possibilities, even if hypothetical, could one day eclipse the human person, while still others welcome this potential transformation.[9]
9. 이처럼 급속도로 발전함에 따라, 이전에는 인간이 독점적으로 맡았던 작업들 중 상당수가 AI에 수행되고 있다. 특히 데이터 분석, 이미지 인식, 의료 진단 등 전문 분야에서, AI 시스템은 인간의 능력을 보완하거나 심지어 대체하기도 한다. 이런 각각의 “좁은 AI” 앱은 특정 업무를 수행하도록 설계되지만, 일부 연구자들은 ‘인공지능 일반(AGI, Artificial General Intelligence)’으로 알려진, - 인간 지성의 모든 인지 영역에서 작동하면서 인간이 할 수 있는 모든 과업을 수행할 수 있는 단일 시스템의 개발을 꿈꾼다. 또 어떤 이들은 AGI가 언젠가 “슈퍼지능(superintelligence)”에 도달하여 인간의 지적 역량을 뛰어넘거나, 바이오테크놀로지와 결합하여 “슈퍼 장수”(super-longevity)를 실현할 수 있다고 주장한다. 그러나 이러한 가능성이 현실화될 경우, 인간성을 위협할 수도 있다는 우려가 있는 반면, 일부는 이를 새로운 기회로 받아들이기도 합니다.[9]
10. Underlying this and many other perspectives on the subject is the implicit assumption that the term “intelligence” can be used in the same way to refer to both human intelligence and AI. Yet, this does not capture the full scope of the concept. In the case of humans, intelligence is a faculty that pertains to the person in his or her entirety, whereas in the context of AI, “intelligence” is understood functionally, often with the presumption that the activities characteristic of the human mind can be broken down into digitized steps that machines can replicate.[10]
10. 이와 같은 다양한 견해 이면에는, 인간 지성과 AI에 동일하게 “지성”이라는 용어를 적용해도 된다는 전제 또는 가정이 깔려 있다. 하지만 이는 지성 개념의 전체적 의미를 반영하지 못한다. 인간의 경우, 지성은 개인이 가진 인격 전체에 속하는 능력이지만, AI의 문맥에서 “지성”은 종종 인간의 사고 활동이 기계가 복제할 수 있는 디지털화된 단계로 나누어질 수 있다는 가정 하에 기능적으로 이해되는 것이다[10]
11. This functional perspective is exemplified by the “Turing Test,” which considers a machine “intelligent” if a person cannot distinguish its behavior from that of a human.[11] However, in this context, the term “behavior” refers only to the performance of specific intellectual tasks; it does not account for the full breadth of human experience, which includes abstraction, emotions, creativity, and the aesthetic, moral, and religious sensibilities. Nor does it encompass the full range of expressions characteristic of the human mind. Instead, in the case of AI, the “intelligence” of a system is evaluated methodologically, but also reductively, based on its ability to produce appropriate responses—in this case, those associated with the human intellect—regardless of how those responses are generated.
11. 이런 기능적 접근 방식을 가장 잘 보여주는 것이 이른바 “튜링 테스트(Turing Test)”다. 이는 기계의 행동이 인간인지 기계인지 구별할 수 없을 정도라면 그 기계를 “지적”이라고 평가한다.[11] 그러나 여기서 말하는 “행동”은 특정 지적 과업의 수행 능력에만 초점을 두며, 추상적 사고나 감정, 창의성, 미적·도덕적·종교적 감수성 등 인간 경험 전반을 고려하지 않는다. 또한 이는 인간 정신이 보여주는 폭넓은 표현 방식을 온전히 포괄하지 못한다. AI의 경우, “지성”은 인간 지능과 연계된 적절한 반응을 생성할 수 있는 능력을 바탕으로 평가되지만, 그 결과물이 생성되는 방식은 고려 대상에서 제외된다.
12. AI’s advanced features give it sophisticated abilities to perform tasks, but not the ability to think.[12] This distinction is crucially important, as the way “intelligence” is defined inevitably shapes how we understand the relationship between human thought and this technology.[13] To appreciate this, one must recall the richness of the philosophical tradition and Christian theology, which offer a deeper and more comprehensive understanding of intelligence—an understanding that is central to the Church’s teaching on the nature, dignity, and vocation of the human person.[14]
12. AI가 지닌 고급 기능은 복잡한 작업을 수행할 수 있는 능력을 제공하지만, 스스로 사고하는 능력을 부여하지는 않는다.[12] 이 차이는 매우 중요하다. “지성”을 어떻게 정의하느냐에 따라 필연적으로 인간 사고와 기술의 관계에 대한 이해가 달라지기 때문이다.[13] 이를 분명히 하려면, 교회가 인간의 본성, 존엄성, 소명에 대한 교회의 가르침의 핵심을 이루는, 지능에 대한 더 깊고 더 많은 이해를 주는 철학적·신학적 전통의 풍부한 지성 개념을 상기해야 한다.[14]
III. Intelligence in the Philosophical and Theological Tradition
III. 철학적·신학적 전통에서의 지성 이해
Rationality
이성적 존재
13. From the dawn of human self-reflection, the mind has played a central role in understanding what it means to be “human.” Aristotle observed that “all people by nature desire to know.”[15] This knowledge, with its capacity for abstraction that grasps the nature and meaning of things, sets humans apart from the animal world.[16] As philosophers, theologians, and psychologists have examined the exact nature of this intellectual faculty, they have also explored how humans understand the world and their unique place within it. Through this exploration, the Christian tradition has come to understand the human person as a being consisting of both body and soul—deeply connected to this world and yet transcending it.[17]
13. 인류가 자신을 반성하기 시작한 이래로, 정신(마음)은 “인간다움”을 이해하는 데 있어 핵심적 위치를 차지해 왔다. 아리스토텔레스가 말했듯, “사람은 누구나 본성적으로 알고자 한다.”[15] 이러한 지식, 즉 사물의 본성과 의미를 추상적으로 파악할 수 있는 능력은 인간을 동물 세계와 구분짓는다.[16] 이 지적 능력이 구체적으로 어떤 성격을 띠는지, 또 인간은 세상을 어떻게 이해하며 세상 속에서 어떤 독특한 지위를 차지하는지에 대해 철학자·신학자·심리학자들은 오랜 연구를 거듭해 왔다. 그리고 이를 통해, 기독교 전통은 인간을 몸과 영혼이 결합된 존재 — 이 세상에 깊이 연결되어 있으면서 동시에 이를 초월하는—로 이해하게 되었다.[17]
14. In the classical tradition, the concept of intelligence is often understood through the complementary concepts of “reason” (ratio) and “intellect” (intellectus). These are not separate faculties but, as Saint Thomas Aquinas explains, they are two modes in which the same intelligence operates: “The term intellect is inferred from the inward grasp of the truth, while the name reason is taken from the inquisitive and discursive process.”[18] This concise description highlights the two fundamental and complementary dimensions of human intelligence. Intellectus refers to the intuitive grasp of the truth—that is, apprehending it with the “eyes” of the mind—which precedes and grounds argumentation itself. Ratio pertains to reasoning proper: the discursive, analytical process that leads to judgment. Together, intellect and reason form the two facets of the act of intelligere, “the proper operation of the human being as such.”[19]
14. 고전 전통에서 지능의 개념은 흔히 “이성(ratio)”과 “지성(intellectus)”이라는 보완적 개념으로 설명된다. 이 둘은 별개의 능력이 아니라, 토마스 아퀴나스가 말하듯 “동일한 지성이 작동하는 두 방식”이다. 즉 “지성이란 말은 진리를 내면적으로 파악한다는 데서 나오고, 이성이란 말은 탐구하고 논증하는 과정에서 비롯된다.”[18] 이 간단한 설명은 인간 지능의 두 가지 기초적이며 보완적인 차원을 강조한다. ‘지성(intellectus)’은 진리를 ‘마음의 눈’으로 직관적으로 붙잡는 능력이며, 이는 논증 자체에 앞서고 그 토대를 이룬다. ‘이성(ratio)’은 고유한 의미에서의 추론, 즉 분별하고 분석하여 판단에 이르는 과정이다. 지성과 이성은 함께 “인간이 본성상 행할 수 있는 고유한 활동”인 인간만의 특유한 이해 행위(인텔리제레, intelligere)의 두 얼굴을 이룬다.[19]
15. Describing the human person as a “rational” being does not reduce the person to a specific mode of thought; rather, it recognizes that the ability for intellectual understanding shapes and permeates all aspects of human activity. [20] Whether exercised well or poorly, this capacity is an intrinsic aspect of human nature. In this sense, the “term ‘rational’ encompasses all the capacities of the human person,” including those related to “knowing and understanding, as well as those of willing, loving, choosing, and desiring; it also includes all corporeal functions closely related to these abilities.” [21] This comprehensive perspective underscores how, in the human person, created in the “image of God,” reason is integrated in a way that elevates, shapes, and transforms both the person’s will and actions. [22]
15. 인간을 “이성적” 존재라 부르는 것은 인간을 특정 사고 양식으로 축소하지 않는다. 오히려, 진리를 이해하는 능력이 인간의 모든 활동에 깊이 스며들어 있으며, 그것을 고양하고 형성한다는 사실을 인정하는 것이다.[20] 이 능력이 올바로 사용되든 혹은 그 반대이든, 그것은 인간의 본성에 속한다. 이런 의미에서 “‘이성적’이라는 말은 모든 인간적 역량을 포괄”하는데, 이는 “인식하고 이해하는 능력뿐 아니라, 의지, 사랑, 선택, 욕망과 밀접히 연관된 모든 신체적 기능까지 포함”한다.[21] 이러한 포괄적인 이해는, “하느님의 형상”으로 창조된 인간 안에서, 이성이 인간의 의지와 행동을 높이고, 형성하고, 변화시키는 방식으로 얼마나 통합되는 지를 강조한다.[22]
Embodiment
육체화
16. Christian thought considers the intellectual faculties of the human person within the framework of an integral anthropology that views the human being as essentially embodied. In the human person, spirit and matter “are not two natures united, but rather their union forms a single nature.”[23] In other words, the soul is not merely the immaterial “part” of the person contained within the body, nor is the body an outer shell housing an intangible “core.” Rather, the entire human person is simultaneously both material and spiritual. This understanding reflects the teaching of Sacred Scripture, which views the human person as a being who lives out relationships with God and others (and thus, an authentically spiritual dimension) within and through this embodied existence.[24] The profound meaning of this condition is further illuminated by the mystery of the Incarnation, through which God himself took on our flesh and “raised it up to a sublime dignity.”[25]
16. 기독교 사상은 인간의 지적 능력을, 본질적으로 육체를 가진 통합적 인간학(integral anthropology) 틀 안에서 이해한다. 인간 안에서 영혼과 물질은 “별개의 두 본성이 결합된 것이 아니라, 둘의 결합으로 하나의 본성이 형성된다.”[23] 다시 말해, 영혼은 몸 안에 거주하는 ‘비물질적 부분’에 불과하지 않고, 몸 역시 비물질적 ‘핵’을 감싸고 있는 외피가 아니다. 인간은 온전히 물질적이면서도 동시에 영적인 존재이다. 이러한 이해는 “육체화된 존재” 안에서 하느님 및 타인과의 관계(즉, 참으로 영적인 차원)를 실현한다는 성서의 가르침을 반영한다.[24] 그리고 이것이 더욱 심오한 의미를 지니게 되는 것은, 성육신의 신비 안에서, 하느님 스스로 우리의 몸을 취하심으로써 “몸을 고귀한 존엄으로 끌어올리셨”기 때문이다.[25]
17. Although deeply rooted in bodily existence, the human person transcends the material world through the soul, which is “almost on the horizon of eternity and time.”[26] The intellect's capacity for transcendence and the self-possessed freedom of the will belong to the soul, by which the human person “shares in the light of the divine mind.”[27] Nevertheless, the human spirit does not exercise its normal mode of knowledge without the body.[28] In this way, the intellectual faculties of the human person are an integral part of an anthropology that recognizes that the human person is a “unity of body and soul.”[29] Further aspects of this understanding will be developed in what follows.
17. 인간은 몸 안에 깊이 뿌리내리고 있지만, 영혼을 통해 물질세계를 초월하며, 영혼은 “마치 영원과 시간의 경계”[26]에 존재한다. 초월적인 지적 능력과 자유로운 의지는 인간이 “성령의 빛을 공유하는” 영혼에 속한다.[27] 그렇지만 인간 정신은 몸을 떠나서는 보통의 인식을 작동할 수 없다.[28] 이런 의미에서, 인간의 지적 능력은 “몸과 영혼의 통일체”라는 인간학의 필수적인 부분이다.[29] 이 내용을 다음 단락에서 더 살펴볼 것이다.
Relationality
관계적 존재
18. Human beings are “ordered by their very nature to interpersonal communion,”[30] possessing the capacity to know one another, to give themselves in love, and to enter into communion with others. Accordingly, human intelligence is not an isolated faculty but is exercised in relationships, finding its fullest expression in dialogue, collaboration, and solidarity. We learn with others, and we learn through others.
18. 인간은 “그 본성상 대인적 친교를 지향”[30]하며, 서로를 인식하고 사랑을 주고 받고, 타인과의 친교를 맺을 수 있는 능력을 지닌다. 따라서 인간 지능은 고립된 능력이 아니며, 관계 속에서 작동되고, 대화와 협력, 연대를 통해 완전히 드러난다. 우리는 다른 사람과 함께 배우고, 다른 사람을 통해 배운다.
19. The relational orientation of the human person is ultimately grounded in the eternal self-giving of the Triune God, whose love is revealed in creation and redemption.[31] The human person is “called to share, by knowledge and love, in God’s own life.”[32]
19. 인간의 이러한 관계적 지향성은 삼위일체 하느님의 영원한 자기 내어줌에서 비롯되며, 삼위일체 하느님의 사랑은 창조와 구원으로 드러난다.[31] 인간은 “알고 사랑함으로써 하느님의 삶에 참여하도록 부름”받았다.[32]
20. This vocation to communion with God is necessarily tied to the call to communion with others. Love of God cannot be separated from love for one’s neighbor (cf. 1 Jn. 4:20; Mt. 22:37-39). By the grace of sharing God’s life, Christians are also called to imitate Christ’s outpouring gift (cf. 2 Cor. 9:8-11; Eph. 5:1-2) by following his command to “love one another, as I have loved you” (Jn. 13:34).[33] Love and service, echoing the divine life of self-giving, transcend self-interest to respond more fully to the human vocation (cf. 1 Jn. 2:9). Even more sublime than knowing many things is the commitment to care for one another, for if “I understand all mysteries and all knowledge [...] but do not have love, I am nothing” (1 Cor. 13:2).
20. 하느님과의 친교로 초대받은 이 소명은 필연적으로 타인과의 친교 소명과 연결된다. 하느님 사랑은 이웃 사랑과 분리될 수 없다(참조. 1 요한 4:20; 마태 22:37-39 참조). 하느님의 삶에 참여하는 영광을 통해, 그리스도교 신자들은 그리스도의 자기 내어줌을 본받도록 부름받으며(참조. 2 코린 9:8-11; 에페 5:1-2 참조), “내가 너희를 사랑한 것처럼 너희도 서로 사랑하여라”(요한 13:34)라는 주님 말씀을 따르도록 초대된다.[33] 이처럼 자기 이익만을 추구하지 않고, 하느님이 보여주신 자기 내어줌의 삶을 닮아 사랑과 섬김에 헌신함으로써, 인간은 더욱 완전하게 자신의 소명을 성취한다(참조. 1 요한 2:9 참조). 많은 것을 아는 것보다 더 고귀한 것은 서로를 돌보는 것이다. 왜냐하면 만일 “내가 모든 신비와 모든 지식을 안다 해도 […] 사랑이 없으면 나는 아무것도 아니”(1 코린 13:2)기 때문이다.
Relationship with the Truth
진리와의 관계
21. Human intelligence is ultimately “God’s gift fashioned for the assimilation of truth.”[34]In the dual sense of intellectus-ratio, it enables the person to explore realities that surpass mere sensory experience or utility, since “the desire for truth is part of human nature itself. It is an innate property of human reason to ask why things are as they are.”[35] Moving beyond the limits of empirical data, human intelligence can “with genuine certitude attain to reality itself as knowable.”[36] While reality remains only partially known, the desire for truth “spurs reason always to go further; indeed, it is as if reason were overwhelmed to see that it can always go beyond what it has already achieved.”[37] Although Truth in itself transcends the boundaries of human intelligence, it irresistibly attracts it.[38] Drawn by this attraction, the human person is led to seek “truths of a higher order.”[39]
21. 인간의 지성은 궁극적으로 “하느님의 선물로서, 진리를 이해하도록 형성된 것”[34]이다. 지성이 지닌 이중 구조인 intellectus-ratio는 단순히 감각 경험이나 유용성의 범위를 넘어서는 실재들을 탐색할 수 있도록 한다. 이는 “진리를 향한 갈망이 인간 본성 자체의 일부분이기 때문”이다. 곧 “사물이 그러한 이유를 묻는 것은 인간 이성의 고유한 성향”이라는 것이다.[35] 이렇게 인간 지성은 경험적 자료를 넘어 “진정한 확실성으로써 실재 그 자체에 도달할 수 있다.”[36] 물론 실재가 부분적으로만 알려진 상태라도, 진리에 대한 갈망은 “이루어낸 것들을 넘어 더 멀리 나아가도록 이성을 재촉”한다. [37] 진리 자체는 인간 지성을 초월하지만, 그 지성은 저항할 수 없이 매혹된다. 인간은 이러한 진리에 매혹되어 끊임없이 더 높은 차원의 진리를 탐구하게 된다.[38]
22. This innate drive toward the pursuit of truth is especially evident in the distinctly human capacities for semantic understanding and creativity,[40] through which this search unfolds in a “manner that is appropriate to the social nature and dignity of the human person.”[41] Likewise, a steadfast orientation to the truth is essential for charity to be both authentic and universal.[42]
22. 인간 지성이 지닌 이런 진리 추구 본능은 ‘의미를 이해하고 창조’하는 인간 특유의 능력에서 특히 드러나며,[39] 이는 “인간의 사회적 본성과 존엄에 부합하는 방식”으로 전개된다.[40] 진리에 대한 꾸준한 지향은 자선 역시 진실하고 보편적인 자선에 필수적이다.[41]
23. The search for truth finds its highest expression in openness to realities that transcend the physical and created world. In God, all truths attain their ultimate and original meaning.[43] Entrusting oneself to God is a “fundamental decision that engages the whole person.”[44] In this way, the human person becomes fully what he or she is called to be: “the intellect and the will display their spiritual nature,” enabling the person “to act in a way that realizes personal freedom to the full.”[45]
23. 궁극적으로 인간 지성은 물질적이고 창조된 세계를 넘어서는 실재에 대해 마음을 열 때 가장 높은 차원에 이른다. 그 모든 진리는 하느님 안에서 최종적이며 본래적인 의미를 얻는다.[43] 인간이 하느님께 자신을 내어맡긴다는 것은 “인간 전체를 수반하는 근원적 결단”이다.[44] 이로써 인간은 완전히 자신이 부름받은 존재가 되고, “지성과 의지는 그들의 영적 본성을 드러내고,” 이를 통해 “인간은 개인적 자유를 온전히 실현하는 방식으로 행동하게 된다.”[45]
Stewardship of the World
세계에 대한 청지기적 소명
24. The Christian faith understands creation as the free act of the Triune God, who, as Saint Bonaventure of Bagnoregio explains, creates “not to increase his glory, but to show it forth and to communicate it.”[46] Since God creates according to his Wisdom (cf. Wis. 9:9; Jer. 10:12), creation is imbued with an intrinsic order that reflects God’s plan (cf. Gen. 1; Dan. 2:21-22; Is. 45:18; Ps. 74:12-17; 104),[47] within which God has called human beings to assume a unique role: to cultivate and care for the world.[48]
24. 기독교 신앙은 창조를 삼위일체 하느님의 자유로운 행위로 이해한다. 성 보나벤투라(Bonaventura)는, 하느님이 “자신의 영광을 증대하기 위해서가 아니라, 그것을 드러내고 전달하기 위해” 창조한 것이라고 설명한다.[46] 또한 하나님은 하느님의 지혜에 따라 창조하므로(지혜 9:9; 예레 10:12 참조), 창조물 안에는 하느님 계획을 반영하는 내적 질서가 담겨 있다(창세기 1장; 다니 2:21-22; 이사 45:18; 시편 74:12-17; 104 참조).[47] 그리고 그 하느님의 계획 안에서 인간은 세상을 경작하고 돌보라는 유일한 역할을 부여받았다.[48]
25. Shaped by the Divine Craftsman, humans live out their identity as beings made in imago Dei by “keeping” and “tilling” (cf. Gen. 2:15) creation—using their intelligence and skills to care for and develop creation in accord with God’s plan.[49] In this, human intelligence reflects the Divine Intelligence that created all things (cf. Gen. 1-2; Jn. 1),[50] continuously sustains them, and guides them to their ultimate purpose in him.[51] Moreover, human beings are called to develop their abilities in science and technology, for through them, God is glorified (cf. Sir. 38:6). Thus, in a proper relationship with creation, humans, on the one hand, use their intelligence and skill to cooperate with God in guiding creation toward the purpose to which he has called it.[52] On the other hand, creation itself, as Saint Bonaventure observes, helps the human mind to “ascend gradually to the supreme Principle, who is God.”[53]
25. 성스러운 장인(Divine Craftsman)에 의해 만드어진 인간은, “지키고 경작하는”(창세기 2:15) 과업을 통해 자신의 정체성을 드러낸다. 다시 말해, 인간은 지성과 기술을 사용하여 하느님의 계획에 따라 창조물을 보살피고 발전시킨다.[49] 여기에서 인간 지성은 모든 것을 창조하고(창세기 1-2장; 요한 1)[50], 끊임없이 보존하고, 그분 안에서 그들을 궁극적 목적을 향해 안내하는 신적 지성의 모습을 반영한다. 하느님은 모든 것을 끊임없이 보존하고, 그분 안에 궁극적 목적을 향해 나아가게 하신다.[51] 또한 인간은 과학과 기술에서 그들의 능력을 개발하도록 부름받았으며, 그러한 능력을 통해 하느님께 영광을 드릴 수 있다(집회서, 시라 38:6 참조). 따라서 창조물과 적절한 관계로 보자면, 인간들은, 한편으로 자신의 지성과 기술을 사용해 하느님의 협력자로서 창조의 목적에 부합하도록 세상을 이끌어 가며,[52] 다른 한편으로 창조물 자체가 “최고 원리에 해당하는 하느님에게 인간의 정신이 점차 오르도록 돕는다”고 성 보나벤투라는 말한다.[53]
An Integral Understanding of Human Intelligence
인간 지성에 대한 통합적 이해
26. In this context, human intelligence becomes more clearly understood as a faculty that forms an integral part of how the whole person engages with reality. Authentic engagement requires embracing the full scope of one’s being: spiritual, cognitive, embodied, and relational.
26. 이러한 맥락에서 인간 지성은 인간이 실재와 만나는 전인적 과정의 필수 요소임을 더욱 분명히 알 수 있다. 진정한 만남은 영적·인지적·육체적·관계적 차원을 모두 수용할 때 비로소 가능하다.
27. This engagement with reality unfolds in various ways, as each person, in his or her multifaceted individuality[54], seeks to understand the world, relate to others, solve problems, express creativity, and pursue integral well-being through the harmonious interplay of the various dimensions of the person’s intelligence.[55] This involves logical and linguistic abilities but can also encompass other modes of interacting with reality. Consider the work of an artisan, who “must know how to discern, in inert matter, a particular form that others cannot recognize”[56] and bring it forth through insight and practical skill. Indigenous peoples who live close to the earth often possess a profound sense of nature and its cycles.[57] Similarly, a friend who knows the right word to say or a person adept at managing human relationships exemplifies an intelligence that is “the fruit of self-examination, dialogue and generous encounter between persons.”[58] As Pope Francis observes, “in this age of artificial intelligence, we cannot forget that poetry and love are necessary to save our humanity.”[59]
27. 실재와의 진정한 만남은 다양한 방식으로 펼쳐지는데, 인간은 저마다 다양한 개성과 역량을 지니고,[54] 각자 그것을 통해 세상을 이해하고, 타인과 관계를 맺고, 문제를 해결하며, 창의성을 표현하고, 다양한 차원의 지성을 조화롭게 발휘함으로써 통합적 행복을 추구한다.[55] 여기에는 논리적·언어적 능력이 포함되지만, 그 외에도 실재와 상호작용하는 다양한 방식이 존재할 수 있다. 예를 들어, 장인은 “다른 이들은 알아보지 못하는 무생물 물질 안에 어떤 형상을 알아보고”[56] 이를 통찰력과 기술로 구현해낸다. 대지와 밀접하게 살아가는 원주민 공동체는 자연과 그 리듬에 대한 깊은 감각을 지닐 수 있다.[57] 또 정확한 말 한마디로 할 줄 아는 친구 또는 인간관계를 훌륭하게 관리하는 사람은, “자기성찰, 대화, 그리고 사람들 사이의 너그러운 만남에서 비롯된”[58] 지성을 보여준다. 프란치스코 교황이 강조하듯, “인공지능 시대에 우리는 인류를 지키기 위해서라도 시(詩)와 사랑이 필요하다는 사실을 잊어선 안 된다.”[59]
28. At the heart of the Christian understanding of intelligence is the integration of truth into the moral and spiritual life of the person, guiding his or her actions in light of God’s goodness and truth. According to God’s plan, intelligence, in its fullest sense, also includes the ability to savor what is true, good, and beautiful. As the twentieth-century French poet Paul Claudel expressed, “intelligence is nothing without delight.”[60] Similarly, Dante, upon reaching the highest heaven in Paradiso, testifies that the culmination of this intellectual delight is found in the “light intellectual full of love, love of true good filled with joy, joy which transcends every sweetness.”[61]
28. 기독교 지성 이해의 핵심은 진리를 사람을 도덕적·영적 삶의 맥락에서 파악하고, 하느님의 선과 진리에 비추어 인간 행동을 이끌어 가는 것이다. 하느님의 계획 안에서, 온전한 의미의 지성은 참되고 선하며 아름다운 것에 음미할 수 있는 능력도 포함한다. 20세기 프랑스 시인 폴 클로델(Paul Claudel)은 “지성은 즐거움 없이는 아무것도 아니다”[60]라고 말했고, 단테는 『천국편(Paradiso)』에서 “사랑 가득한 지적인 빛, 기쁨에 가득 찬 참된 선에 대한 사랑, 모든 달콤함을 초월하는 기쁨”[61]을 지적인 기쁨의 절정으로 노래했다.
29. A proper understanding of human intelligence, therefore, cannot be reduced to the mere acquisition of facts or the ability to perform specific tasks. Instead, it involves the person’s openness to the ultimate questions of life and reflects an orientation toward the True and the Good.[62] As an expression of the divine image within the person, human intelligence has the ability to access the totality of being, contemplating existence in its fullness, which goes beyond what is measurable, and grasping the meaning of what has been understood. For believers, this capacity includes, in a particular way, the ability to grow in the knowledge of the mysteries of God by using reason to engage ever more profoundly with revealed truths (intellectus fidei).[63] True intelligence is shaped by divine love, which “is poured forth in our hearts by the Holy Spirit” (Rom. 5:5). From this, it follows that human intelligence possesses an essential contemplative dimension, an unselfish openness to the True, the Good, and the Beautiful, beyond any utilitarian purpose.
29. 그러므로 인간 지성을 온전하게 이해하기 위해서는, 단순히 사실 습득 능력이나 특정 과업을 수행할 수 있는 능력으로 축소해서는 안 된다. 그대신 인간 지성은 인간이 제기하는 삶에 대한 궁극적 물음에 열려 있고, 참되고 선한 것을 향해 지향된 존재임을 함축한다.[62] 신적 형상의 표지로서, 인간 지성은 존재 전체에 접근해, 측정 가능한 범위를 넘어 실재의 의미를 포착할 수 있다. 신자에게 이러한 능력은 특히 계시된 진리를 이성으로 탐구함으로써(신학적 사고, intellectus fidei) 하느님 신비를 더 깊이 인식할 수 있는 잠재력으로도 드러난다.[63] 참된 지성은 “성령을 통해 우리 마음에 부어주신”(로마 5:5) 하느님의 사랑에 의해 형성된다. 이로부터 인간 지능은 본질적으로 관조적인 차원(contemplative dimension)을 가지며, 어떤 실용적인 목적을 넘어서, 이기적인 동기 없이 참된 것, 선한 것, 아름다운 것에 대한 개방성을 가진다.
The Limits of AI
AI의 한계
30. In light of the foregoing discussion, the differences between human intelligence and current AI systems become evident. While AI is an extraordinary technological achievement capable of imitating certain outputs associated with human intelligence, it operates by performing tasks, achieving goals, or making decisions based on quantitative data and computational logic. For example, with its analytical power, AI excels at integrating data from a variety of fields, modeling complex systems, and fostering interdisciplinary connections. In this way, it can help experts collaborate in solving complex problems that “cannot be dealt with from a single perspective or from a single set of interests.”[64]
30. 여기까지 살펴본 내용을 바탕으로, 현재 AI 시스템과 인간 지성의 차이는 분명해진다. AI는 특정한 인간 지능의 결과물(output)을 모방할 수 있는 놀라운 기술적 성과이지만, 특정 과업을 수행하거나 목표를 달성하며, 양적 데이터와 계산 논리에 기반한 결정을 함으로써 작동한다. 예컨대 AI는 강력한 분석 역량을 바탕으로 다양한 분야에서 데이터를 융합하고, 복잡한 시스템을 모델링하며, 학제 간 연결을 촉진할 수 있다. 이는 전문 지식이 필요한 문제를 해결하는 전문가들이 협업할 때, “한 가지 관점이나 특정 이해관계만으로 다룰 수 없는”[64] 복합 과제를 해결하는 데 도움을 줄 수 있다.
31. However, even as AI processes and simulates certain expressions of intelligence, it remains fundamentally confined to a logical-mathematical framework, which imposes inherent limitations. Human intelligence, in contrast, develops organically throughout the person’s physical and psychological growth, shaped by a myriad of lived experiences in the flesh. Although advanced AI systems can “learn” through processes such as machine learning, this sort of training is fundamentally different from the developmental growth of human intelligence, which is shaped by embodied experiences, including sensory input, emotional responses, social interactions, and the unique context of each moment. These elements shape and form individuals within their personal history.In contrast, AI, lacking a physical body, relies on computational reasoning and learning based on vast datasets that include recorded human experiences and knowledge.
31. 그러나 AI가 인간 지성의 일부 표현을 처리·모방한다고 해도, 논리-수학적 틀에 근본적으로 매여 있다는 한계가 있다. 반면 인간 지성은 개인의 신체적·심리적 성장 과정 전반에서 유기적으로 발전하며, 무수한 삶의 경험 속에서 형성된다. 고도화된 AI 시스템은 머신러닝 등을 통해 ‘학습’할 수 있지만, 이는 인간이 몸으로 경험하고 체득하는 성숙 과정과는 본질적으로 다르다. 체화된 경험은 감각적 경험, 감정적 반응, 사회적 교류, 각 순간만다 독특한 대화를 포함한다. 이러한 요소 등은 각자의 역사에서 개인들을 만들고 구성한다. 반면에, AI는 물리적 신체가 없기에, 방대한 데이터 세트를 바탕으로 기록된 인간 경험과 지식을 연산적으로 학습하는 것에 의존한다.
32. Consequently, although AI can simulate aspects of human reasoning and perform specific tasks with incredible speed and efficiency, its computational abilities represent only a fraction of the broader capacities of the human mind. For instance, AI cannot currently replicate moral discernment or the ability to establish authentic relationships. Moreover, human intelligence is situated within a personally lived history of intellectual and moral formation that fundamentally shapes the individual’s perspective, encompassing the physical, emotional, social, moral, and spiritual dimensions of life. Since AI cannot offer this fullness of understanding, approaches that rely solely on this technology or treat it as the primary means of interpreting the world can lead to “a loss of appreciation for the whole, for the relationships between things, and for the broader horizon.”[65]
32. 그 결과, AI는 인간의 추론 과정을 부분적으로 모방할 수 있고, 놀라운 속도와 효율성으로 특정 작업을 수행할 수 있지만, 그 계산 능력은 인간 지능이 지닌 더 넓은 역량의 일부에 불과합니다. 예를 들면, AI는 도덕적 분별(moral discernment)을 수행할 수 없으며, 진정한 관계(authentic relationships)를 형성할 능력이 없습니다. 또한 인간 지성은 지성과 도덕성을 형성하는 개인적인 삶의 역사에 있으며, 그러한 개인적 삶은 각자의 신체적·정서적·사회적·도덕적·영적 경험에 따라 고유한 관점을 얻게 된다. 이처럼 AI가 그러한 통합적 이해를 제공할 수 없기에, AI 기술에만 지나치게 의존하거나 세상을 해석하는데 AI 기술을 주요한 수단으로 삼으면, “전체와 사물 간의 유기적 관계 및 더 넓은 지평을 보는 능력을 상실할 수 있다.”[65]
33. Human intelligence is not primarily about completing functional tasks but about understanding and actively engaging with reality in all its dimensions; it is also capable of surprising insights. Since AI lacks the richness of corporeality, relationality, and the openness of the human heart to truth and goodness, its capacities—though seemingly limitless—are incomparable with the human ability to grasp reality. So much can be learned from an illness, an embrace of reconciliation, and even a simple sunset; indeed, many experiences we have as humans open new horizons and offer the possibility of attaining new wisdom. No device, working solely with data, can measure up to these and countless other experiences present in our lives.
33. 인간 지성은 단지 기능적 과업을 해결하는 데 머무르지 않고, 실재 자체를 다차원적으로 이해하며 창의적 통찰을 끌어낼 수 있다. AI는 신체성, 관계성, 그리고 진리·선에 대한 인간 마음의 개방성 등에서 비롯되는 풍부함이 결여되어 있기에, 아무리 강력해 보여도 인간의 이해 능력과 비교될 수는 없다. 병을 앓는 과정, 화해의 포옹, 단순한 일몰에서조차 매우 많은 것을 배울 수 있다. 실제로 우리가 인간으로서 가지는 많은 경험들은 새로운 지평을 열고, 새로운 지혜를 얻는 가능성을 제공한다. 오직 데이타로 일을 하는 수단으로는 결코 이러한 경험들을 포착할 수 없다.
34. Drawing an overly close equivalence between human intelligence and AI risks succumbing to a functionalist perspective, where people are valued based on the work they can perform. However, a person’s worth does not depend on possessing specific skills, cognitive and technological achievements, or individual success, but on the person’s inherent dignity, grounded in being created in the image of God.[66] This dignity remains intact in all circumstances, including for those unable to exercise their abilities, whether it be an unborn child, an unconscious person, or an older person who is suffering. [67] It also underpins the tradition of human rights (and, in particular, what are now called “neuro-rights”), which represent “an important point of convergence in the search for common ground”[68] and can, thus, serve as a fundamental ethical guide in discussions on the responsible development and use of AI.
34. 인간 지성과 AI를 지나치게 동일시하면, 인간을 기능적으로만 평가하는 ‘기능주의적 관점’에 빠질 위험이 있다. 그런데 인간의 가치는 특정 능력이나 기술, 과학기술적 성취, 혹은 개인적 성공 여부에 달려 있지 않고, 오직 “하느님의 모상”으로 창조된 데서 기인하는 고유한 존엄에 기반한다.[66] 이 존엄은 잉태 중인 아기, 의식을 잃은 환자, 노약자와 같이, 그 능력이 일시적으로 혹은 영구히 발휘되지 못하는 상황에서도 유지된다.[67] 또한 이는 인간 권리에 대한 전 세계적 공감, 특히 최근 강조되는 “신경권(neuro-rights)” 개념 같은 기본적 인권 의식과 맞닿으며, 이는 "공통된 윤리적 기준을 찾는 과정에서 중요한 접점"[68]이 되며, 이는 AI의 발전과 활용에 대한 윤리적 판단의 기본 틀이 될 수 있다.
35. Considering all these points, as Pope Francis observes, “the very use of the word ‘intelligence’” in connection with AI “can prove misleading”[69] and risks overlooking what is most precious in the human person. In light of this, AI should not be seen as an artificial form of human intelligence but as a product of it.[70]
35. 이런 점들을 종합하면, 프란치스코 교황이 언급했듯, AI와 관련해 “'지성(intelligence)'이라는 용어를 사용하는 일 자체”가 “혼란을 일으키고, 인간 존재에서 가장 귀중한 측면을 간과하게 만들 수 있는 위험이 있다. 이를 고려하여 AI는 인간 지능의 인공적인 형태가 아니라, 인간 지성의 산물로 이해해야 한다.[70]
IV. The Role of Ethics in Guiding the Development and Use of AI
IV. AI 개발과 활용을 이끄는 윤리의 역할
36. Given these considerations, one can ask how AI can be understood within God’s plan. To answer this, it is important to recall that techno-scientific activity is not neutral in character but is a human endeavor that engages the humanistic and cultural dimensions of human creativity.[71]
36. 위의 논의에 비추어볼 때, 누구든 AI를 하느님의 계획 안에서 어떻게 이해할 수 있을지 물을 수 있다. 이에 대해 답하기 위해서는 과학기술 활동 자체가 결코 가치 중립적이지 않으며, 인간적·문화적 차원의 창의성과 결합된 행위라는 사실을 상기해야 한다.[71]
37. Seen as a fruit of the potential inscribed within human intelligence,[72] scientific inquiry and the development of technical skills are part of the “collaboration of man and woman with God in perfecting the visible creation.”[73] At the same time, all scientific and technological achievements are, ultimately, gifts from God.[74] Therefore, human beings must always use their abilities in view of the higher purpose for which God has granted them.[75]
37. 인간 지성에 내재된 가능성의 열매로서,[72] 과학적 탐구와 기술 발전은 “가시적 창조물의 완성을 위해 남녀가 하느님과 협력하는 것”[73]에 속한다. 동시에, 모든 과학기술적 성과는 궁극적으로 하느님이 주신 선물이다.[74] 인간은 그 성과들을 하느님이 마련하신 더 높은 목적에 부합하게 사용해야 한다.[75]
38. We can gratefully acknowledge how technology has “remedied countless evils which used to harm and limit human beings,”[76] a fact for which we should rejoice. Nevertheless, not all technological advancements in themselves represent genuine human progress.[77] The Church is particularly opposed to those applications that threaten the sanctity of life or the dignity of the human person.[78] Like any human endeavor, technological development must be directed to serve the human person and contribute to the pursuit of “greater justice, more extensive fraternity, and a more humane order of social relations,” which are “more valuable than advances in the technical field.”[79] Concerns about the ethical implications of technological development are shared not only within the Church but also among many scientists, technologists, and professional associations, who increasingly call for ethical reflection to guide this development in a responsible way.
38. 기술은 “예전에는 인간을 해치고 제한하던 무수한 악마들을 해결”해 왔고,[76] 우리는 이에 감사하며 기뻐해야 한다. 그렇지만 모든 기술 발전이 그 자체로 참된 인류의 진보를 의미하지는 않는다.[77] 교회는 특히 인간 생명과 존엄을 위협하는 사용에 반대한다.[78] 다른 모든 인간 활동과 마찬가지로 기술 발전 역시 인간을 섬기고, “더 큰 정의, 더 폭넓은 형제애, 그리고 더욱 인간적인 사회 질서”[79]라는 목적을 향해 나아가야 한다고 가르친다. 기술 윤리에 대한 요구는 이제 교회 내부를 넘어, 많은 과학자·기술자·전문 직능단체에서 폭넓게 공감하며, 책임 있는 발전을 위해 윤리적 성찰이 필요하다는 목소리가 커지고 있다.
39. To address these challenges, it is essential to emphasize the importance of moral responsibility grounded in the dignity and vocation of the human person. This guiding principle also applies to questions concerning AI. In this context, the ethical dimension takes on primary importance because it is people who design systems and determine the purposes for which they are used.[80] Between a machine and a human being, only the latter is truly a moral agent—a subject of moral responsibility who exercises freedom in his or her decisions and accepts their consequences.[81] It is not the machine but the human who is in relationship with truth and goodness, guided by a moral conscience that calls the person “to love and to do what is good and to avoid evil,”[82] bearing witness to “the authority of truth in reference to the supreme Good to which the human person is drawn.”[83] Likewise, between a machine and a human, only the human can be sufficiently self-aware to the point of listening and following the voice of conscience, discerning with prudence, and seeking the good that is possible in every situation.[84] In fact, all of this also belongs to the person’s exercise of intelligence.
39. 이 문제를 풀어가는 핵심은, 인간 존엄과 소명에 뿌리를 둔 도덕적 책임 윤리의 중요성을 강조하는 것이다. 이는 AI 문제에도 동일하게 적용된다. AI 시스템을 설계하고 사용하는 주체는 사람이므로, 윤리적 차원은 필수적이다.[80] 기계와 인간 사이에서 실제로 도덕적 책임을 질 수 있는 존재는 인간밖에 없다. 인간만이 자유를 행사하며, 그 결정의 결과를 받아들일 수 있는 도덕적 책임의 주체이다.[81] 기계가 아니라 인간만이 진리와 선에 대한 관계를 맺고, "선한 것을 사랑하고 행하도록 하고 악한 것을 피하는" 양심의 소리에 따라 인도되며, 궁극적 선(Supreme Good)을 향한 진리의 권위를 증언하는 존재가 된다. 그와 유사하게, 기계와 인간 중에, 오직 인간만이 모든 상황에서 양심의 소리를 듣고 따르면서, 신중하게 분별하고, 모든 상황에서 가능한 선을 구할 수 있다.[82] 사실, 이 모든 것이 또한 인간 지성의 활동에 속한다.
40. Like any product of human creativity, AI can be directed toward positive or negative ends.[85] When used in ways that respect human dignity and promote the well-being of individuals and communities, it can contribute positively to the human vocation. Yet, as in all areas where humans are called to make decisions, the shadow of evil also looms here. Where human freedom allows for the possibility of choosing what is wrong, the moral evaluation of this technology will need to take into account how it is directed and used.
40. 모든 인간의 창작물이 그렇듯, AI 역시 선한 목적 혹은 악한 목적에 사용될 수 있다.[85] 그것이 인간 존엄과 공동선에 봉사하도록 사용된다면, 인간 소명을 위한 긍정적 기여가 될 수 있다. 그러나 인간이 잘못된 선택을 할 가능성이 언제나 열려 있다. 인간의 자유가 잘못된 것을 선택할 가능성이 있는 곳에서, 이 기술의 도덕적 평가는 그것이 어떻게 사용되고 있는지도 고려해야 할 것이다.
41. At the same time, it is not only the ends that are ethically significant but also the means employed to achieve them. Additionally, the overall vision and understanding of the human person embedded within these systems are important to consider as well. Technological products reflect the worldview of their developers, owners, users, and regulators,[86] and have the power to “shape the world and engage consciences on the level of values.”[87] On a societal level, some technological developments could also reinforce relationships and power dynamics that are inconsistent with a proper understanding of the human person and society.
41. 동시에 그 목적 뿐만 아니라, 그 목적을 달성하기 위해 사용하는 수단 또한 윤리적으로 중요하다. 또한, 이 시스템에 내포된 인간에 대한 이해와 전체적인 비전도 주의 깊게 평가해야 한다. 기술 생산물은 그것을 개발·소유·사용·규제하는 이들의 세계관을 반영하며,[86] 그를 통해 “세계 전체를 형성하고 가치관에 영향을 미치는”[87] 힘을 지닌다. 사회적 차원에서, 인간과 사회에 대한 올바른 이해와 조화되지 않는 관계 및 권력 구조를 강화할 위험이 있다.
42. Therefore, the ends and the means used in a given application of AI, as well as the overall vision it incorporates, must all be evaluated to ensure they respect human dignity and promote the common good.[88] As Pope Francis has stated, “the intrinsic dignity of every man and every woman” must be “the key criterion in evaluating emerging technologies; these will prove ethically sound to the extent that they help respect that dignity and increase its expression at every level of human life,”[89] including in the social and economic spheres. In this sense, human intelligence plays a crucial role not only in designing and producing technology but also in directing its use in line with the authentic good of the human person.[90] The responsibility for managing this wisely pertains to every level of society, guided by the principle of subsidiarity and other principles of Catholic Social Teaching.
42. 따라서 AI의 특정한 응용(application)가 구현하는 목적과 그 수단, 그리고 그 기술이 구현하는 전반적인 비전을 면밀히 평가하여, 인간 존엄성과 공동선을 존종하는지 확인해야 한다.[88] 프란치스코 교황이 말했듯, “모든 남녀가 지닌 고유의 존엄”[89]을 “새로운 기술을 평가하는 결정적 기준”으로 삼아야 하며, 그러한 기술이 “인간의 존엄을 보호하고, 사회적 경제적 측면을 포함하여 인간 생활의 모든 차원을 더 높이 드러낼 수 있는 데” 윤리적으로 건전하다는 것을 입증해야 할 것이다. 이를 위해 기술의 설계·생산·활용 전 과정에 걸쳐, 인간 지성은 “진정한 선”을 실현하도록 이끄는 역할을 해야 한다.[90] 이것을 현명하게 관리하는 책임은 보조성(subsidiarity)의 원리와 교회의 사회교리가 제시하는 다른 원리에 따라 모든 사회 단계에서 공동의 책임으로 이루어져야 한다.
Helping Human Freedom and Decision-Making
인간 자유와 의사결정을 돕기
43. The commitment to ensuring that AI always supports and promotes the supreme value of the dignity of every human being and the fullness of the human vocation serves as a criterion of discernment for developers, owners, operators, and regulators of AI, as well as to its users. It remains valid for every application of the technology at every level of its use.
43. AI가 인간의 존엄성과 인간 소명을 항상 지지·촉진해야 한다는 대원칙은, AI 기술에 대해 책임을 지는 개발자·소유자·운영자·규제자 그리고 사용자 모두에게 분별의 기준으로 적용된다. 이 기준은 AI 기술의 모든 응용 분야와 모든 사용 수준에서 유효하다.
44. An evaluation of the implications of this guiding principle could begin by considering the importance of moral responsibility. Since full moral causality belongs only to personal agents, not artificial ones, it is crucial to be able to identify and define who bears responsibility for the processes involved in AI, particularly those capable of learning, correction, and reprogramming. While bottom-up approaches and very deep neural networks enable AI to solve complex problems, they make it difficult to understand the processes that lead to the solutions they adopted. This complicates accountability since if an AI application produces undesired outcomes, determining who is responsible becomes difficult. To address this problem, attention needs to be given to the nature of accountability processes in complex, highly automated settings, where results may only become evident in the medium to long term. For this, it is important that ultimate responsibility for decisions made using AI rests with the human decision-makers and that there is accountability for the use of AI at each stage of the decision-making process.[91]
44. AI 사용에 대한 윤리적 원칙을 평가하려면, 도덕적 책임의 중요성을 강조하는 것에서 시작해야 한다. 완전한 도덕적 인과성(moral causality)은 인격적 행위자에게만 속하며, 기계나 알고리즘에는 속하지 않기 때문에, 학습과 수정, 재프로그래밍 기능을 갖춘 AI에서, 궁극적으로 책임을 질 수 있는 주체가 누구인지를 분명히 정의해야 한다. 상향식(bottom-up) 접근법과 심층 신경망(deep neural networks)은 AI가 복잡한 문제를 해결할 수 있도록 하지만, AI가 어떤 과정을 거쳐 특정 해결책을 선택했는지 이해하는 것을 어렵게 한다. 그 결과, AI가 원치 않는 결과를 초래했을 때, 책임 소재를 규명하는 것이 더욱 복잡하게 된다. 이를 해결하기 위해서는, AI가 복잡하고 고도로 자동화된 환경에서 어떻게 작동하며, 그 결과가 중·장기적으로 어떤 영향을 미치는지를 분석하는 책임 과정이 필요합니다. 의사결정 전 과정에서 최종 책임은 인간에게 있어야 하며, 각 단계별로 사용하는 이가 적절한 책임을 부담하도록 해야 한다.[91]
45. In addition to determining who is responsible, it is essential to identify the objectives given to AI systems. Although these systems may use unsupervised autonomous learning mechanisms and sometimes follow paths that humans cannot reconstruct, they ultimately pursue goals that humans have assigned to them and are governed by processes established by their designers and programmers. Yet, this presents a challenge because, as AI models become increasingly capable of independent learning, the ability to maintain control over them to ensure that such applications serve human purposes may effectively diminish. This raises the critical question of how to ensure that AI systems are ordered for the good of people and not against them.
45. 또한 누가 책임을 지는 지를 결정하는 것에 더하여, AI 시스템이 가지는 목표가 무엇인지 분명히 밝히는 것도 중요하다. AI가 자율 학습 방식을 적용하고 때로는 인간이 재구성할 수 없는 경로를 통해 결론에 도달한다 하더라도, 결국 AI 시스템이 추구하는 목표는 인간이 설정한 것이며, 그 운용 방식 역시 개발자와 프로그래머의 설계 방침에 따라 규정된다. 문제는, AI 모델이 발전하여 독자적 학습 능력이 강해질수록, 이 기술이 인간에게 유익하도록 설계된 목표에 일관되게 부합할 수 있을지 장담하기 어려워진다는 점이다. AI가 궁극적으로 인간을 위한 선을 추구하고, 선에 어긋나지 않도록 관리하는 방법을 찾는 것은 매우 중요한 과제다.
46. While responsibility for the ethical use of AI systems starts with those who develop, produce, manage, and oversee such systems, it is also shared by those who use them. As Pope Francis noted, the machine “makes a technical choice among several possibilities based either on well-defined criteria or on statistical inferences. Human beings, however, not only choose, but in their hearts are capable of deciding.”[92] Those who use AI to accomplish a task and follow its results create a context in which they are ultimately responsible for the power they have delegated. Therefore, insofar as AI can assist humans in making decisions, the algorithms that govern it should be trustworthy, secure, robust enough to handle inconsistencies, and transparent in their operation to mitigate biases and unintended side effects.[93] Regulatory frameworks should ensure that all legal entities remain accountable for the use of AI and all its consequences, with appropriate safeguards for transparency, privacy, and accountability.[94] Moreover, those using AI should be careful not to become overly dependent on it for their decision-making, a trend that increases contemporary society’s already high reliance on technology.
46. AI 사용의 윤리적 책임은, 그러한 시스템을 개발, 생산, 운영, 감독하는 주체뿐 아니라, 이를 활용하는 주체에게도 있다. 프란치스코 교황이 말했듯, 기계는 ”여러 가능성 중에서 명확한 기준이나 통계적 추론을 바탕으로 기술적 선택을 한다. 그러나 인간은 단순히 선택하는 것이 아니라, 그 마음속에서 결정할 능력을 지니고 있다[92] AI를 활용해 특정 업무를 처리하고 그 결과를 따르는 사람은 AI에 권한을 위임한 셈이므로, 결국 그 사용에 따른 영향력과 결과에 대해 최종적인 책임을 져야 한다. 따라서 AI가 의사결정을 보조할 때 사용되는 알고리즘은 편향성, 의도치 않은 부작용 등을 최소화하도록 신뢰할 만하고 안전하며 견고하고 투명해야 한다.[93] 규제 체계 또한 투명성·프라이버시·책임성을 보장하고, AI 사용 주체가 초래한 결과에 법적·윤리적 책임을 물을 수 있어야 한다.[94] 아울러 AI의 제안이나 결과에 과도하게 의존하지 않도록 주의해야 하며, 이는 이미 기술 의존도가 높은 현대 사회에서 특별히 경계해야 할 부분이다.
47. The Church’s moral and social teaching provides resources to help ensure that AI is used in a way that preserves human agency. Considerations about justice, for example, should also address issues such as fostering just social dynamics, upholding international security, and promoting peace. By exercising prudence, individuals and communities can discern ways to use AI to benefit humanity while avoiding applications that could degrade human dignity or harm the environment. In this context, the concept of responsibility should be understood not only in its most limited sense but as a “responsibility for the care for others, which is more than simply accounting for results achieved.”[95]
47. 더 나아가, 교회의 도덕·사회 교리는 AI 사용이 인간의 자유를 보존하고 정의를 구현하는 데 어떻게 기여할 수 있는지에 대한 통찰을 제공한다. 정의에 관한 문제는 사회적 역동성, 국제 안보, 평화 증진 등의 영역을 포함한다. 사람과 공동체는 신중함(prudence)을 발휘하여 AI를 어떻게 써야 인류를 이롭게 하고, 동시에 인간의 존엄을 훼손하거나 환경을 파괴할 위험성을 피할 수 있을지 분별할 수 있다. 이런 맥락에서 책임(responsibility)은 단순히 결과에 대한 계산적 책임이 아니라, “타인에 대한 돌봄의 책임”[95]이라는 폭넓은 의미를 포함한다.
48. Therefore, AI, like any technology, can be part of a conscious and responsible answer to humanity’s vocation to the good. However, as previously discussed, AI must be directed by human intelligence to align with this vocation, ensuring it respects the dignity of the human person. Recognizing this “exalted dignity,” the Second Vatican Council affirmed that “the social order and its development must invariably work to the benefit of the human person.”[96] In light of this, the use of AI, as Pope Francis said, must be “accompanied by an ethic inspired by a vision of the common good, an ethic of freedom, responsibility, and fraternity, capable of fostering the full development of people in relation to others and to the whole of creation.”[97]
48. 결국 AI도 다른 모든 기술과 마찬가지로, 인간의 선을 향한 소명에 부응하여 올바르게 활용된다면 긍정적인 역할을 할 수 있다. 그러나 앞에서 언급한 것처럼, AI가 인간의 존엄성을 존중하도록 하면서, 이러한 소명에 부합하기 위해서는 인간 지성을 통해 지도되어야 한다. 제2차 바티칸 공의회가 언급한 대로, 이 존엄을 토대로, “사회 질서와 그 발전은 언제나 인간을 위해서 존재해야 한다.”[96] 프란치스코 교황이 AI의 사용에 대해 말씀하신 것처럼, AI는 공동선을 위한 비전에서 영감을 받은 윤리, 즉 자유, 책임, 형제애의 윤리와 함께 발전해야 하며, 인간이 타인 및 창조 세계 전체와 조화를 이루며 완전한 발전을 이루는 데 기여해야 한다.[97]
V. Specific Questions
V. 구체적 쟁점들
49. Within this general perspective, some observations follow below to illustrate how the preceding arguments can help provide an ethical orientation in practical situations, in line with the “wisdom of heart” that Pope Francis has proposed.[98] While not exhaustive, this discussion is offered in service of the dialogue that considers how AI can be used to uphold the dignity of the human person and promote the common good.[99]
49. 이상의 일반적 관점을 토대로, 프란치스코 교황이 제안한 “마음의 지혜(wisdom of heart)”[98]에 따라, 기존의 논쟁이 실제 상황에서 어떻게 윤리적 방향을 제공하는데 도울 수 있는지 여러 실제적 상황을 몇 가지 예시로 간략히 살펴보고자 한다. 이러한 논의가 소모적이지 않도록, AI가 어떻게 인간 존엄을 지키고 공동선을 진전시키는데 사용될 수 있을지, 함께 대화하는 데 도움을 주려는 목적이다.[99]
50. As Pope Francis observed, “the inherent dignity of each human being and the fraternity that binds us together as members of the one human family must undergird the development of new technologies and serve as indisputable criteria for evaluating them before they are employed.”[100]
50. 프란치스코 교황이 말했듯, “각 인간 존재의 고유한 존엄성과 한 인류 가족으로서 우리를 결속하는 형제애는 새로운 기술의 발전을 떠받치는 기초가 되어야 하며, 그것이 실제로 사용되기 전에 평가하는 확고한 기준이 되어야 한다.”[100]
51. Viewed through this lens, AI could “introduce important innovations in agriculture, education and culture, an improved level of life for entire nations and peoples, and the growth of human fraternity and social friendship,” and thus be “used to promote integral human development.”[101] AI could also help organizations identify those in need and counter discrimination and marginalization. These and other similar applications of this technology could contribute to human development and the common good.[102]
51. 이러한 시각에서 보자면, AI는 “농업, 교육, 문화의 중요한 혁신을 이끌어내어 많은 국민과 민족의 삶을 개선하고, 나아가 인간적 우애와 사회적 우정을 증진”함으로써, “인간 전체 발전에 기여”할 잠재력이 있다.[101] 또한 AI를 통해 어려움을 겪는 이들을 식별하거나, 차별과 소외를 완화할 수 있다. 이러한 기술의 이러한 응용 사례들은 인간개발과 공동선에 이바지할 수 있다.[102]
52. However, while AI holds many possibilities for promoting the good, it can also hinder or even counter human development and the common good. Pope Francis has noted that “evidence to date suggests that digital technologies have increased inequality in our world. Not just differences in material wealth, which are also significant, but also differences in access to political and social influence.”[103] In this sense, AI could be used to perpetuate marginalization and discrimination, create new forms of poverty, widen the “digital divide,” and worsen existing social inequalities.[104]
52. 그러나 AI는 공동선을 촉진할 가능성과 동시에, 인간 개발과 공동선을 저해하거나 오히려 방해할 위험도 지닌다. 프란치스코 교황은 "현재까지의 증거를 보면, 디지털 기술이 우리 세계의 불평등을 더 커지게 했다. 물질적 부의 격차뿐 아니라, 정치·사회적 영향력의 격차도 심화되었다.”고 지적한다..[103] 이러한 맥락에서, AI가 잘못 사용되면, 사회적 배제와 차별을 지속시키고, 새로운 형태의 빈곤을 초래화하며, ‘디지털 격차’를 심화하고, 기존의 사회 불평등을 더욱 악화시킬 수 있다.[104]
53. Moreover, the concentration of the power over mainstream AI applications in the hands of a few powerful companies raises significant ethical concerns. Exacerbating this problem is the inherent nature of AI systems, where no single individual can exercise complete oversight over the vast and complex datasets used for computation. This lack of well-defined accountability creates the risk that AI could be manipulated for personal or corporate gain or to direct public opinion for the benefit of a specific industry. Such entities, motivated by their own interests, possess the capacity to exercise “forms of control as subtle as they are invasive, creating mechanisms for the manipulation of consciences and of the democratic process.”[105]
53. 나아가, AI 주류 응용기술 대부분의 영향력이 소수 거대 기업에 집중된 현실은 심각한 윤리적 문제를 야기한다. 이 문제를 더욱 복잡하게 만드는 것은, AI 시스템이 사용하는 방대한 데이터 세트는 누구 한 사람의 통제 범위를 훌쩍 뛰어넘기 때문에, 어떤 결과가 발생해도 책임을 분명히 묻기 어렵다는 AI 시스템의 본질적인 특성이다. 이러한 명확한 책임감의 부재는 AI가 개인 혹은 특정 집단의 이익을 위해 교묘히 활용되어 공적 여론을 왜곡하거나, 특정 업계의 이익을 위해 대중을 조종할 위험을 수반한다. 이렇게 “은밀하면서도 교묘한 통제 방식이 등장”하여 “양심과 민주 과정을 조작”할 수 있다.[105] 이러한 현상은 다음과 같은 문제를 초래할 수 있습니다.
54. Furthermore, there is the risk of AI being used to promote what Pope Francis has called the “technocratic paradigm,” which perceives all the world’s problems as solvable through technological means alone.[106] In this paradigm, human dignity and fraternity are often set aside in the name of efficiency, “as if reality, goodness, and truth automatically flow from technological and economic power as such.”[107] Yet, human dignity and the common good must never be violated for the sake of efficiency,[108] for “technological developments that do not lead to an improvement in the quality of life of all humanity, but on the contrary, aggravate inequalities and conflicts, can never count as true progress.”[109] Instead, AI should be put “at the service of another type of progress, one which is healthier, more human, more social, more integral.”[110]
54. 또한 AI가 교황 프란치스코가 지적한, 세상의 모든 문제를 기술적 해결책만으로 해결할 수 있다고 믿는 '기술만능주의(technocratic paradigm)'를 조장할 위험이 있습니다.[106] 이 패러다임 하에서는 인간의 존엄과 형제애가 “마치 현실과 선, 진리가 기술적·경제적 힘에서 자동으로 흘러나오는 처럼”[107] 종종 효율성 논리에 밀려난다. 그러나 인간 존엄과 공동선은 효율성을 이유로 파괴될 수 없다.[108] 왜냐하면, “인류 전체의 삶의 질을 개선하지 못하고, 오히려 불평등과 갈등을 심화시키는 기술 발전은 결코 진정한 진보로 볼 수 없기 때문이다.”[109] 그 대신 AI는 “보다 건강하고, 더 인간적이고, 더 사회적이고, 더 통합적인 발전”[110]에 기여해야 한다.
55. Achieving this objective requires a deeper reflection on the relationship between autonomy and responsibility. Greater autonomy heightens each person’s responsibility across various aspects of communal life. For Christians, the foundation of this responsibility lies in the recognition that all human capacities, including the person’s autonomy, come from God and are meant to be used in the service of others.[111] Therefore, rather than merely pursuing economic or technological objectives, AI should serve “the common good of the entire human family,” which is “the sum total of social conditions that allow people, either as groups or as individuals, to reach their fulfillment more fully and more easily.”[112]
55. 이를 달성하기 위해서는, 자동화와 책임의 관계를 다시 깊이 숙고해야 한다. AI가 점점 더 독립적으로 작동할수록, 그것을 사용하는 인간의 책임 역시 더욱 중요해집니다. 그리스도인에게 이러한 책임은, 모든 인간 역량, 특히 자율성마저도 하느님께서 주신 선물이며, 이 선물은 모두 다른 사람들을 위해 사용되어야 한다는 인식에서 비롯된다.[111] 따라서 경제적·기술적 이익만을 좇는 대신, AI는 “인간 가족 전체의 공동선”을 위해 봉사해야 하며, 이러한 공동선은 “사람이 집단이나 개인으로서 어느쪽이든 자기 완성에 더 완전하고 더 쉽게 이를 수 있도록 해주는 모든 사회적 조건의 총합”이다[112].
56. The Second Vatican Council observed that “by his innermost nature man is a social being; and if he does not enter into relations with others, he can neither live nor develop his gifts.”[113] This conviction underscores that living in society is intrinsic to the nature and vocation of the human person.[114] As social beings, we seek relationships that involve mutual exchange and the pursuit of truth, in the course of which, people “share with each other the truth they have discovered, or think they have discovered, in such a way that they help one another in the search for truth.”[115]
56. 제2차 바티칸 공의회는 “인간은 그 가장 깊은 본성상 사회적 존재이며, 타인과 관계를 맺지 않으면 살아갈 수도 없고 자신의 재능을 계발할 수도 없다.”[113]고 말했습니다. 이러한 확신은 사회생활이 인간의 본성과 소명에 내재되어 있음을 강조합니다.[114] 사회적 존재로서 우리는 상호 교류와 진리 추구를 포함하는 관계를 추구하며, 그 과정에서 사람들은 “자신들이 발견했거나 발견했다고 생각하는 진리를 서로 공유하며, 진리 탐구에 서로 도움을 줍니다.”[115]
57. Such a quest, along with other aspects of human communication, presupposes encounters and mutual exchange between individuals shaped by their unique histories, thoughts, convictions, and relationships. Nor can we forget that human intelligence is a diverse, multifaceted, and complex reality: individual and social, rational and affective, conceptual and symbolic. Pope Francis underscores this dynamic, noting that “together, we can seek the truth in dialogue, in relaxed conversation or in passionate debate. To do so calls for perseverance; it entails moments of silence and suffering, yet it can patiently embrace the broader experience of individuals and peoples. […] The process of building fraternity, be it local or universal, can only be undertaken by spirits that are free and open to authentic encounters.”[116]
57. 이러한 탐구는 인간 소통의 다른 측면들과 마찬가지로, 각자의 고유한 역사, 사고, 신념, 그리고 관계에 의해 형성된 개인들 간의 만남과 상호 교류를 전제로 합니다. 또한 우리는 인간 지능이 다양하고 다면적이며 복잡한 실체, 즉 개인적이면서도 사회적, 이성적이기도 하고 정서적이기도 하며, 개념적이기도 하고 상징적이기도 하다는 사실을 잊을 수 없습니다. 프란치스코 교황은 이러한 역동성을 강조하며 “우리는 함께 대화, 편안한 대화, 혹은 열정적인 토론을 통해 진실을 추구할 수 있습니다. 그러기 위해서는 인내가 필요합니다. 침묵과 고통의 순간이 필요하지만, 개인과 민족의 더 넓은 경험을 인내심을 가지고 포용할 수 있습니다. […] 지역적이든 보편적이든 형제애를 쌓는 과정은 자유롭고 진정한 만남에 열려 있는 영혼에 의해서만 이루어질 수 있습니다.”[116]
58. It is in this context that one can consider the challenges AI poses to human relationships. Like other technological tools, AI has the potential to foster connections within the human family. However, it could also hinder a true encounter with reality and, ultimately, lead people to “a deep and melancholic dissatisfaction with interpersonal relations, or a harmful sense of isolation.”[117] Authentic human relationships require the richness of being with others in their pain, their pleas, and their joy.[118] Since human intelligence is expressed and enriched also in interpersonal and embodied ways, authentic and spontaneous encounters with others are indispensable for engaging with reality in its fullness.
58. 바로 이러한 맥락에서 AI가 인간 관계에 제기하는 과제를 생각해 볼 수 있습니다. 다른 기술 도구와 마찬가지로 AI는 인류 가족 내에서 연결을 촉진할 잠재력을 가지고 있습니다. 그러나 AI는 현실과의 진정한 만남을 방해하고 궁극적으로 사람들을 “대인관계에 대한 깊고 우울한 불만이나 해로운 고립감”으로 이끌 수도 있습니다.[117] 진정한 인간관계는 다른 사람들의 고통, 간절함, 기쁨 속에 함께하는 풍요로움을 필요로 합니다.[118] 인간의 지능은 대인관계와 체화된 방식으로도 표현되고 풍부해지기 때문에, 타인과의 진정하고 자발적인 만남은 현실을 온전히 받아들이는 데 필수적입니다.
59. Because “true wisdom demands an encounter with reality,”[119] the rise of AI introduces another challenge. Since AI can effectively imitate the products of human intelligence, the ability to know when one is interacting with a human or a machine can no longer be taken for granted. Generative AI can produce text, speech, images, and other advanced outputs that are usually associated with human beings. Yet, it must be understood for what it is: a tool, not a person.[120] This distinction is often obscured by the language used by practitioners, which tends to anthropomorphize AI and thus blurs the line between human and machine.
59. "진정한 지혜는 현실과의 만남을 요구하기 때문에"[119] AI의 부상은 또 다른 과제를 안겨줍니다. AI는 인간 지능의 결과물을 효과적으로 모방할 수 있기 때문에, 인간과 기계의 상호작용 시점을 파악하는 능력은 더 이상 당연하게 여겨질 수 없습니다. 생성 AI는 일반적으로 인간과 관련된 텍스트, 음성, 이미지 및 기타 고급 결과물을 생성할 수 있습니다. 그러나 생성 AI는 인간이 아닌 도구라는 본질을 이해해야 합니다.[120] 이러한 구분은 실무자들이 사용하는 언어로 인해 종종 모호해지는데, 이는 AI를 의인화하는 경향이 있어 인간과 기계의 경계를 모호하게 만듭니다.
60. Anthropomorphizing AI also poses specific challenges for the development of children, potentially encouraging them to develop patterns of interaction that treat human relationships in a transactional manner, as one would relate to a chatbot. Such habits could lead young people to see teachers as mere dispensers of information rather than as mentors who guide and nurture their intellectual and moral growth. Genuine relationships, rooted in empathy and a steadfast commitment to the good of the other, are essential and irreplaceable in fostering the full development of the human person.
60. AI를 의인화하는 것은 또한 아이들의 발달에 특정한 어려움을 야기하며, 챗봇처럼 인간 관계를 거래적인 방식으로 다루는 상호작용 패턴을 발달시키도록 부추길 수 있습니다. 이러한 습관은 젊은이들이 교사를 단순히 정보 제공자로만 여기게 만들 수 있으며, 이는 그들의 지적, 도덕적 성장을 지도하고 양육하는 멘토가 아닙니다. 공감과 타인의 이익을 위한 확고한 헌신에 뿌리를 둔 진정한 관계는 인간의 완전한 발달을 촉진하는 데 필수적이며 대체할 수 없습니다.
61. In this context, it is important to clarify that, despite the use of anthropomorphic language, no AI application can genuinely experience empathy. Emotions cannot be reduced to facial expressions or phrases generated in response to prompts; they reflect the way a person, as a whole, relates to the world and to his or her own life, with the body playing a central role. True empathy requires the ability to listen, recognize another’s irreducible uniqueness, welcome their otherness, and grasp the meaning behind even their silences.[121] Unlike the realm of analytical judgment in which AI excels, true empathy belongs to the relational sphere. It involves intuiting and apprehending the lived experiences of another while maintaining the distinction between self and other.[122] While AI can simulate empathetic responses, it cannot replicate the eminently personal and relational nature of authentic empathy.[123]
61. 이러한 맥락에서, 의인화된 언어를 사용하더라도 어떤 AI 애플리케이션도 진정한 공감을 경험할 수 없다는 점을 명확히 하는 것이 중요합니다. 감정은 단순히 표정이나 지시에 반응하여 생성되는 문구로 축소될 수 없습니다. 감정은 개인이 세상과 자신의 삶과 관계를 맺는 방식을 반영하며, 신체는 핵심적인 역할을 합니다. 진정한 공감은 경청하고, 타인의 환원 불가능한 독특성을 인식하고, 그들의 타자성을 환영하고, 심지어 그들의 침묵 뒤에 숨겨진 의미를 파악하는 능력을 요구합니다.[121] AI가 탁월한 분석적 판단의 영역과는 달리, 진정한 공감은 관계적 영역에 속합니다. 이는 자아와 타자를 구분하면서 타인의 생생한 경험을 직관하고 이해하는 것을 포함합니다.[122] AI는 공감적 반응을 시뮬레이션할 수 있지만, 진정한 공감의 지극히 개인적이고 관계적인 본질을 재현할 수는 없습니다.[123]
62. In light of the above, it is clear why misrepresenting AI as a person should always be avoided; doing so for fraudulent purposes is a grave ethical violation that could erode social trust. Similarly, using AI to deceive in other contexts—such as in education or in human relationships, including the sphere of sexuality—is also to be considered immoral and requires careful oversight to prevent harm, maintain transparency, and ensure the dignity of all
people.[124]
62. 위의 내용을 고려할 때, AI를 사람으로 오인하는 것은 항상 피해야 하는 이유가 분명합니다. 사기 목적으로 그렇게 하는 것은 사회적 신뢰를 훼손할 수 있는 심각한 윤리적 위반입니다. 마찬가지로, 교육이나 성(性) 영역을 포함한 인간 관계와 같은 다른 맥락에서 AI를 속이는 것 또한 부도덕한 것으로 간주되어야 하며, 피해를 방지하고 투명성을 유지하며 모든 사람의 존엄성을 보장하기 위한 신중한 감독이 필요합니다.[124]
63. In an increasingly isolated world, some people have turned to AI in search of deep human relationships, simple companionship, or even emotional bonds. However, while human beings are meant to experience authentic relationships, AI can only simulate them. Nevertheless, such relationships with others are an integral part of how a person grows to become who he or she is meant to be. If AI is used to help people foster genuine connections between people, it can contribute positively to the full realization of the person. Conversely, if we replace relationships with God and with others with interactions with technology, we risk replacing authentic relationality with a lifeless image (cf. Ps. 106:20; Rom. 1:22-23). Instead of retreating into artificial worlds, we are called to engage in a committed and intentional way with reality, especially by identifying with the poor and suffering, consoling those in sorrow, and forging bonds of communion with all.
63. 점점 더 고립되는 세상에서, 어떤 사람들은 깊은 인간관계, 단순한 교제, 심지어 정서적 유대감을 찾아 AI에 의지해 왔습니다. 인간은 진정한 관계를 경험하도록 창조되었지만, AI는 단지 그러한 관계를 모방할 수 있을 뿐입니다. 그럼에도 불구하고, 타인과의 그러한 관계는 사람이 자신이 원하는 모습대로 성장하는 데 필수적인 부분입니다. AI를 활용하여 사람들 사이에 진정한 관계를 형성하도록 돕는다면, 그 사람의 완전한 실현에 긍정적으로 기여할 수 있습니다. 반대로, 하나님과의 관계, 그리고 타인과의 관계를 기술과의 상호작용으로 대체한다면, 진정한 관계성은 생명 없는 이미지로 대체될 위험이 있습니다(시 106:20; 로마 1:22-23 참조). 우리는 인공적인 세계로 도피하는 대신, 특히 가난하고 고통받는 사람들과 공감하고, 슬픔에 잠긴 사람들을 위로하며, 모든 사람과 교감하는 유대감을 형성함으로써 현실에 헌신적이고 의도적으로 참여하도록 부름받습니다.
64. Due to its interdisciplinary nature, AI is being increasingly integrated into economic and financial systems. Significant investments are currently being made not only in the technology sector but also in energy, finance, and media, particularly in the areas of marketing and sales, logistics, technological innovation, compliance, and risk management. At the same time, AI’s applications in these areas have also highlighted its ambivalent nature, as a source of tremendous opportunities but also profound risks. A first real critical point in this area concerns the possibility that—due to the concentration of AI applications in the hands of a few corporations—only those large companies would benefit from the value created by AI rather than the businesses that use it.
64. AI는 그 학제적 특성으로 인해 경제 및 금융 시스템에 점점 더 통합되고 있습니다. 현재 기술 분야뿐만 아니라 에너지, 금융, 미디어, 특히 마케팅 및 판매, 물류, 기술 혁신, 규정 준수, 위험 관리 분야에도 상당한 투자가 이루어지고 있습니다. 동시에 이러한 분야에서 AI의 응용은 엄청난 기회와 동시에 심각한 위험을 동시에 야기하는 양면적인 특성을 부각시켰습니다. 이 분야에서 가장 중요한 핵심은 AI 응용 프로그램이 소수 기업에 집중되어 있기 때문에 AI가 창출하는 가치의 혜택을 대기업만이 누릴 수 있고, AI를 사용하는 기업은 누릴 수 없게 될 가능성입니다.
65. Other broader aspects of AI’s impact on the economic-financial sphere must also be carefully examined, particularly concerning the interaction between concrete reality and the digital world. One important consideration in this regard involves the coexistence of diverse and alternative forms of economic and financial institutions within a given context. This factor should be encouraged, as it can bring benefits in how it supports the real economy by fostering its development and stability, especially during times of crisis. Nevertheless, it should be stressed that digital realities, not restricted by any spatial bonds, tend to be more homogeneous and impersonal than communities rooted in a particular place and a specific history, with a common journey characterized by shared values and hopes, but also by inevitable disagreements and divergences. This diversity is an undeniable asset to a community’s economic life. Turning over the economy and finance entirely to digital technology would reduce this variety and richness. As a result, many solutions to economic problems that can be reached through natural dialogue between the involved parties may no longer be attainable in a world dominated by procedures and only the appearance of nearness.
65. AI가 경제-금융 영역에 미치는 영향의 다른 광범위한 측면들, 특히 구체적 현실과 디지털 세계 간의 상호작용에 대해서도 면밀히 검토해야 합니다. 이와 관련하여 중요한 고려 사항 중 하나는 주어진 맥락 내에서 다양하고 대안적인 형태의 경제 및 금융 기관이 공존한다는 것입니다. 이 요소는 특히 위기 상황에서 실물 경제의 발전과 안정을 촉진하여 실물 경제를 지원하는 데 있어 이점을 가져올 수 있으므로 장려되어야 합니다. 그럼에도 불구하고, 공간적 유대감에 제약받지 않는 디지털 현실은 특정 장소와 특정 역사에 뿌리를 둔 공동체보다 더 동질적이고 비인격적인 경향이 있다는 점을 강조해야 합니다. 이러한 공동체는 공통의 가치와 희망을 공유하지만, 불가피한 의견 불일치와 분열도 동반하는 공통의 여정을 겪습니다. 이러한 다양성은 공동체의 경제 생활에 있어 부인할 수 없는 자산입니다. 경제와 금융을 전적으로 디지털 기술로 전환하는 것은 이러한 다양성과 풍요로움을 감소시킬 것입니다. 결과적으로, 관련 당사자 간의 자연스러운 대화를 통해 도달할 수 있는 많은 경제 문제 해결책들이 절차와 근접성만이 지배하는 세상에서는 더 이상 달성될 수 없을 것입니다.
66. Another area where AI is already having a profound impact is the world of work. As in many other fields, AI is driving fundamental transformations across many professions, with a range of effects. On the one hand, it has the potential to enhance expertise and productivity, create new jobs, enable workers to focus on more innovative tasks, and open new horizons for creativity and innovation.
66. AI가 이미 심오한 영향을 미치고 있는 또 다른 영역은 일의 세계입니다. 다른 많은 분야와 마찬가지로, AI는 다양한 직업에 걸쳐 근본적인 변화를 주도하고 있으며, 다양한 영향을 미치고 있습니다. 한편으로는 전문성과 생산성을 향상시키고, 새로운 일자리를 창출하고, 근로자들이 더욱 혁신적인 업무에 집중할 수 있도록 하며, 창의성과 혁신의 새로운 지평을 열 수 있는 잠재력을 가지고 있습니다.
67. However, while AI promises to boost productivity by taking over mundane tasks, it frequently forces workers to adapt to the speed and demands of machines rather than machines being designed to support those who work. As a result, contrary to the advertised benefits of AI, current approaches to the technology can paradoxically deskill workers, subject them to automated surveillance, and relegate them to rigid and repetitive tasks. The need to keep up with the pace of technology can erode workers’ sense of agency and stifle the innovative abilities they are expected to bring to their work.[125]
67. 그러나 AI는 일상적인 업무를 대체하여 생산성을 향상시키겠다고 약속하지만, 기계가 근로자를 지원하도록 설계된 것이 아니라 근로자들이 기계의 속도와 요구에 적응하도록 강요하는 경우가 많습니다. 결과적으로, AI의 광고된 이점과는 달리, 현재의 기술 접근 방식은 역설적으로 근로자의 숙련도를 저하시키고, 자동화된 감시에 노출시키며, 경직되고 반복적인 업무로 전락시킬 수 있습니다. 기술의 발전 속도를 따라가야 한다는 필요성은 근로자의 주체성을 약화시키고 업무에 기여해야 하는 혁신 능력을 저해할 수 있습니다.[125]
68. AI is currently eliminating the need for some jobs that were once performed by humans. If AI is used to replace human workers rather than complement them, there is a “substantial risk of disproportionate benefit for the few at the price of the impoverishment of many.”[126] Additionally, as AI becomes more powerful, there is an associated risk that human labor may lose its value in the economic realm. This is the logical consequence of the technocratic paradigm: a world of humanity enslaved to efficiency, where, ultimately, the cost of humanity must be cut. Yet, human lives are intrinsically valuable, independent of their economic output. Nevertheless, the “current model,” Pope Francis explains, “does not appear to favor an investment in efforts to help the slow, the weak, or the less talented to find opportunities in life.”[127] In light of this, “we cannot allow a tool as powerful and indispensable as Artificial Intelligence to reinforce such a paradigm, but rather, we must make Artificial Intelligence a bulwark against its expansion.” [128]
68. AI는 현재 한때 인간이 수행했던 일부 직업의 필요성을 없애고 있습니다. AI가 인간 노동자를 보완하는 것이 아니라 대체하는 데 사용된다면, "소수에게 불균형적인 혜택이 돌아가는 반면 다수는 빈곤해질 위험이 크다"[126]. 또한 AI가 더욱 강력해짐에 따라 인간 노동이 경제적 영역에서 가치를 잃을 위험도 있다. 이는 기술관료적 패러다임의 논리적 귀결이다. 즉, 인간이 효율성의 노예가 된 세상에서 궁극적으로 인간에 대한 비용을 절감해야 한다. 그러나 인간의 삶은 경제적 산출량과는 별개로 본질적으로 가치 있다. 그럼에도 불구하고 프란치스코 교황은 "현재 모델은 느리고 약하거나 재능이 부족한 사람들이 삶에서 기회를 찾을 수 있도록 돕는 데 투자하는 것을 선호하지 않는 것 같다"고 설명했다.[127] 이러한 관점에서, "우리는 인공지능처럼 강력하고 필수적인 도구가 그러한 패러다임을 강화하도록 허용할 수 없으며, 오히려 인공지능을 그 확장에 대한 방벽으로 만들어야 한다." [128]
69. It is important to remember that “the order of things must be subordinate to the order of persons, and not the other way around.”[129] Human work must not only be at the service of profit but at “the service of the whole human person […] taking into account the person’s material needs and the requirements of his or her intellectual, moral, spiritual, and religious life.”[130] In this context, the Church recognizes that work is “not only a means of earning one’s daily bread” but is also “an essential dimension of social life” and “a means […] of personal growth, the building of healthy relationships, self-expression and the exchange of gifts. Work gives us a sense of shared responsibility for the development of the world, and ultimately, for our life as a people.”[131]
69. “사물의 질서는 사람의 질서에 종속되어야 하며, 그 반대가 되어서는 안 된다.”[129]는 점을 기억하는 것이 중요합니다. 인간의 노동은 이윤만을 위한 것이 아니라 “인간 전체에 봉사해야 하며, […] 인간의 물질적 필요와 지적, 도덕적, 영적, 종교적 삶의 요구를 고려해야 합니다.”[130] 이러한 맥락에서 교회는 노동이 “일용할 양식을 얻는 수단”일 뿐만 아니라 “사회생활의 필수적인 차원”이며 “개인적 성장, 건강한 관계 구축, 자기 표현, 그리고 은사의 교환을 위한 수단”임을 인식합니다. 노동은 우리에게 세상의 발전, 그리고 궁극적으로 우리 인류의 삶에 대한 공동의 책임감을 부여합니다.[131]
70. Since work is a “part of the meaning of life on this earth, a path to growth, human development and personal fulfillment,” “the goal should not be that technological progress increasingly replaces human work, for this would be detrimental to humanity”[132]—rather, it should promote human labor. Seen in this light, AI should assist, not replace, human judgment. Similarly, it must never degrade creativity or reduce workers to mere “cogs in a machine.” Therefore, “respect for the dignity of laborers and the importance of employment for the economic well-being of individuals, families, and societies, for job security and just wages, ought to be a high priority for the international community as these forms of technology penetrate more deeply into our workplaces.”[133]
70. 일은 "이 지구상 삶의 의미의 일부이자 성장, 인간 발전, 그리고 개인적 성취로 가는 길"이기 때문에, "기술 발전이 인간의 일을 점점 더 대체하는 것이 목표가 되어서는 안 됩니다. 왜냐하면 이는 인류에게 해로울 것이기 때문입니다."[132] 오히려 인간의 노동을 증진해야 합니다. 이러한 관점에서 볼 때, AI는 인간의 판단을 대체하는 것이 아니라 보조해야 합니다. 마찬가지로, AI는 창의성을 저하시키거나 근로자를 단순한 "기계의 톱니바퀴"로 전락시켜서는 안 됩니다. 따라서 "노동자의 존엄성에 대한 존중과 개인, 가족, 사회의 경제적 복지, 직업 안정, 그리고 공정한 임금을 위한 고용의 중요성은 이러한 기술이 우리 직장에 더욱 깊이 침투함에 따라 국제 사회의 최우선 과제가 되어야 합니다."[133]
71. As participants in God’s healing work, healthcare professionals have the vocation and responsibility to be “guardians and servants of human life.”[134] Because of this, the healthcare profession carries an “intrinsic and undeniable ethical dimension,” recognized by the Hippocratic Oath, which obliges physicians and healthcare professionals to commit themselves to having “absolute respect for human life and its sacredness.”[135] Following the example of the Good Samaritan, this commitment is to be carried out by men and women “who reject the creation of a society of exclusion, and act instead as neighbors, lifting up and rehabilitating the fallen for the sake of the common good.”[136]
71. 하느님의 치유 사역에 참여하는 의료 전문가들은 “인간 생명의 수호자이자 봉사자”가 될 소명과 책임을 지닙니다.[134] 따라서 의료 직업은 히포크라테스 선서에서 인정하는 “본질적이고 부인할 수 없는 윤리적 차원”을 지닙니다. 히포크라테스 선서는 의사와 의료 전문가들이 “인간 생명과 그 신성함에 대한 절대적인 존중”을 갖도록 의무화합니다.[135] 선한 사마리아인의 모범을 따라, 이러한 헌신은 “배타적인 사회의 형성을 거부하고, 대신 이웃으로서 공동선을 위해 쓰러진 사람들을 일으켜 세우고 재활시키는” 남녀에 의해 수행되어야 합니다.[136]
72. Seen in this light, AI seems to hold immense potential in a variety of applications in the medical field, such as assisting the diagnostic work of healthcare providers, facilitating relationships between patients and medical staff, offering new treatments, and expanding access to quality care also for those who are isolated or marginalized. In these ways, the technology could enhance the “compassionate and loving closeness”[137] that healthcare providers are called to extend to the sick and suffering.
72. 이러한 관점에서 볼 때, AI는 의료 분야의 다양한 응용 분야에서 엄청난 잠재력을 지닌 것으로 보입니다. 예를 들어, 의료 제공자의 진단 작업 지원, 환자와 의료진 간의 관계 개선, 새로운 치료법 제공, 그리고 고립되거나 소외된 사람들에게도 양질의 의료 서비스 접근성 확대 등이 있습니다. 이러한 방식으로, 이 기술은 의료 서비스 제공자가 병자와 고통받는 사람들에게 베풀어야 하는 "자비롭고 사랑스러운 친밀함"[137]을 증진시킬 수 있습니다.
73. However, if AI is used not to enhance but to replace the relationship between patients and healthcare providers—leaving patients to interact with a machine rather than a human being—it would reduce a crucially important human relational structure to a centralized, impersonal, and unequal framework. Instead of encouraging solidarity with the sick and suffering, such applications of AI would risk worsening the loneliness that often accompanies illness, especially in the context of a culture where “persons are no longer seen as a paramount value to be cared for and respected.”[138] This misuse of AI would not align with respect for the dignity of the human person and solidarity with the suffering.
73. 그러나 AI가 환자와 의료 서비스 제공자 간의 관계를 증진하는 것이 아니라 대체하는 데 사용된다면, 즉 환자가 인간이 아닌 기계와 상호 작용하도록 방치한다면, 매우 중요한 인간 관계 구조가 중앙집권적이고 비인격적이며 불평등한 틀로 전락할 것입니다. 병자와 고통받는 사람들과의 연대를 장려하는 대신, 이러한 AI 적용은 특히 "인간이 더 이상 돌봄과 존중의 최우선 가치로 여겨지지 않는"[138] 문화의 맥락에서 질병에 수반되는 외로움을 악화시킬 위험이 있습니다. 이러한 AI의 오용은 인간 존엄성에 대한 존중과 고통받는 사람들과의 연대에 부합하지 않습니다.
74. Responsibility for the well-being of patients and the decisions that touch upon their lives are at the heart of the healthcare profession. This accountability requires medical professionals to exercise all their skill and intelligence in making well-reasoned and ethically grounded choices regarding those entrusted to their care, always respecting the inviolable dignity of the patients and the need for informed consent. As a result, decisions regarding patient treatment and the weight of responsibility they entail must always remain with the human person and should never be delegated to AI.[139]
74. 환자의 안녕에 대한 책임과 그들의 삶에 영향을 미치는 결정은 의료 전문직의 핵심입니다. 이러한 책임은 의료 전문가가 자신의 모든 기술과 지성을 발휘하여 자신에게 맡겨진 환자에 대해 합리적이고 윤리적인 선택을 내리고, 환자의 불가침한 존엄성과 충분한 정보에 기반한 동의의 필요성을 항상 존중하도록 요구합니다. 따라서 환자 치료와 그에 따른 책임의 무게에 관한 결정은 항상 인간에게 맡겨져야 하며, 결코 AI에 위임되어서는 안 됩니다.[139]
75. In addition, using AI to determine who should receive treatment based predominantly on economic measures or metrics of efficiency represents a particularly problematic instance of the “technocratic paradigm” that must be rejected.[140] For, “optimizing resources means using them in an ethical and fraternal way, and not penalizing the most fragile.”[141] Additionally, AI tools in healthcare are “exposed to forms of bias and discrimination,” where “systemic errors can easily multiply, producing not only injustices in individual cases but also, due to the domino effect, real forms of social inequality.”[142]
75. 또한, 경제적 지표나 효율성 지표를 주로 기반으로 AI를 사용하여 누가 치료를 받아야 하는지 결정하는 것은 반드시 거부되어야 할 "기술관료적 패러다임"의 특히 문제적인 사례입니다.[140] "자원 최적화란 윤리적이고 형제애적인 방식으로 자원을 사용하는 것이지, 가장 취약한 계층을 처벌하는 것이 아니라는 것을 의미합니다."[141] 또한, 의료 분야의 AI 도구는 "편견과 차별의 형태에 노출되어" "체계적 오류가 쉽게 증폭되어 개별 사례의 불의뿐만 아니라 도미노 효과로 인해 실질적인 사회적 불평등을 초래할 수 있습니다."[142]
76. The integration of AI into healthcare also poses the risk of amplifying other existing disparities in access to medical care. As healthcare becomes increasingly oriented toward prevention and lifestyle-based approaches, AI-driven solutions may inadvertently favor more affluent populations who already enjoy better access to medical resources and quality nutrition. This trend risks reinforcing a “medicine for the rich” model, where those with financial means benefit from advanced preventative tools and personalized health information while others struggle to access even basic services. To prevent such inequities, equitable frameworks are needed to ensure that the use of AI in healthcare does not worsen existing healthcare inequalities but rather serves the common good.
76. AI를 의료에 통합하는 것은 의료 서비스 접근성의 다른 기존 격차를 증폭시킬 위험도 있습니다. 의료가 점점 더 예방 및 생활 방식 기반 접근 방식으로 지향됨에 따라, AI 기반 솔루션은 이미 의료 자원과 양질의 영양에 대한 더 나은 접근성을 누리고 있는 더 부유한 계층에게 의도치 않게 유리하게 작용할 수 있습니다. 이러한 추세는 재정적으로 여유 있는 계층은 첨단 예방 도구와 개인화된 건강 정보의 혜택을 누리는 반면, 다른 계층은 기본적인 서비스조차 이용하기 어려워하는 "부자를 위한 의료" 모델을 강화할 위험이 있습니다. 이러한 불평등을 방지하려면 의료 분야에서 AI를 사용함으로써 기존의 불평등이 심화되지 않고 오히려 공동의 이익에 기여할 수 있도록 보장하는 공평한 프레임워크가 필요합니다.
(이하 번역중)
77. The words of the Second Vatican Council remain fully relevant today: “True education strives to form individuals with a view toward their final end and the good of the society to which they belong.”[143] As such, education is “never a mere process of passing on facts and intellectual skills: rather, its aim is to contribute to the person’s holistic formation in its various aspects (intellectual, cultural, spiritual, etc.), including, for example, community life and relations within the academic community,”[144] in keeping with the nature and dignity of the human person.
77. 제2차 바티칸 공의회의 말씀은 오늘날에도 여전히 유효합니다. "참된 교육은 개인을 그들의 최종 목적과 그들이 속한 사회의 선을 지향하는 방향으로 형성하고자 노력합니다."[143] 따라서 교육은 "단순히 사실과 지적 기술을 전달하는 과정이 아닙니다. 오히려 교육의 목적은 인간의 본성과 존엄성에 따라 공동체 생활과 학술 공동체 내의 관계를 포함하여 지적, 문화적, 영적 등 다양한 측면에서 개인의 전인적 형성에 기여하는 것입니다."[144]
78. This approach involves a commitment to cultivating the mind, but always as a part of the integral development of the person: “We must break that idea of education which holds that educating means filling one’s head with ideas. That is the way we educate automatons, cerebral minds, not people. Educating is taking a risk in the tension between the mind, the heart, and the hands.”[145]
78. 이러한 접근 방식은 정신을 계발하는 데 전념하는 것을 포함하지만, 항상 인간의 통합적 발달의 일부로 여겨야 합니다. "교육이란 머릿속에 아이디어를 채우는 것을 의미한다는 교육 관념을 깨뜨려야 합니다. 이것이 바로 우리가 사람이 아닌 자동 기계, 즉 두뇌를 교육하는 방식입니다. 교육은 마음, 가슴, 그리고 손 사이의 긴장 속에서 위험을 감수하는 것입니다."[145]
79. At the center of this work of forming the whole human person is the indispensable relationship between teacher and student. Teachers do more than convey knowledge; they model essential human qualities and inspire the joy of discovery.[146] Their presence motivates students both through the content they teach and the care they demonstrate for their students. This bond fosters trust, mutual understanding, and the capacity to address each person’s unique dignity and potential. On the part of the student, this can generate a genuine desire to grow. The physical presence of a teacher creates a relational dynamic that AI cannot replicate, one that deepens engagement and nurtures the student’s integral development.
79. 온전한 인간을 형성하는 이러한 작업의 중심에는 교사와 학생 간의 필수적인 관계가 있습니다. 교사는 지식을 전달하는 것 이상의 역할을 합니다. 교사는 필수적인 인간적 자질을 본받고 발견의 기쁨을 고취합니다.[146] 교사의 존재는 가르치는 내용과 학생들에게 보여주는 배려를 통해 학생들에게 동기를 부여합니다. 이러한 유대감은 신뢰, 상호 이해, 그리고 각 개인의 고유한 존엄성과 잠재력을 존중하는 능력을 함양합니다. 학생 입장에서는 이러한 유대감이 진정한 성장 욕구를 불러일으킬 수 있습니다. 교사의 물리적 존재는 AI가 복제할 수 없는 관계적 역동성을 만들어내며, 이는 참여를 심화시키고 학생의 통합적 발달을 촉진합니다.
80. In this context, AI presents both opportunities and challenges. If used in a prudent manner, within the context of an existing teacher-student relationship and ordered to the authentic goals of education, AI can become a valuable educational resource by enhancing access to education, offering tailored support, and providing immediate feedback to students. These benefits could enhance the learning experience, especially in cases where individualized attention is needed, or educational resources are otherwise scarce.
80. 이러한 맥락에서 AI는 기회와 과제를 동시에 제시합니다. 기존의 교사-학생 관계 속에서 신중하게 활용되고 교육의 진정한 목표에 맞춰 운영된다면, AI는 교육 접근성을 높이고, 맞춤형 지원을 제공하며, 학생들에게 즉각적인 피드백을 제공함으로써 귀중한 교육 자원이 될 수 있습니다. 이러한 이점은 특히 개별적인 관심이 필요하거나 교육 자원이 부족한 상황에서 학습 경험을 향상시킬 수 있습니다.
81. Nevertheless, an essential part of education is forming “the intellect to reason well in all matters, to reach out towards truth, and to grasp it,”[147] while helping the “language of the head” to grow harmoniously with the “language of the heart” and the “language of the hands.”[148] This is all the more vital in an age marked by technology, in which “it is no longer merely a question of ‘using’ instruments of communication, but of living in a highly digitalized culture that has had a profound impact on […] our ability to communicate, learn, be informed and enter into relationship with others.”[149] However, instead of fostering “a cultivated intellect,” which “brings with it a power and a grace to every work and occupation that it undertakes,”[150] the extensive use of AI in education could lead to the students’ increased reliance on technology, eroding their ability to perform some skills independently and worsening their dependence on screens.[151]
81. 그럼에도 불구하고 교육의 필수적인 부분은 “모든 문제에 대해 잘 추론하고, 진실에 다가가 그것을 파악하는 지성”을 형성하는 것입니다.[147] 동시에 “머리의 언어”가 “마음의 언어” 및 “손의 언어”와 조화롭게 성장하도록 돕는 것입니다.[148] 이는 기술이 특징인 시대에 더욱 중요합니다. “더 이상 단순히 의사소통 도구를 ‘사용’하는 문제가 아니라, 우리의 의사소통, 학습, 정보 습득 및 타인과의 관계 형성 능력에 지대한 영향을 미친 고도로 디지털화된 문화 속에서 살아가는 문제입니다.”[149] 그러나 “수행하는 모든 일과 직업에 힘과 우아함을 가져다주는” “교양 있는 지성”을 기르는 대신[150] 교육에서 AI를 광범위하게 사용하면 학생들의 기술 의존도가 높아지고, 일부 기술을 독립적으로 수행하는 능력이 침식되며, 화면 의존도가 심화될 수 있습니다.[151]
82. Additionally, while some AI systems are designed to help people develop their critical thinking abilities and problem-solving skills, many others merely provide answers instead of prompting students to arrive at answers themselves or write text for themselves.[152] Instead of training young people how to amass information and generate quick responses, education should encourage “the responsible use of freedom to face issues with good sense and intelligence.”[153] Building on this, “education in the use of forms of artificial intelligence should aim above all at promoting critical thinking. Users of all ages, but especially the young, need to develop a discerning approach to the use of data and content collected on the web or produced by artificial intelligence systems. Schools, universities, and scientific societies are challenged to help students and professionals to grasp the social and ethical aspects of the development and uses of technology.”[154]
82. 또한 일부 AI 시스템은 사람들이 비판적 사고 능력과 문제 해결 기술을 개발하도록 돕도록 설계된 반면, 많은 다른 시스템은 학생들이 스스로 답을 도출하거나 스스로 텍스트를 작성하도록 촉구하는 대신 단순히 답변을 제공합니다.[152] 젊은이들에게 정보를 수집하고 신속하게 대응하는 방법을 가르치는 대신, 교육은 “건전한 상식과 지성을 가지고 문제에 직면할 수 있는 자유를 책임감 있게 사용하는 것”을 장려해야 합니다.[153] 이를 바탕으로 “인공지능 활용 교육은 무엇보다도 비판적 사고를 촉진하는 것을 목표로 해야 합니다. 모든 연령대의 사용자, 특히 젊은 세대는 웹에서 수집되거나 인공지능 시스템에서 생성된 데이터와 콘텐츠를 사용하는 데 있어 분별력 있는 접근 방식을 개발해야 합니다. 학교, 대학, 그리고 과학 학회는 학생과 전문가들이 기술 개발 및 활용의 사회적, 윤리적 측면을 이해하도록 돕는 과제에 직면해 있습니다.”[154]
83. As Saint John Paul II recalled, “in the world today, characterized by such rapid developments in science and technology, the tasks of a Catholic University assume an ever greater importance and urgency.”[155] In a particular way, Catholic universities are urged to be present as great laboratories of hope at this crossroads of history. In an inter-disciplinary and cross-disciplinary key, they are urged to engage “with wisdom and creativity”[156] in careful research on this phenomenon, helping to draw out the salutary potential within the various fields of science and reality, and guiding them always towards ethically sound applications that clearly serve the cohesion of our societies and the common good, reaching new frontiers in the dialogue between faith and reason.
83. 요한 바오로 2세 성인께서 말씀하셨듯이, “과학 기술의 급속한 발전이 특징인 오늘날의 세상에서 가톨릭 대학교의 과제는 그 어느 때보다 더 중요하고 시급합니다.”[155] 특히 가톨릭 대학교는 역사의 이 갈림길에서 희망의 위대한 실험실로서 존재해야 합니다. 학제 간 및 학제 간 핵심에서, 그들은 이 현상에 대한 신중한 연구에 "지혜와 창의성"[156]을 가지고 참여하여 다양한 과학 및 현실 분야 내에서 유익한 잠재력을 이끌어내고, 우리 사회의 응집력과 공동선에 분명히 기여하는 윤리적으로 건전한 응용 분야로 항상 인도하고 신앙과 이성 간의 대화에서 새로운 지평을 열도록 촉구받습니다.
84. Moreover, it should be noted that current AI programs have been known to provide biased or fabricated information, which can lead students to trust inaccurate content. This problem “not only runs the risk of legitimizing fake news and strengthening a dominant culture’s advantage, but, in short, it also undermines the educational process itself.”[157] With time, clearer distinctions may emerge between proper and improper uses of AI in education and research. Yet, a decisive guideline is that the use of AI should always be transparent and never misrepresented.
84. 더욱이, 현재의 AI 프로그램은 편향되거나 조작된 정보를 제공하는 것으로 알려져 있으며, 이로 인해 학생들이 부정확한 내용을 신뢰하게 될 수 있다는 점에 유의해야 합니다. 이러한 문제는 "가짜 뉴스를 정당화하고 지배 문화의 이점을 강화할 위험이 있을 뿐만 아니라, 간단히 말해 교육 과정 자체를 훼손합니다."[157] 시간이 지남에 따라 교육 및 연구에서 AI의 적절한 사용과 부적절한 사용 사이의 구분이 더욱 명확해질 수 있습니다. 그러나 결정적인 지침은 AI의 사용은 항상 투명해야 하며 결코 왜곡되어서는 안 된다는 것입니다.
85. AI could be used as an aid to human dignity if it helps people understand complex concepts or directs them to sound resources that support their search for the truth.[158]
85. AI는 사람들이 복잡한 개념을 이해하도록 돕거나 진실을 찾는 데 도움이 되는 건전한 리소스를 안내하는 경우 인간 존엄성을 높이는 데 도움이 될 수 있습니다. [158]
86. However, AI also presents a serious risk of generating manipulated content and false information, which can easily mislead people due to its resemblance to the truth. Such misinformation might occur unintentionally, as in the case of AI “hallucination,” where a generative AI system yields results that appear real but are not. Since generating content that mimics human artifacts is central to AI’s functionality, mitigating these risks proves challenging. Yet, the consequences of such aberrations and false information can be quite grave. For this reason, all those involved in producing and using AI systems should be committed to the truthfulness and accuracy of the information processed by such systems and disseminated to the public.
86. 그러나 AI는 조작된 콘텐츠와 허위 정보를 생성할 수 있는 심각한 위험을 안고 있으며, 이는 진실과 유사하기 때문에 사람들을 쉽게 오도할 수 있습니다. 이러한 허위 정보는 AI의 "환각"처럼 의도치 않게 발생할 수 있습니다. 생성 AI 시스템이 실제처럼 보이지만 실제로는 그렇지 않은 결과를 생성하는 경우가 그 예입니다. 인간의 인공물을 모방하는 콘텐츠를 생성하는 것은 AI의 기능에 핵심적인 역할을 하기 때문에 이러한 위험을 완화하는 것은 쉽지 않습니다. 그러나 이러한 일탈과 허위 정보의 결과는 매우 심각할 수 있습니다. 따라서 AI 시스템을 제작하고 사용하는 모든 사람은 해당 시스템에서 처리되고 대중에게 배포되는 정보의 진실성과 정확성을 보장해야 합니다.
87. While AI has a latent potential to generate false information, an even more troubling problem lies in the deliberate misuse of AI for manipulation. This can occur when individuals or organizations intentionally generate and spread false content with the aim to deceive or cause harm, such as “deepfake” images, videos, and audio—referring to a false depiction of a person, edited or generated by an AI algorithm. The danger of deepfakes is particularly evident when they are used to target or harm others. While the images or videos themselves may be artificial, the damage they cause is real, leaving “deep scars in the hearts of those who suffer it” and “real wounds in their human dignity.”[159]
88. On a broader scale, by distorting “our relationship with others and with reality,”[160] AI-generated fake media can gradually undermine the foundations of society. This issue requires careful regulation, as misinformation—especially through AI-controlled or influenced media—can spread unintentionally, fueling political polarization and social unrest. When society becomes indifferent to the truth, various groups construct their own versions of “facts,” weakening the “reciprocal ties and mutual dependencies”[161] that underpin the fabric of social life. As deepfakes cause people to question everything and AI-generated false content erodes trust in what they see and hear, polarization and conflict will only grow. Such widespread deception is no trivial matter; it strikes at the core of humanity, dismantling the foundational trust on which societies are built.[162]
88. 더 넓은 범위에서, AI가 생성한 가짜 미디어는 "타인과 현실과의 관계"를 왜곡함으로써 [160] 사회의 기반을 점진적으로 훼손할 수 있습니다. 특히 AI가 통제하거나 영향을 미치는 미디어를 통해 잘못된 정보가 의도치 않게 확산되어 정치적 양극화와 사회적 불안을 조장할 수 있으므로, 이 문제는 신중한 규제가 필요합니다. 사회가 진실에 무관심해지면 다양한 집단이 자신들만의 "사실"을 만들어내 사회생활의 근간을 이루는 "상호 유대감과 상호 의존성" [161]을 약화시킵니다. 딥페이크는 사람들이 모든 것을 의심하게 만들고 AI가 생성한 허위 콘텐츠는 보고 듣는 것에 대한 신뢰를 약화시키기 때문에 양극화와 갈등은 더욱 심화될 것입니다. 이처럼 만연한 기만이 결코 사소한 문제가 아닙니다. 이는 인류의 핵심을 공격하여 사회의 근간이 되는 신뢰를 무너뜨립니다. [162]
89. Countering AI-driven falsehoods is not only the work of industry experts—it requires the efforts of all people of goodwill. “If technology is to serve human dignity and not harm it, and if it is to promote peace rather than violence, then the human community must be proactive in addressing these trends with respect to human dignity and the promotion of the good.”[163] Those who produce and share AI-generated content should always exercise diligence in verifying the truth of what they disseminate and, in all cases, should “avoid the sharing of words and images that are degrading of human beings, that promote hatred and intolerance, that debase the goodness and intimacy of human sexuality or that exploit the weak and vulnerable.”[164] This calls for the ongoing prudence and careful discernment of all users regarding their activity online.[165]
89. AI 기반 허위 정보에 대응하는 것은 업계 전문가만의 일이 아닙니다. 모든 선의의 사람들의 노력이 필요합니다. "기술이 인간 존엄성을 해치는 것이 아니라 증진하는 것이라면, 그리고 폭력보다는 평화를 증진하는 것이라면, 인간 공동체는 인간 존엄성과 선의 증진이라는 관점에서 이러한 추세에 적극적으로 대처해야 합니다." [163] AI 기반 콘텐츠를 제작하고 공유하는 사람들은 자신이 배포하는 콘텐츠의 진실성을 항상 성실히 검증해야 하며, 어떤 경우에도 "인간을 비하하고, 증오와 편협을 조장하고, 인간의 성생활의 선함과 친밀함을 훼손하거나, 약자와 취약 계층을 착취하는 언어와 이미지의 공유를 피해야 합니다." [164] 이를 위해서는 모든 사용자가 온라인 활동에 대해 지속적인 신중함과 신중한 분별력을 발휘해야 합니다. [165]
90. Humans are inherently relational, and the data each person generates in the digital world can be seen as an objectified expression of this relational nature. Data conveys not only information but also personal and relational knowledge, which, in an increasingly digitized context, can amount to power over the individual. Moreover, while some types of data may pertain to public aspects of a person’s life, others may touch upon the individual’s interiority, perhaps even their conscience. Seen in this way, privacy plays an essential role in protecting the boundaries of a person’s inner life, preserving their freedom to relate to others, express themselves, and make decisions without undue control. This protection is also tied to the defense of religious freedom, as surveillance can also be misused to exert control over the lives of believers and how they express their faith.
90. 인간은 본질적으로 관계적이며, 디지털 세계에서 각 개인이 생성하는 데이터는 이러한 관계적 본질의 객관화된 표현으로 볼 수 있습니다. 데이터는 정보뿐만 아니라 개인적, 관계적 지식을 전달하며, 점점 더 디지털화되는 맥락에서 이는 개인에 대한 권력으로 간주될 수 있습니다. 더욱이, 어떤 유형의 데이터는 개인의 삶의 공적인 측면과 관련될 수 있지만, 다른 유형의 데이터는 개인의 내면, 심지어 양심에까지 영향을 미칠 수 있습니다. 이러한 관점에서 볼 때, 프라이버시는 개인의 내면적 삶의 경계를 보호하고, 타인과 관계를 맺고, 자신을 표현하고, 부당한 통제 없이 결정을 내릴 자유를 보호하는 데 필수적인 역할을 합니다. 이러한 보호는 또한 종교의 자유 수호와도 연관되어 있는데, 감시는 신자들의 삶과 신앙 표현 방식을 통제하는 데 악용될 수 있기 때문입니다.
91. It is appropriate, therefore, to address the issue of privacy from a concern for the legitimate freedom and inalienable dignity of the human person “in all circumstances.”[166] The Second Vatican Council included the right “to safeguard privacy” among the fundamental rights “necessary for living a genuinely human life,” a right that should be extended to all people on account of their “sublime dignity.”[167] Furthermore, the Church has also affirmed the right to the legitimate respect for a private life in the context of affirming the person’s right to a good reputation, defense of their physical and mental integrity, and freedom from harm or undue intrusion[168]—essential components of the due respect for the intrinsic dignity of the human person.[169]
91. 따라서 “모든 상황에서” 인간의 합법적인 자유와 양도할 수 없는 존엄성에 대한 관심에서 사생활 문제를 다루는 것이 적절합니다. [166] 제2차 바티칸 공의회는 “진정한 인간적 삶을 사는 데 필요한” 기본권에 “사생활을 보호할 권리”를 포함시켰으며, 이 권리는 “숭고한 존엄성” 때문에 모든 사람에게 부여되어야 합니다. [167] 더 나아가 교회는 개인의 명예, 신체적, 정신적 완전성의 방어, 해로움이나 부당한 침해로부터의 자유에 대한 권리를 확인하는 맥락에서 사생활에 대한 합법적 존중의 권리를 확인했습니다 . [168] 이는 인간의 본질적 존엄성에 대한 적절한 존중의 필수 요소입니다. [169]
92. Advances in AI-powered data processing and analysis now make it possible to infer patterns in a person’s behavior and thinking from even a small amount of information, making the role of data privacy even more imperative as a safeguard for the dignity and relational nature of the human person. As Pope Francis observed, “while closed and intolerant attitudes towards others are on the rise, distances are otherwise shrinking or disappearing to the point that the right to privacy scarcely exists. Everything has become a kind of spectacle to be examined and inspected, and people’s lives are now under constant surveillance.”[170]
92. AI 기반 데이터 처리 및 분석 기술의 발전으로 이제 소량의 정보만으로도 개인의 행동과 사고 패턴을 유추할 수 있게 되었으며, 이는 인간의 존엄성과 관계적 본질을 보호하는 데이터 프라이버시의 역할을 더욱 절실하게 만들고 있습니다. 프란치스코 교황은 "타인에 대한 폐쇄적이고 편협한 태도가 증가하는 반면, 다른 측면에서는 거리가 줄어들거나 사라져 프라이버시권이 거의 존재하지 않는 지경에 이르렀습니다. 모든 것이 일종의 구경거리가 되어 조사하고 검열해야 할 대상이 되었고, 사람들의 삶은 이제 끊임없는 감시를 받고 있습니다."라고 지적했습니다. [170]
93. While there can be legitimate and proper ways to use AI in keeping with human dignity and the common good, using it for surveillance aimed at exploiting, restricting others’ freedom, or benefitting a few at the expense of the many is unjustifiable. The risk of surveillance overreach must be monitored by appropriate regulators to ensure transparency and public accountability. Those responsible for surveillance should never exceed their authority, which must always favor the dignity and freedom of every person as the essential basis of a just and humane society.
93. 인간의 존엄성과 공익을 위해 AI를 사용하는 합법적이고 적절한 방법이 있을 수 있지만, 타인의 자유를 착취하거나 제한하거나, 다수를 희생시켜 소수에게만 이익을 주는 감시에 사용하는 것은 정당화될 수 없습니다. 감시의 과도한 범위에 대한 위험은 투명성과 공공의 책임을 보장하기 위해 적절한 규제 기관에 의해 모니터링되어야 합니다. 감시 책임자는 결코 자신의 권한을 넘어서는 안 되며, 정의롭고 인도적인 사회의 필수적 기반인 모든 사람의 존엄성과 자유를 항상 옹호해야 합니다.
94. Furthermore, “fundamental respect for human dignity demands that we refuse to allow the uniqueness of the person to be identified with a set of data.”[171] This especially applies when AI is used to evaluate individuals or groups based on their behavior, characteristics, or history—a practice known as “social scoring”: “In social and economic decision-making, we should be cautious about delegating judgments to algorithms that process data, often collected surreptitiously, on an individual’s makeup and prior behavior. Such data can be contaminated by societal prejudices and preconceptions. A person’s past behavior should not be used to deny him or her the opportunity to change, grow, and contribute to society. We cannot allow algorithms to limit or condition respect for human dignity, or to exclude compassion, mercy, forgiveness, and above all, the hope that people are able to change.”[172]
94. 더 나아가, "인간 존엄성에 대한 근본적인 존중은 우리가 개인의 고유성이 일련의 데이터로 식별되는 것을 허용하지 않을 것을 요구합니다." [171] 이는 특히 AI가 개인이나 집단의 행동, 특성 또는 이력을 기반으로 평가하는 데 사용될 때, 즉 "사회적 점수 매기기"로 알려진 관행에 적용됩니다. "사회적 및 경제적 의사 결정에서 우리는 개인의 기질과 이전 행동에 대한 데이터(종종 은밀하게 수집됨)를 처리하는 알고리즘에 판단을 위임하는 것에 대해 신중해야 합니다. 이러한 데이터는 사회적 편견과 선입견에 의해 오염될 수 있습니다. 개인의 과거 행동을 이용하여 그 사람이 변화하고 성장하며 사회에 기여할 기회를 박탈해서는 안 됩니다. 우리는 알고리즘이 인간 존엄성에 대한 존중을 제한하거나 조건화하거나, 연민, 자비, 용서, 그리고 무엇보다도 사람들이 변화할 수 있다는 희망을 배제하는 것을 허용해서는 안 됩니다." [172]
95. AI has many promising applications for improving our relationship with our “common home,” such as creating models to forecast extreme climate events, proposing engineering solutions to reduce their impact, managing relief operations, and predicting population shifts.[173] Additionally, AI can support sustainable agriculture, optimize energy usage, and provide early warning systems for public health emergencies. These advancements have the potential to strengthen resilience against climate-related challenges and promote more sustainable development.
95. AI는 극한 기후 현상을 예측하는 모델 개발, 그 영향을 줄이기 위한 공학적 해결책 제안, 구호 활동 관리, 인구 이동 예측 등 우리 "공동의 집"과의 관계 개선을 위한 다양한 유망한 응용 분야를 가지고 있습니다. [173] 또한, AI는 지속 가능한 농업을 지원하고, 에너지 사용을 최적화하며, 공중 보건 비상사태에 대한 조기 경보 시스템을 제공할 수 있습니다. 이러한 발전은 기후 관련 문제에 대한 회복력을 강화하고 더욱 지속 가능한 개발을 촉진할 잠재력을 가지고 있습니다.
96. At the same time, current AI models and the hardware required to support them consume vast amounts of energy and water, significantly contributing to CO2 emissions and straining resources. This reality is often obscured by the way this technology is presented in the popular imagination, where words such as “the cloud” [174] can give the impression that data is stored and processed in an intangible realm, detached from the physical world. However, “the cloud” is not an ethereal domain separate from the physical world; as with all computing technologies, it relies on physical machines, cables, and energy. The same is true of the technology behind AI. As these systems grow in complexity, especially large language models (LLMs), they require ever-larger datasets, increased computational power, and greater storage infrastructure. Considering the heavy toll these technologies take on the environment, it is vital to develop sustainable solutions that reduce their impact on our common home.
96. 동시에, 현재 AI 모델과 이를 지원하는 데 필요한 하드웨어는 막대한 양의 에너지와 물을 소비하여 CO₂ 배출에 크게 기여하고 자원 을 고갈시킵니다. 이러한 현실은 이 기술이 대중의 상상 속에서 제시되는 방식 때문에 종종 가려집니다. "클라우드" [174] 와 같은 단어는 데이터가 물리적 세계와 분리된 무형의 영역에 저장되고 처리된다는 인상을 줄 수 있습니다. 그러나 "클라우드"는 물리적 세계와 분리된 영적인 영역이 아닙니다. 모든 컴퓨팅 기술과 마찬가지로 물리적 기계, 케이블, 에너지에 의존합니다. 이는 AI의 기반 기술에도 마찬가지입니다. 이러한 시스템, 특히 대규모 언어 모델(LLM)의 복잡성이 증가함에 따라 더 큰 데이터 세트, 향상된 컴퓨팅 성능, 그리고 더 큰 저장 인프라가 필요합니다. 이러한 기술이 환경에 미치는 막대한 피해를 고려할 때, 우리 모두에게 미치는 영향을 줄이는 지속 가능한 솔루션을 개발하는 것이 중요합니다.
97. Even then, as Pope Francis teaches, it is essential “that we look for solutions not only in technology but in a change of humanity.”[175] A complete and authentic understanding of creation recognizes that the value of all created things cannot be reduced to their mere utility. Therefore, a fully human approach to the stewardship of the earth rejects the distorted anthropocentrism of the technocratic paradigm, which seeks to “extract everything possible” from the world, [176] and rejects the “myth of progress,” which assumes that “ecological problems will solve themselves simply with the application of new technology and without any need for ethical considerations or deep change.”[177] Such a mindset must give way to a more holistic approach that respects the order of creation and promotes the integral good of the human person while safeguarding our common home. [178]
97. 그럼에도 불구하고 프란치스코 교황이 가르치듯이, “우리는 기술뿐만 아니라 인류의 변화에서 해결책을 찾아야 합니다.” [175] 창조에 대한 완전하고 진정한 이해는 모든 창조물의 가치가 단순한 유용성으로 환원될 수 없음을 인식합니다. 따라서 지구 관리에 대한 온전히 인간적인 접근 방식은 세상에서 “가능한 모든 것을 뽑아내려는” [176] 기술관료 패러다임의 왜곡된 인간중심주의를 거부하고, “생태 문제는 새로운 기술의 적용만으로 윤리적 고려나 심층적인 변화 없이 스스로 해결될 것”이라고 가정하는 “진보의 신화”를 거부합니다. [177] 이러한 사고방식은 창조의 질서를 존중하고 우리 공동의 집을 보호하면서 인간의 온전한 선을 증진하는 더욱 전체론적인 접근 방식으로 대체되어야 합니다. [178]
98. The Second Vatican Council and the consistent teaching of the Popes since then have insisted that peace is not merely the absence of war and is not limited to maintaining a balance of powers between adversaries. Instead, in the words of Saint Augustine, peace is “the tranquility of order.” [179] Indeed, peace cannot be attained without safeguarding the goods of persons, free communication, respect for the dignity of persons and peoples, and the assiduous practice of fraternity. Peace is the work of justice and the effect of charity and cannot be achieved through force alone; instead, it must be principally built through patient diplomacy, the active promotion of justice, solidarity, integral human development, and respect for the dignity of all people.[180] In this way, the tools used to maintain peace should never be allowed to justify injustice, violence, or oppression. Instead, they should always be governed by a “firm determination to respect other people and nations, along with their dignity, as well as the deliberate practice of fraternity.”[181]
98. 제2차 바티칸 공의회와 그 이후 교황들의 일관된 가르침은 평화가 단순히 전쟁의 부재나 적대 세력 간의 균형 유지에 국한되지 않음을 강조해 왔습니다. 오히려 성 아우구스티누스의 말처럼 평화는 “질서의 평온”입니다. [179] 실제로 평화는 개인의 선익 보호, 자유로운 소통, 개인과 민족의 존엄성 존중, 그리고 형제애의 끊임없는 실천 없이는 달성될 수 없습니다. 평화는 정의의 산물이자 사랑의 결과이며, 힘만으로는 달성될 수 없습니다. 오히려 평화는 주로 인내심 있는 외교, 정의의 적극적인 증진, 연대, 온전한 인간 발전, 그리고 모든 사람의 존엄성 존중을 통해 구축되어야 합니다. [180] 따라서 평화 유지를 위해 사용되는 도구가 결코 불의, 폭력, 또는 억압을 정당화하는 데 사용되어서는 안 됩니다. 오히려 이러한 도구는 항상 “다른 사람과 국가를 그들의 존엄성과 함께 존중하려는 확고한 결의, 그리고 형제애의 의도적인 실천”에 의해 지배되어야 합니다. [181]
99. While AI’s analytical abilities could help nations seek peace and ensure security, the “weaponization of Artificial Intelligence” can also be highly problematic. Pope Francis has observed that “the ability to conduct military operations through remote control systems has led to a lessened perception of the devastation caused by those weapon systems and the burden of responsibility for their use, resulting in an even more cold and detached approach to the immense tragedy of war.”[182] Moreover, the ease with which autonomous weapons make war more viable militates against the principle of war as a last resort in legitimate self-defense,[183] potentially increasing the instruments of war well beyond the scope of human oversight and precipitating a destabilizing arms race, with catastrophic consequences for human rights.[184]
99. AI의 분석 능력은 국가가 평화를 추구하고 안보를 확보하는 데 도움이 될 수 있지만, "인공지능의 무기화"는 매우 심각한 문제를 야기할 수 있습니다. 프란치스코 교황은 "원격 제어 시스템을 통해 군사 작전을 수행할 수 있게 되면서 이러한 무기 체계가 초래하는 파괴와 그 사용에 대한 책임 부담에 대한 인식이 약화되었고, 전쟁이라는 엄청난 비극에 대해 더욱 냉정하고 객관적인 접근 방식을 취하게 되었다"고 지적했습니다. [182] 더욱이 자율 무기가 전쟁을 더욱 실행 가능하게 만드는 것은 전쟁을 정당한 자기 방어의 최후의 수단으로 삼는 원칙에 위배되며, [183] 전쟁 도구가 인간의 감독 범위를 훨씬 넘어서게 되고 불안정한 군비 경쟁을 촉발하여 인권에 치명적인 결과를 초래할 수 있습니다. [184]
100. In particular, Lethal Autonomous Weapon Systems, which are capable of identifying and striking targets without direct human intervention, are a “cause for grave ethical concern” because they lack the “unique human capacity for moral judgment and ethical decision-making.”[185] For this reason, Pope Francis has urgently called for a reconsideration of the development of these weapons and a prohibition on their use, starting with “an effective and concrete commitment to introduce ever greater and proper human control. No machine should ever choose to take the life of a human being.”[186]
100. 특히, 직접적인 인간 개입 없이 표적을 식별하고 타격할 수 있는 치명적 자율 무기 체계는 "도덕적 판단과 윤리적 의사 결정에 대한 고유한 인간 능력"이 부족하기 때문에 "심각한 윤리적 우려의 원인"입니다. [185] 이러한 이유로 프란치스코 교황은 이러한 무기 개발에 대한 재고와 사용 금지를 긴급히 촉구했으며, "더욱 강력하고 적절한 인간 통제를 도입하기 위한 효과적이고 구체적인 약속"을 시작으로 했습니다. 어떤 기계도 결코 인간의 생명을 빼앗는 것을 선택해서는 안 됩니다. [186]
101. Since it is a small step from machines that can kill autonomously with precision to those capable of large-scale destruction, some AI researchers have expressed concerns that such technology poses an “existential risk” by having the potential to act in ways that could threaten the survival of entire regions or even of humanity itself. This danger demands serious attention, reflecting the long-standing concern about technologies that grant war “an uncontrollable destructive power over great numbers of innocent civilians,”[187] without even sparing children. In this context, the call from Gaudium et Spes to “undertake an evaluation of war with an entirely new attitude”[188] is more urgent than ever.
101. 정밀하게 자율적으로 살상할 수 있는 기계에서 대규모 파괴가 가능한 기계로의 전환은 매우 짧은 단계이기 때문에, 일부 AI 연구자들은 이러한 기술이 전체 지역 또는 인류 자체의 생존을 위협할 수 있는 방식으로 행동할 가능성을 가지고 있어 "존재적 위험"을 초래한다는 우려를 표명해 왔습니다. 이러한 위험은 심각한 주의를 요하며, 전쟁에 "수많은 무고한 민간인에게 통제할 수 없는 파괴력"을 부여하는 기술에 대한 오랜 우려를 반영합니다. [187] 심지어 어린이도 예외는 아닙니다. 이러한 맥락에서, Gaudium et Spes 가 "완전히 새로운 태도로 전쟁을 평가해야 한다" [188] 고 촉구하는 것은 그 어느 때보다 시급합니다.
102. At the same time, while the theoretical risks of AI deserve attention, the more immediate and pressing concern lies in how individuals with malicious intentions might misuse this technology.[189] Like any tool, AI is an extension of human power, and while its future capabilities are unpredictable, humanity’s past actions provide clear warnings. The atrocities committed throughout history are enough to raise deep concerns about the potential abuses of AI.
102. 동시에 AI의 이론적 위험에 주목할 가치가 있지만, 더욱 시급하고 시급한 문제는 악의적인 의도를 가진 개인이 이 기술을 어떻게 오용할 수 있는지에 대한 것입니다. [189] 다른 도구와 마찬가지로 AI는 인간 능력의 연장선이며, AI의 미래 역량은 예측할 수 없지만 인류의 과거 행동은 분명한 경고를 제공합니다. 역사 전반에 걸쳐 자행된 잔혹 행위들은 AI의 잠재적 남용에 대한 심각한 우려를 불러일으키기에 충분합니다.
103. Saint John Paul II observed that “humanity now has instruments of unprecedented power: we can turn this world into a garden, or reduce it to a pile of rubble.”[190] Given this fact, the Church reminds us, in the words of Pope Francis, that “we are free to apply our intelligence towards things evolving positively,” or toward “decadence and mutual destruction.”[191] To prevent humanity from spiraling into self-destruction,[192] there must be a clear stand against all applications of technology that inherently threaten human life and dignity. This commitment requires careful discernment about the use of AI, particularly in military defense applications, to ensure that it always respects human dignity and serves the common good. The development and deployment of AI in armaments should be subject to the highest levels of ethical scrutiny, governed by a concern for human dignity and the sanctity of life.[193]
103. 요한 바오로 2세 성인은 “인류는 이제 전례 없는 힘을 가진 도구를 가지고 있습니다. 우리는 이 세상을 정원으로 만들 수도 있고, 잔해 더미로 만들 수도 있습니다.”라고 말씀하셨습니다. [190] 이러한 사실을 바탕으로, 교회는 프란치스코 교황의 말씀을 통해 “우리는 긍정적으로 진화하는 것들, 즉 “퇴폐와 상호 파괴”를 향해 지성을 쏟을 자유가 있습니다.”라고 상기시켜 줍니다. [191] 인류가 자기파괴의 나락으로 빠지는 것을 막기 위해서는 [192] 인간의 생명과 존엄성을 본질적으로 위협하는 모든 기술 응용에 대한 명확한 입장이 있어야 합니다. 이러한 헌신은 특히 군사 방위 분야에서 AI의 사용에 대한 신중한 분별력을 요구하며, AI가 항상 인간 존엄성을 존중하고 공동선에 기여하도록 해야 합니다. 군비 증강에 있어 AI의 개발 및 배치는 인간 존엄성과 생명의 신성함에 대한 관심에 따라 최고 수준의 윤리적 검토를 거쳐야 합니다. [193]
104. Technology offers remarkable tools to oversee and develop the world’s resources. However, in some cases, humanity is increasingly ceding control of these resources to machines. Within some circles of scientists and futurists, there is optimism about the potential of artificial general intelligence (AGI), a hypothetical form of AI that would match or surpass human intelligence and bring about unimaginable advancements. Some even speculate that AGI could achieve superhuman capabilities. At the same time, as society drifts away from a connection with the transcendent, some are tempted to turn to AI in search of meaning or fulfillment—longings that can only be truly satisfied in communion with God.[194]
104. 기술은 세계 자원을 관리하고 개발하는 놀라운 도구를 제공합니다. 그러나 어떤 경우에는 인류가 이러한 자원에 대한 통제권을 기계에게 점점 더 넘겨주고 있습니다. 일부 과학자와 미래학자들은 인간 지능에 필적하거나 이를 능가하는 가상의 AI인 인공 일반 지능(AGI)의 잠재력에 대한 낙관론을 가지고 있습니다. AGI는 상상할 수 없는 발전을 가져올 것입니다. 심지어 AGI가 초인적인 능력을 달성할 수 있다고 추측하는 사람들도 있습니다. 동시에 사회가 초월적인 존재와의 연결에서 멀어짐에 따라, 어떤 이들은 의미나 성취를 찾아 AI에 의지하려는 유혹을 받고 있습니다. 이러한 갈망은 신과의 교감 안에서만 진정으로 충족될 수 있습니다. [194]
105. However, the presumption of substituting God for an artifact of human making is idolatry, a practice Scripture explicitly warns against (e.g., Ex. 20:4; 32:1-5; 34:17). Moreover, AI may prove even more seductive than traditional idols for, unlike idols that “have mouths but do not speak; eyes, but do not see; ears, but do not hear” (Ps. 115:5-6), AI can “speak,” or at least gives the illusion of doing so (cf. Rev. 13:15). Yet, it is vital to remember that AI is but a pale reflection of humanity—it is crafted by human minds, trained on human-generated material, responsive to human input, and sustained through human labor. AI cannot possess many of the capabilities specific to human life, and it is also fallible. By turning to AI as a perceived “Other” greater than itself, with which to share existence and responsibilities, humanity risks creating a substitute for God. However, it is not AI that is ultimately deified and worshipped, but humanity itself—which, in this way, becomes enslaved to its own work.[195]
105. 그러나 인간이 만든 인공물을 신으로 대체하는 것은 우상 숭배이며 , 성경은 이러한 행위에 대해 명시적으로 경고합니다(예: 출 20:4; 32:1-5; 34:17). 더욱이 AI는 전통적인 우상보다 훨씬 더 매혹적일 수 있습니다. 왜냐하면 "입이 있어도 말하지 못하고 눈이 있어도 보지 못하고 귀가 있어도 듣지 못하는"(시 115:5-6) 우상과 달리 AI는 "말할" 수 있거나 적어도 그렇게 하는 듯한 환상을 주기 때문입니다(계 13:15 참조). 그러나 AI는 인간을 희미하게 반영한 것에 불과하다는 점을 기억하는 것이 중요합니다. AI는 인간의 정신으로 만들어지고, 인간이 생성한 자료로 훈련되며, 인간의 입력에 반응하고, 인간의 노동을 통해 유지됩니다. AI는 인간 삶에 특화된 많은 능력을 가질 수 없으며, 또한 오류가 있을 수 있습니다. AI를 자신보다 더 큰 존재이자 책임을 공유할 수 있는 "타자"로 인식함으로써, 인간은 신의 대체물을 만들어낼 위험이 있습니다. 그러나 궁극적으로 신격화되고 숭배되는 것은 AI가 아니라 인간 그 자체입니다. 이런 식으로 인간 그 자체는 자신의 일에 노예가 됩니다. [195]
106. While AI has the potential to serve humanity and contribute to the common good, it remains a creation of human hands, bearing “the imprint of human art and ingenuity” (Acts 17:29). It must never be ascribed undue worth. As the Book of Wisdom affirms: “For a man made them, and one whose spirit is borrowed formed them; for no man can form a god which is like himself. He is mortal, and what he makes with lawless hands is dead, for he is better than the objects he worships since he has life, but they never have” (Wis. 15:16-17).
106. AI는 인류에게 봉사하고 공동선에 기여할 잠재력을 가지고 있지만, 여전히 인간 손으로 만든 창조물로서 "인간의 예술과 재치의 흔적"(사도행전 17:29)을 지니고 있습니다. 결코 부당한 가치를 부여해서는 안 됩니다. 지혜서에서 단언하듯이, "사람이 그것들을 만들었고, 자신의 영을 빌려온 자가 그것들을 형성했습니다. 아무도 자신과 같은 신을 만들 수 없기 때문입니다. 인간은 필멸의 존재이며, 그가 법 없는 손으로 만든 것은 죽은 것입니다. 인간은 그가 숭배하는 대상들보다 더 낫습니다. 왜냐하면 그는 생명을 가지고 있지만, 그것들은 결코 생명을 가지지 못하기 때문입니다"(지혜서 15:16-17).
107. In contrast, human beings, “by their interior life, transcend the entire material universe; they experience this deep interiority when they enter into their own heart, where God, who probes the heart, awaits them, and where they decide their own destiny in the sight of God.”[196] It is within the heart, as Pope Francis reminds us, that each individual discovers the “mysterious connection between self-knowledge and openness to others, between the encounter with one’s personal uniqueness and the willingness to give oneself to others.”[197] Therefore, it is the heart alone that is “capable of setting our other powers and passions, and our entire person, in a stance of reverence and loving obedience before the Lord,”[198] who “offers to treat each one of us as a ‘Thou,’ always and forever.”[199]
107. 이와 대조적으로 인간은 “내면의 삶으로 물질적 우주 전체를 초월합니다. 인간은 자신의 마음속으로 들어갈 때 이 깊은 내면성을 경험합니다. 그곳에서 마음을 살피시는 하느님께서 그들을 기다리고 계시며, 그들은 하느님의 눈앞에서 자신의 운명을 스스로 결정합니다.” [196] 프란치스코 교황이 우리에게 상기시키듯이, 각 개인이 “자기 인식과 타인에 대한 개방성, 자신의 개인적 독특성과의 만남과 타인에게 자신을 기꺼이 바치려는 의지 사이의 신비로운 연결”을 발견하는 것은 바로 마음입니다. [197] 따라서 “우리의 다른 힘과 열정, 그리고 우리의 온 인격을 주님 앞에서 경건하고 사랑에 찬 순종의 자세로 놓을 수 있는” 것은 오직 마음뿐입니다. [198] 주님은 “우리 각자를 영원히 ‘너’로 대우해 주시겠다고 제안하십니다.” [199]
108. Considering the various challenges posed by advances in technology, Pope Francis emphasized the need for growth in “human responsibility, values, and conscience,” proportionate to the growth in the potential that this technology brings[200]—recognizing that “with an increase in human power comes a broadening of responsibility on the part of individuals and communities.”[201]
108. 교황 프란치스코는 기술 발전으로 인해 제기되는 다양한 과제를 고려하여 이 기술이 가져오는 잠재력의 성장에 비례하여 “인간의 책임, 가치, 양심”이 성장해야 한다는 점을 강조했습니다. [200] “인간의 힘이 커짐에 따라 개인과 공동체의 책임도 확대됩니다.” [201]
109. At the same time, the “essential and fundamental question” remains “whether in the context of this progress man, as man, is becoming truly better, that is to say, more mature spiritually, more aware of the dignity of his humanity, more responsible, more open to others, especially the neediest and the weakest, and readier to give and to aid all.”[202]
109. 동시에 “본질적이고 근본적인 질문”은 “이러한 진보의 맥락에서 인간이 인간으로서 참으로 더 나아지고 있는지, 즉 영적으로 더 성숙해지고, 인간성의 존엄성을 더 잘 알고, 더 책임감을 갖고, 특히 가장 궁핍하고 약한 사람들에게 더 열려 있고, 모든 사람에게 베풀고 도울 준비가 되어 있는지”에 남아 있습니다. [202]
110. As a result, it is crucial to know how to evaluate individual applications of AI in particular contexts to determine whether its use promotes human dignity, the vocation of the human person, and the common good. As with many technologies, the effects of the various uses of AI may not always be predictable from their inception. As these applications and their social impacts become clearer, appropriate responses should be made at all levels of society, following the principle of subsidiarity. Individual users, families, civil society, corporations, institutions, governments, and international organizations should work at their proper levels to ensure that AI is used for the good of all.
110. 결과적으로, 특정 맥락에서 AI의 개별 적용을 평가하여 AI의 사용이 인간 존엄성, 인간의 소명, 그리고 공익을 증진하는지 여부를 판단하는 것이 매우 중요합니다. 많은 기술과 마찬가지로, AI의 다양한 활용이 미치는 영향은 처음부터 항상 예측 가능한 것은 아닙니다. 이러한 활용과 그 사회적 영향이 더욱 명확해짐에 따라, 사회의 모든 계층에서 보충성의 원칙에 따라 적절한 대응이 이루어져야 합니다. 개인 사용자, 가족, 시민사회, 기업, 기관, 정부, 그리고 국제기구는 AI가 모두의 이익을 위해 사용되도록 각자의 위치에서 노력해야 합니다.
111. A significant challenge and opportunity for the common good today lies in considering AI within a framework of relational intelligence, which emphasizes the interconnectedness of individuals and communities and highlights our shared responsibility for fostering the integral well-being of others. The twentieth-century philosopher Nicholas Berdyaev observed that people often blame machines for personal and social problems; however, “this only humiliates man and does not correspond to his dignity,” for “it is unworthy to transfer responsibility from man to a machine.”[203] Only the human person can be morally responsible, and the challenges of a technological society are ultimately spiritual in nature. Therefore, facing those challenges “demands an intensification of spirituality.”[204]
111. 오늘날 공익을 위한 중요한 도전이자 기회는 개인과 공동체의 상호 연결성을 강조하고 타인의 온전한 복지 증진에 대한 우리의 공동 책임을 강조하는 관계적 지능의 틀 안에서 AI를 고려하는 데 있습니다. 20세기 철학자 니콜라스 베르디아예프는 사람들이 개인적, 사회적 문제의 원인을 기계에 돌리는 경우가 많다고 지적했습니다. 그러나 "이는 인간을 모욕할 뿐이며 인간의 존엄성에 부합하지 않는다"고 지적했습니다. "인간에게서 기계에게 책임을 전가하는 것은 부당하기 때문이다." [203] 오직 인간만이 도덕적 책임을 질 수 있으며, 기술 사회의 도전은 궁극적으로 영적인 성격을 지닙니다. 따라서 이러한 도전에 직면하려면 "영성의 강화가 요구된다." [204]
112. A further point to consider is the call, prompted by the appearance of AI on the world stage, for a renewed appreciation of all that is human. Years ago, the French Catholic author Georges Bernanos warned that “the danger is not in the multiplication of machines, but in the ever-increasing number of men accustomed from their childhood to desire only what machines can give.”[205] This challenge is as true today as it was then, as the rapid pace of digitization risks a “digital reductionism,” where non-quantifiable aspects of life are set aside and then forgotten or even deemed irrelevant because they cannot be computed in formal terms. AI should be used only as a tool to complement human intelligence rather than replace its richness.[206] Cultivating those aspects of human life that transcend computation is crucial for preserving “an authentic humanity” that “seems to dwell in the midst of our technological culture, almost unnoticed, like a mist seeping gently beneath a closed door.”[207]
112. 고려해야 할 또 다른 점은 AI가 세계 무대에 등장하면서 인간적인 모든 것에 대한 새로운 인식이 필요하다는 요구입니다 . 수년 전, 프랑스 가톨릭 작가 조르주 베르나노스는 "위험은 기계의 증식에 있는 것이 아니라, 어린 시절부터 기계가 줄 수 있는 것만을 바라는 데 익숙해진 사람들이 점점 더 늘어나는 데 있다"라고 경고했습니다. [205] 이러한 과제는 당시와 마찬가지로 오늘날에도 여전히 유효합니다. 급속한 디지털화 속도는 삶의 정량화할 수 없는 측면들을 제쳐두고 잊거나 심지어 형식적인 용어로 계산할 수 없다는 이유로 무의미하다고 간주하는 "디지털 환원주의"의 위험을 안고 있기 때문입니다. AI는 인간 지능의 풍요로움을 대체하기보다는 보완하는 도구로만 사용되어야 합니다. [206] 계산을 초월하는 인간 삶의 측면들을 계발하는 것은 "우리의 기술 문화 한가운데, 마치 닫힌 문 아래로 부드럽게 스며드는 안개처럼 거의 눈에 띄지 않게 자리 잡고 있는 것처럼 보이는" "진정한 인간성"을 보존하는 데 필수적입니다. [207]
113. The vast expanse of the world’s knowledge is now accessible in ways that would have filled past generations with awe. However, to ensure that advancements in knowledge do not become humanly or spiritually barren, one must go beyond the mere accumulation of data and strive to achieve true wisdom.[208]
113. 이제 광활한 세계 지식은 과거 세대에게는 경외감으로 가득 찼을 방식으로 접근 가능합니다. 그러나 지식의 발전이 인간적으로나 정신적으로 황폐해지지 않도록 하려면, 단순한 데이터 축적을 넘어 진정한 지혜를 얻기 위해 노력해야 합니다. [208]
114. This wisdom is the gift that humanity needs most to address the profound questions and ethical challenges posed by AI: “Only by adopting a spiritual way of viewing reality, only by recovering a wisdom of the heart, can we confront and interpret the newness of our time.”[209] Such “wisdom of the heart” is “the virtue that enables us to integrate the whole and its parts, our decisions and their consequences.” It “cannot be sought from machines,” but it “lets itself be found by those who seek it and be seen by those who love it; it anticipates those who desire it, and it goes in search of those who are worthy of it (cf. Wis 6:12-16).”[210]
114. 이 지혜는 AI가 제기하는 심오한 질문과 윤리적 도전에 대처하기 위해 인류에게 가장 필요한 선물입니다. "현실을 바라보는 영적인 방식을 채택하고 마음의 지혜를 회복해야만 우리는 우리 시대의 새로움에 맞서고 해석할 수 있습니다." [209] 이러한 "마음의 지혜"는 "전체와 그 부분, 우리의 결정과 그 결과를 통합할 수 있게 하는 덕목"입니다. 그것은 "기계에서 찾을 수 없지만", "그것을 찾는 자에게 발견되고 그것을 사랑하는 자에게 보여집니다. 그것은 그것을 바라는 자를 예상하고, 그것에 합당한 자를 찾아 나섭니다(지혜 6,12-16 참조)." [210]
115. In a world marked by AI, we need the grace of the Holy Spirit, who “enables us to look at things with God’s eyes, to see connections, situations, events and to uncover their real meaning.”[211]
115. AI가 특징인 세상에서 우리에게는 “하느님의 눈으로 사물을 바라보고, 연관성, 상황, 사건을 보고 그 진정한 의미를 밝혀낼 수 있게 해 주시는” 성령의 은총이 필요합니다. [211]
116. Since a “person’s perfection is measured not by the information or knowledge they possess, but by the depth of their charity,”[212] how we incorporate AI “to include the least of our brothers and sisters, the vulnerable, and those most in need, will be the true measure of our humanity.”[213] The “wisdom of the heart” can illuminate and guide the human-centered use of this technology to help promote the common good, care for our “common home,” advance the search for the truth, foster integral human development, favor human solidarity and fraternity, and lead humanity to its ultimate goal: happiness and full communion with God.[214]
116. “사람의 완벽함은 그가 소유한 정보나 지식이 아니라 자선의 깊이로 측정되므로” [212] , 우리가 AI를 “우리 형제자매 중 가장 작은 이들, 취약한 이들, 가장 도움이 필요한 이들을 포함하도록” 어떻게 통합하느냐가 우리 인간성의 진정한 척도가 될 것입니다. [213] “마음의 지혜”는 이 기술을 인간 중심으로 사용하여 공동선을 증진하고, 우리의 “공동의 집”을 돌보고, 진실을 찾는 것을 진전시키고, 온전한 인간 발전을 촉진하고, 인간의 연대와 형제애를 장려하고, 인류를 궁극적인 목표인 행복과 신과의 완전한 친교로 이끄는 데 도움이 되도록 조명하고 안내할 수 있습니다. [214]
117. From this perspective of wisdom, believers will be able to act as moral agents capable of using this technology to promote an authentic vision of the human person and society.[215] This should be done with the understanding that technological progress is part of God’s plan for creation—an activity that we are called to order toward the Paschal Mystery of Jesus Christ, in the continual search for the True and the Good.
117. 이러한 지혜의 관점에서 신자들은 이 기술을 사용하여 인간과 사회에 대한 진정한 비전을 촉진할 수 있는 도덕적 행위자로서 행동할 수 있을 것입니다. [215] 이는 기술적 진보가 창조에 대한 하느님의 계획의 일부라는 이해를 바탕으로 이루어져야 합니다. 즉, 우리는 예수 그리스도의 부활 신비를 향해 끊임없이 진리와 선을 추구하면서 이 활동을 수행하도록 부름받았습니다.
The Supreme Pontiff, Francis, at the Audience granted on 14 January 2025 to the undersigned Prefects and Secretaries of the Dicastery for the Doctrine of the Faith and the Dicastery for Culture and Education, approved this Note and ordered its publication.
프란치스코 교황님께서는 2025년 1월 14일에 신앙교리성부와 문화교육성부의 장관 및 차관들에게 허락하신 알현에서 이 문서를 승인 하시고 발간을 명령하셨습니다.
Given in Rome, at the offices of the Dicastery for the Doctrine of the Faith and the Dicastery for Culture and Education, on 28 January 2025, the Liturgical Memorial of Saint Thomas Aquinas, Doctor of the Church.
2025년 1월 28일, 로마의 신앙교리성부와 문화교육성부 사무실에서 성 토마스 아퀴나스 교회박사 전례 기념일을 선포함.
Víctor Manuel Card. Fernández José Card. Tolentino de Mendonça
Prefect Prefect
빅토르 마누엘 카드. 페르난데스 호세 카드. 톨렌티노 데 멘돈사
지사 지사
Msgr. Armando Matteo Most Rev. Paul Tighe
Secretary, Doctrinal Section Secretary, Culture Section
아르만도 마테오 몬시뇰 폴 타이게
교리부 서기 문화부 서기
Ex audientia die 14 ianuarii 2025
Franciscus
[1] Catechism of the Catholic Church, par. 378. See also Second Vatican Ecumenical Council, Pastoral Constitution Gaudium et Spes (7 December 1965), par. 34: AAS 58 (1966), 1052-1053.
[2] Francis, Address to the Participants in the Plenary Assembly of the Pontifical Academy for Life (28 February 2020): AAS 112 (2020), 307. Cf. Id., Christmas Greetings to the Roman Curia (21 December 2019): AAS 112 (2020), 43.
[3] Cf. Francis, Message for the LVIII World Day of Social Communications (24 January 2024): L’Osservatore Romano, 24 January 2024, 8.
[4] Cf. Catechism of the Catholic Church, par. 2293; Second Vatican Ecumenical Council, Pastoral Constitution Gaudium et Spes (7 December 1965), par. 35: AAS 58 (1966), 1053.
[5] J. McCarthy, et al., “A Proposal for the Dartmouth Summer Research Project on Artificial Intelligence” (31 August 1955), http://www-formal.stanford.edu/jmc/history/dartmouth/dartmouth.html (accessed: 21 October 2024).
[6] Cf. Francis, Message for the LVII World Day of Peace (1 January 2024), pars. 2-3: L’Osservatore Romano, 14 December 2023, 2.
[7] Terms in this document describing the outputs or processes of AI are used figuratively to explain its operations and are not intended to anthropomorphize the machine.
[8] Cf. Francis, Address at the G7 Session on Artificial Intelligence in Borgo Egnazia (Puglia) (14 June 2024): L’Osservatore Romano, 14 June 2024, 3; Id., Message for the LVII World Day of Peace (1 January 2024), par. 2: L’Osservatore Romano, 14 December 2023, 2.
[9] Here, one can see the primary positions of the “transhumanists” and the “posthumanists.” Transhumanists argue that technological advancements will enable humans to overcome their biological limitations and enhance both their physical and cognitive abilities. Posthumanists, on the other hand, contend that such advances will ultimately alter human identity to the extent that humanity itself may no longer be considered truly “human.” Both views rest on a fundamentally negative perception of human corporality, which treats the body more as an obstacle than as an integral part of the person’s identity and call to full realization. Yet, this negative view of the body is inconsistent with a proper understanding of human dignity. While the Church supports genuine scientific progress, it affirms that human dignity is rooted in “the person as an inseparable unity of body and soul.” Thus, “dignity is also inherent in each person’s body, which participates in its own way in being in imago Dei” (Dicastery for the Doctrine of the Faith, Declaration Dignitas Infinita [8 April 2024], par. 18).
[10] This approach reflects a functionalist perspective, which reduces the human mind to its functions and assumes that its functions can be entirely quantified in physical or mathematical terms. However, even if a future AGI were to appear truly intelligent, it would still remain functional in nature.
[11] Cf. A.M. Turing, “Computing Machinery and Intelligence,” Mind 59 (1950) 443-460.
[12] If “thinking” is attributed to machines, it must be clarified that this refers to calculative thinking rather than critical thinking. Similarly, if machines are said to operate using logical thinking, it must be specified that this is limited to computational logic. On the other hand, by its very nature, human thought is a creative process that eludes programming and transcends constraints.
[13] On the foundational role of language in shaping understanding, cf. M. Heidegger, Über den Humanismus, Klostermann, Frankfurt am Main 1949 (en. tr. “Letter on Humanism,” in Basic Writings: Martin Heidegger, Routledge, London ‒ New York 2010, 141-182).
[14] For further discussion of these anthropological and theological foundations, see AI Research Group of the Centre for Digital Culture of the Dicastery for Culture and Education, Encountering Artificial Intelligence: Ethical and Anthropological Investigations (Theological Investigations of Artificial Intelligence 1), M.J. Gaudet, N. Herzfeld, P. Scherz, J.J. Wales, eds., Journal of Moral Theology, Pickwick, Eugene 2024, 43-144.
[15] Aristotle, Metaphysics, I.1, 980 a 21.
[16] Cf. Augustine, De Genesi ad litteram III, 20, 30: PL 34, 292: “Man is made in the image of God in relation to that [faculty] by which he is superior to the irrational animals. Now, this [faculty] is reason itself, or the ‘mind,’ or ‘intelligence,’ whatever other name it may more suitably be given”; Id., Enarrationes in Psalmos 54, 3: PL 36, 629: “When considering all that they have, humans discover that they are most distinguished from animals precisely by the fact they possess intelligence.” This is also reiterated by Saint Thomas Aquinas, who states that “man is the most perfect of all earthly beings endowed with motion, and his proper and natural operation is intellection,” by which man abstracts from things and “receives in his mind things actually intelligible” (Thomas Aquinas, Summa Contra Gentiles II, 76).
[17] Cf. Second Vatican Ecumenical Council, Pastoral Constitution Gaudium et Spes (7 December 1965), par. 15: AAS 58 (1966), 1036.
[18] Aquinas, Summa Theologiae, II-II, q. 49, a. 5, ad 3. Cf. ibid., I, q. 79; II-II, q. 47, a. 3; II-II, q. 49, a. 2. For a contemporary perspective that echoes elements of the classical and medieval distinction between these two modes of cognition, cf. D. Kahneman, Thinking, Fast and Slow, New York 2011.
[19] Aquinas, Summa Theologiae, I, q. 76, a. 1, resp.
[20] Cf. Irenaeus of Lyon, Adversus Haereses, V, 6, 1: PG 7(2), 1136-1138.
[21] Dicastery for the Doctrine of the Faith, Declaration Dignitas Infinita (8 April 2024), par. 9. Cf. Francis, Encyclical Letter Fratelli Tutti (3 October 2020), par. 213: AAS 112 (2020), 1045: “The intellect can investigate the reality of things through reflection, experience and dialogue, and come to recognize in that reality, which transcends it, the basis of certain universal moral demands.”
[22] Cf. Congregation for the Doctrine of the Faith, Doctrinal Note on Some Aspects of Evangelization (3 December 2007), par. 4: AAS 100 (2008), 491-492.
[23] Catechism of the Catholic Church, par. 365. Cf. Aquinas, Summa Theologiae, I, q. 75, a. 4, resp.
[24] Indeed, Sacred Scripture “generally considers the human person as a being who exists in the body and is unthinkable outside of it” (Pontifical Biblical Commission, “Che cosa è l’uomo?” (Sal 8,5): Un itinerario di antropologia biblica [30 September 2019], par. 19). Cf. ibid., pars. 20-21, 43-44, 48.
[25] Second Vatican Ecumenical Council, Pastoral Constitution Gaudium et Spes (7 December 1965), par. 22: AAS 58 (1966), 1042: Cf. Congregation for the Doctrine of the Faith, Instruction Dignitas Personae (8 September 2008), par. 7: AAS 100 (2008), 863: “Christ did not disdain human bodiliness, but instead fully disclosed its meaning and value.”
[26] Aquinas, Summa Contra Gentiles II, 81.
[27] Second Vatican Ecumenical Council, Pastoral Constitution Gaudium et Spes (7 December 1965), par. 15: AAS 58 (1966), 1036.
[28] Cf. Aquinas, Summa Theologiae I, q. 89, a. 1, resp.: “to be separated from the body is not in accordance with [the soul’s] nature […] and hence it is united to the body in order that it may have an existence and an operation suitable to its nature.”
[29] Second Vatican Ecumenical Council, Pastoral Constitution Gaudium et Spes (7 December 1965), par. 14: AAS 58 (1966), 1035. Cf. Dicastery for the Doctrine of the Faith, Declaration Dignitas Infinita (8 April 2024), par. 18.
[30] International Theological Commission, Communion and Stewardship: Human Persons Created in the Image of God (2004), par. 56. Cf. Catechism of the Catholic Church, par. 357.
[31] Cf. Congregation for the Doctrine of the Faith, Instruction Dignitas Personae (8 September 2008), pars. 5, 8; Dicastery for the Doctrine of the Faith, Declaration Dignitas Infinita (8 April 2024), pars. 15, 24, 53-54.
[32] Catechism of the Catholic Church, par. 356. Cf. ibid., par. 221.
[33] Cf. Dicastery for the Doctrine of the Faith, Declaration Dignitas Infinita (8 April 2024), pars. 13, 26-27.
[34] Congregation for the Doctrine of the Faith, Instruction Donum Veritatis (24 May 1990), 6: AAS 82 (1990), 1552. Cf. John Paul II, Encyclical Veritatis Splendor (6 August 1993), par. 109: AAS 85 (1993), 1219. Cf. Pseudo-Dionysius, De divinis nominibus, VII, 2: PG 3, 868B-C: “Human souls also possess reason and with it they circle in discourse around the truth of things. […] [O]n account of the manner in which they are capable of concentrating the many into the one, they too, in their own fashion and as far as they can, are worthy of conceptions like those of the angels” (en. tr. Pseudo-Dionysius: The Complete Works, Paulist Press, New York – Mahwah 1987, 106-107).
[35] John Paul II, Encyclical Letter Fides et Ratio (14 September 1998), par. 3: AAS 91 (1999), 7.
[36] Second Vatican Ecumenical Council, Pastoral Constitution Gaudium et Spes (7 December 1965), par. 15: AAS 58 (1966), 1036.
[37] John Paul II, Encyclical Letter Fides et Ratio (14 September 1998), par. 42: AAS 91 (1999), 38. Cf. Francis, Encyclical Letter Fratelli Tutti (3 October 2020), par. 208: AAS 112 (2020), 1043: “the human mind is capable of transcending immediate concerns and grasping certain truths that are unchanging, as true now as in the past. As it peers into human nature, reason discovers universal values derived from that same nature”; ibid., par. 184: AAS 112 (2020), 1034.
[38] Cf. B. Pascal, Pensées, no. 267 (ed. Brunschvicg): “The last proceeding of reason is to recognize that there is an infinity of things which are beyond it” (en. tr. Pascal’s Pensées, E.P. Dutton, New York 1958, 77).
[39] Second Vatican Ecumenical Council, Pastoral Constitution Gaudium et Spes (7 December 1965), par. 15: AAS 58 (1966), 1036. Cf. Congregation for the Doctrine of the Faith, Doctrinal Note on Some Aspects of Evangelization (3 December 2007), par. 4: AAS 100 (2008), 491-492.
[40] Our semantic capacity allows us to understand messages in any form of communication in a manner that both takes into account and transcends their material or empirical structures (such as computer code). Here, intelligence becomes a wisdom that “enables us to look at things with God’s eyes, to see connections, situations, events and to uncover their real meaning” (Francis, Message for the LVIII World Day of Social Communications [24 January 2024]: L’Osservatore Romano, 24 January 2024, 8). Our creativity enables us to generate new content or ideas, primarily by offering an original viewpoint on reality. Both capacities depend on the existence of a personal subjectivity for their full realization.
[41] Second Vatican Ecumenical Council, Declaration Dignitatis Humanae (7 December 1965), par. 3: AAS 58 (1966), 931.
[42] Cf. Francis, Encyclical Letter Fratelli Tutti (3 October 2020), par. 184: AAS 112 (2020), 1034: “Charity, when accompanied by a commitment to the truth, is much more than personal feeling […]. Indeed, its close relation to truth fosters its universality and preserves it from being ‘confined to a narrow field devoid of relationships.’ […] Charity’s openness to truth thus protects it from ‘a fideism that deprives it of its human and universal breadth.’” The internal quotes are from Benedict XVI, Encyclical Letter Caritas in Veritate (29 June 2009), pars. 2-4: AAS 101 (2009), 642-643.
[43] Cf. International Theological Commission, Communion and Stewardship: Human Persons Created in the Image of God (2004), par. 7.
[44] John Paul II, Encyclical Letter Fides et Ratio (14 September 1998), par. 13: AAS 91 (1999), 15. Cf. Congregation for the Doctrine of the Faith, Doctrinal Note on Some Aspects of Evangelization (3 December 2007), par. 4: AAS 100 (2008), 491-492.
[45] John Paul II, Encyclical Letter Fides et Ratio (14 September 1998), par. 13: AAS 91 (1999), 15.
[46] Bonaventure, In II Librum Sententiarum, d. I, p. 2, a. 2, q. 1; as quoted in Catechism of the Catholic Church, par. 293. Cf. ibid., par. 294.
[47] Cf. Catechism of the Catholic Church, pars. 295, 299, 302. Bonaventure likens the universe to “a book reflecting, representing, and describing its Maker,” the Triune God who grants existence to all things (Breviloquium 2.12.1). Cf. Alain de Lille, De Incarnatione Christi, PL 210, 579a: “Omnis mundi creatura quasi liber et pictura nobis est et speculum.”
[48] Cf. Francis, Encyclical Letter Laudato Si’ (24 May 2015), par. 67: AAS 107 (2015), 874; John Paul II, Encyclical Letter Laborem Exercens (14 September 1981), par. 6: AAS 73 (1981), 589-592; Second Vatican Ecumenical Council, Pastoral Constitution Gaudium et Spes (7 December 1965), pars. 33-34: AAS 58 (1966), 1052-1053; International Theological Commission, Communion and Stewardship: Human Persons Created in the Image of God (2004), par. 57: “human beings occupy a unique place in the universe according to the divine plan: they enjoy the privilege of sharing in the divine governance of visible creation. […] Since man’s place as ruler is in fact a participation in the divine governance of creation, we speak of it here as a form of stewardship.”
[49] Cf. John Paul II, Encyclical Letter Veritatis Splendor (6 August 1993), pars. 38-39: AAS 85 (1993), 1164-1165.
[50] Cf. Second Vatican Ecumenical Council, Pastoral Constitution Gaudium et Spes (7 December 1965), pars. 33-34: AAS 58 (1966), 1052-1053. This idea is also reflected in the creation account, where God brings creatures to Adam “to see what he would call them. And whatever [he] called every living creature, that was its name” (Gen. 2:19), an action that demonstrates the active engagement of human intelligence in the stewardship of God’s creation. Cf. John Chrysostom, Homiliae in Genesim, XIV, 17-21: PG 53, 116-117.
[51] Cf. Catechism of the Catholic Church, par. 301.
[52] Cf. Catechism of the Catholic Church, par. 302.
[53] Bonaventure, Breviloquium 2.12.1. Cf. ibid., 2.11.2.
[54] Cf. Francis, Apostolic Exhortation Evangelii Gaudium (24 November 2013), par. 236: AAS 105 (2013), 1115; Id., Address to Participants in the Meeting of University Chaplains and Pastoral Workers Promoted by the Dicastery for Culture and Education (24 November 2023): L’Osservatore Romano, 24 November 2023, 7.
[55] Cf. J.H. Newman, The Idea of a University Defined and Illustrated, Discourse 5.1, Basil Montagu Pickering, London 18733, 99-100; Francis, Address to Rectors, Professors, Students and Staff of the Roman Pontifical Universities and Institutions (25 February 2023): AAS 115 (2023), 316.
[56] Francis, Address to the Members of the National Confederation of Artisans and Small- and Medium-Sized Enterprises (CNA) (15 November 2024): L’Osservatore Romano, 15 November 2024, 8.
[57] Cf. Francis, Post-Synodal Apostolic Exhortation Querida Amazonia (2 February 2020), par. 41: AAS 112 (2020), 246; Id., Encyclical Letter Laudato Si’ (24 May 2015), par. 146: AAS 107 (2015), 906.
[58] Francis, Encyclical Letter Laudato Si’ (24 May 2015), par. 47: AAS 107 (2015), 864. Cf. Id., Encyclical Letter Dilexit Nos (24 October 2024), pars. 17-24: L’Osservatore Romano, 24 October 2024, 5; Id., Encyclical Letter Fratelli Tutti (3 October 2020), par. 47-50: AAS 112 (2020), 985-987.
[59] Francis, Encyclical Letter Dilexit Nos (24 October 2024), par. 20: L’Osservatore Romano, 24 October 2024, 5.
[60] P. Claudel, Conversation sur Jean Racine, Gallimard, Paris 1956, 32: “L’intelligence n’est rien sans la délectation.” Cf. Francis, Encyclical Letter Dilexit Nos (24 October 2024), par. 13: L’Osservatore Romano, 24 October 2024, 5: “The mind and the will are put at the service of the greater good by sensing and savoring truths.”
[61] Dante, Paradiso, Canto XXX: “luce intellettüal, piena d’amore; / amor di vero ben, pien di letizia; / letizia che trascende ogne dolzore” (en. tr. The Divine Comedy of Dante Alighieri, C.E. Norton, tr., Houghton Mifflin, Boston 1920, 232).
[62] Cf. Second Vatican Ecumenical Council, Declaration Dignitatis Humanae (7 December 1965), par. 3: AAS 58 (1966), 931: “[T]he highest norm of human life is the divine law itself—eternal, objective and universal, by which God orders, directs and governs the whole world and the ways of the human community according to a plan conceived in his wisdom and love. God has enabled man to participate in this law of his so that, under the gentle disposition of divine providence, many may be able to arrive at a deeper and deeper knowledge of unchangeable truth.” Also cf. Id., Pastoral Constitution Gaudium et Spes (7 December 1965), par. 16: AAS 58 (1966), 1037.
[63] Cf. First Vatican Council, Dogmatic Constitution Dei Filius (24 April 1870), ch. 4, DH 3016.
[64] Francis, Encyclical Letter Laudato Si’ (24 May 2015), par. 110: AAS 107 (2015), 892.
[65] Francis, Encyclical Letter Laudato Si’ (24 May 2015), par. 110: AAS 107 (2015), 891. Cf. Id., Encyclical Letter Fratelli Tutti (3 October 2020), par. 204: AAS 112 (2020), 1042.
[66] Cf. John Paul II, Encyclical Letter Centesimus Annus (1 May 1991), par. 11: AAS 83 (1991), 807: “God has imprinted his own image and likeness on man (cf. Gen 1:26), conferring upon him an incomparable dignity […]. In effect, beyond the rights which man acquires by his own work, there exist rights which do not correspond to any work he performs, but which flow from his essential dignity as a person.” Cf. Francis, Address at the G7 Session on Artificial Intelligence in Borgo Egnazia (Puglia) (14 June 2024): L’Osservatore Romano, 14 June 2024, 3-4.
[67] Cf. Dicastery for the Doctrine of the Faith, Declaration Dignitas Infinita (8 April 2024), par. 8. Cf. ibid., par. 9; Congregation for the Doctrine of the Faith, Instruction Dignitas Personae (8 September 2008), par. 22.
[68] Francis, Address to the Participants in the Plenary Assembly of the Pontifical Academy for Life (28 February 2020): AAS 112 (2024), 310.
[69] Francis, Message for the LVIII World Day of Social Communications (24 January 2024): L’Osservatore Romano, 24 January 2024, 8.
[70] In this sense, “Artificial Intelligence” is understood as a technical term to indicate this technology, recalling that the expression is also used to designate the field of study and not only its applications.
[71] Cf. Second Vatican Ecumenical Council, Pastoral Constitution Gaudium et Spes (7 December 1965), pars. 34-35: AAS 58 (1966), 1052-1053; John Paul II, Encyclical Letter Centesimus Annus (1 May 1991), par. 51: AAS 83 (1991), 856-857.
[72] For example, see the encouragement of scientific exploration in Albertus Magnus (De Mineralibus, II, 2, 1) and the appreciation for the mechanical arts in Hugh of St. Victor (Didascalicon, I, 9). These writers, among a long list of other Catholics engaged in scientific research and technological exploration, illustrate that “faith and science can be united in charity, provided that science is put at the service of the men and woman of our time and not misused to harm or even destroy them” (Francis, Address to Participants in the 2024 Lemaître Conference of the Vatican Observatory [20 June 2024]: L’Osservatore Romano, 20 June 2024, 8). Cf. Second Vatican Ecumenical Council, Pastoral Constitution Gaudium et Spes (7 December 1965), par. 36: AAS 58 (1966), 1053-1054; John Paul II, Encyclical Letter Fides et Ratio (14 September 1998), pars. 2, 106: AAS 91 (1999), 6-7.86-87.
[73] Catechism of the Catholic Church, par. 378.
[74] Cf. Second Vatican Ecumenical Council, Pastoral Constitution Gaudium et Spes (7 December 1965), par. 34: AAS 58 (1966), 1053.
[75] Cf. Second Vatican Ecumenical Council, Pastoral Constitution Gaudium et Spes (7 December 1965), par. 35: AAS 58 (1966), 1053.
[76] Francis, Encyclical Letter Laudato Si’ (24 May 2015), par. 102: AAS 107 (2015), 888.
[77] Cf. Francis, Encyclical Letter Laudato Si’ (24 May 2015), par. 105: AAS 107 (2015), 889; Id., Encyclical Fratelli Tutti (3 October 2020), par. 27: AAS 112 (2020), 978; Benedict XVI, Encyclical Caritas in Veritate (29 June 2009), par. 23: AAS 101 (2009), 657-658.
[78] Cf. Dicastery for the Doctrine of the Faith, Declaration Dignitas Infinita (8 April 2024), pars. 38-39, 47; Congregation for the Doctrine of the Faith, Instruction Dignitas Personae (8 September 2008), passim.
[79] Second Vatican Ecumenical Council, Pastoral Constitution Gaudium et Spes (7 December 1965), par. 35: AAS 58 (1966), 1053. Cf. Catechism of the Catholic Church, par 2293.
[80] Cf. Francis, Address at the G7 Session on Artificial Intelligence in Borgo Egnazia (Puglia) (14 June 2024): L’Osservatore Romano, 14 June 2024, 2-4.
[81] Cf. Catechism of the Catholic Church, par. 1749: “Freedom makes man a moral subject. When he acts deliberately, man is, so to speak, the father of his acts.”
[82] Second Vatican Ecumenical Council, Pastoral Constitution Gaudium et Spes (7 December 1965), par. 16: AAS 58 (1966), 1037. Cf. Catechism of the Catholic Church, par. 1776.
[83] Catechism of the Catholic Church, par. 1777.
[84] Cf. Catechism of the Catholic Church, pars. 1779-1781; Francis, Address to the Participants in the “Minerva Dialogues” (27 March 2023): AAS 115 (2023), 463, where the Holy Father encouraged efforts “to ensure that technology remains human-centered, ethically grounded and directed toward the good.”
[85] Cf. Francis, Encyclical Letter Fratelli Tutti (3 October 2020), par. 166: AAS 112 (2020), 1026-1027; Id., Address to the Plenary Assembly of the Pontifical Academy of Sciences (23 September 2024): L’Osservatore Romano, 23 September 2024, 10. On the role of human agency in choosing a wider aim (Ziel) that then informs the particular purpose (Zweck) for which each technological application is created, cf. F. Dessauer, Streit um die Technik, Herder-Bücherei, Freiburg i. Br. 1959, 70-71.
[86] Cf. Francis, Address at the G7 Session on Artificial Intelligence in Borgo Egnazia (Puglia) (14 June 2024): L’Osservatore Romano, 14 June 2024, 4: “Technology is born for a purpose and, in its impact on human society, always represents a form of order in social relations and an arrangement of power, thus enabling certain people to perform specific actions while preventing others from performing different ones. In a more or less explicit way, this constitutive power-dimension of technology always includes the worldview of those who invented and developed it.”
[87] Francis, Address to the Participants in the Plenary Assembly of the Pontifical Academy of Life (28 February 2020): AAS 112 (2020), 309.
[88] Cf. Francis, Address at the G7 Session on Artificial Intelligence in Borgo Egnazia (Puglia) (14 June 2024): L’Osservatore Romano, 14 June 2024, 3-4.
[89] Francis, Address to the Participants in the “Minerva Dialogues” (27 March 2023): AAS 115 (2023), 464. Cf. Id., Encyclical Letter Fratelli Tutti, pars. 212-213: AAS 112 (2020), 1044-1045.
[90] Cf. John Paul II, Encyclical Letter Laborem Exercens (14 September 1981), par. 5: AAS 73 (1981), 589; Francis, Address at the G7 Session on Artificial Intelligence in Borgo Egnazia (Puglia) (14 June 2024): L’Osservatore Romano, 14 June 2024, 3-4.
[91] Cf. Francis, Address at the G7 Session on Artificial Intelligence in Borgo Egnazia (Puglia) (14 June 2024): L’Osservatore Romano, 14 June 2024, 2: “Faced with the marvels of machines, which seem to know how to choose independently, we should be very clear that decision-making […] must always be left to the human person. We would condemn humanity to a future without hope if we took away people’s ability to make decisions about themselves and their lives, by dooming them to depend on the choices of machines.”
[92] Francis, Address at the G7 Session on Artificial Intelligence in Borgo Egnazia (Puglia) (14 June 2024): L’Osservatore Romano, 14 June 2024, 2.
[93] The term “bias” in this document refers to algorithmic bias (systematic and consistent errors in computer systems that may disproportionately prejudice certain groups in unintended ways) or learning bias (which will result in training on a biased data set) and not the “bias vector” in neural networks (which is a parameter used to adjust the output of “neurons” to adjust more accurately to the data).
[94] Cf. Francis, Address to the Participants in the “Minerva Dialogues” (27 March 2023): AAS 115 (2023), 464, where the Holy Father affirmed the growth in consensus “on the need for development processes to respect such values as inclusion, transparency, security, equity, privacy and reliability,” and also welcomed “the efforts of international organizations to regulate these technologies so that they promote genuine progress, contributing, that is, to a better world and an integrally higher quality of life.”
[95] Francis, Greetings to a Delegation of the “Max Planck Society” (23 February 2023): L’Osservatore Romano, 23 February 2023, 8.
[96] Second Vatican Ecumenical Council, Pastoral Constitution Gaudium et Spes (7 December 1965), par. 26: AAS 58 (1966), 1046-1047.
[97] Francis, Address to Participants at the Seminar “The Common Good in the Digital Age” (27 September 2019): AAS 111 (2019), 1571.
[98] Cf. Francis, Message for the LVIII World Day of Social Communications (24 January 2024): L’Osservatore Romano, 24 January 2024, 8. For further discussion of the ethical questions raised by AI from a Catholic perspective, see AI Research Group of the Centre for Digital Culture of the Dicastery for Culture and Education, Encountering Artificial Intelligence: Ethical and Anthropological Investigations (Theological Investigations of Artificial Intelligence 1), M.J. Gaudet, N. Herzfeld, P. Scherz, J.J. Wales, eds., Journal of Moral Theology, Pickwick, Eugene 2024, 147-253.
[99] On the importance of dialogue in a pluralist society oriented toward a “robust and solid social ethics,” see Francis, Encyclical Letter Fratelli Tutti (3 October 2020), pars. 211-214: AAS 112 (2020), 1044-1045.
[100] Francis, Message for the LVII World Day of Peace (1 January 2024), par. 2: L’Osservatore Romano, 14 December 2023, 2.
[101] Francis, Message for the LVII World Day of Peace (1 January 2024), par. 6: L’Osservatore Romano, 14 December 2023, 3. Cf. Second Vatican Ecumenical Council, Pastoral Constitution Gaudium et Spes (7 December 1965), par. 26: AAS 58 (1966), 1046-1047.
[102] Cf. Francis, Encyclical Letter Laudato Si’ (24 May 2015), par. 112: AAS 107 (2015), 892-893.
[103] Francis, Address to the Participants in the “Minerva Dialogues” (27 March 2023): AAS 115 (2023), 464.
[104] Cf. Pontifical Council for Social Communications, Ethics in Internet (22 February 2002), par. 10.
[105] Francis, Post-Synodal Exhortation Christus Vivit (25 March 2019), par. 89: AAS 111 (2019), 413-414; quoting the Final Document of the XV Ordinary General Assembly of the Synod of Bishops (27 October 2018), par. 24: AAS 110 (2018), 1593. Cf. Benedict XVI, Address to the Participants in the International Congress on Natural Moral Law (12 February 2017): AAS 99 (2007), 245.
[106] Cf. Francis, Encyclical Letter Laudato Si’ (24 May 2015), pars. 105-114: AAS 107 (2015), 889-893; Id., Apostolic Exhortation Laudate Deum (4 October 2023), pars. 20-33: AAS 115 (2023), 1047-1050.
[107] Francis, Encyclical Letter Laudato Si’ (24 May 2015), par. 105: AAS 107 (2015), 889. Cf. Id., Apostolic Exhortation Laudate Deum (4 October 2023), pars. 20-21: AAS 115 (2023), 1047.
[108] Cf. Francis, Address to the Participants in the Plenary Assembly of the Pontifical Academy for Life (28 February 2020): AAS 112 (2020), 308-309.
[109] Francis, Message for the LVII World Day of Peace (1 January 2024), par. 2: L’Osservatore Romano, 14 December 2023, 2.
[110] Francis, Encyclical Letter Laudato Si’ (24 May 2015), par. 112: AAS 107 (2015), 892.
[111] Cf. Francis, Encyclical Letter Fratelli Tutti (3 October 2020), pars. 101, 103, 111, 115, 167: AAS 112 (2020), 1004-1005, 1007-1009, 1027.
[112] Second Vatican Ecumenical Council, Pastoral Constitution Gaudium et Spes (7 December 1965), par. 26: AAS 58 (1966), 1046-1047; cf. Leo XIII, Encyclical Letter Rerum Novarum (15 May 1891), par. 35: Acta Leonis XIII, 11 (1892), 123.
[113] Second Vatican Ecumenical Council, Pastoral Constitution Gaudium et Spes (7 December 1965), par. 12: AAS 58 (1966), 1034.
[114] Cf. Pontifical Council for Justice and Peace, Compendium of the Social Doctrine of the Church (2004), par. 149.
[115] Second Vatican Ecumenical Council, Declaration Dignitatis Humanae (7 December 1965), par. 3: AAS 58 (1966), 931. Cf. Francis, Encyclical Letter Fratelli Tutti (3 October 2020), par. 50: AAS 112 (2020), 986-987.
[116] Francis, Encyclical Letter Fratelli Tutti (3 October 2020), par. 50: AAS 112 (2020), 986-987.
[117] Francis, Encyclical Letter Laudato Si’ (24 May 2015), par. 47: AAS 107 (2015), 865. Cf. Id., Post-Synodal Exhortation Christus Vivit (25 March 2019), pars. 88-89: AAS 111 (2019), 413-414.
[118] Cf. Francis, Apostolic Exhortation Evangelii Gaudium (24 November 2013), par. 88: AAS 105 (2013), 1057.
[119] Francis, Encyclical Letter Fratelli Tutti (3 October 2020), par. 47: AAS 112 (2020), 985.
[120] Cf. Francis, Address at the G7 Session on Artificial Intelligence in Borgo Egnazia (Puglia) (14 June 2024): L’Osservatore Romano, 14 June 2024, 2.
[121] Cf. Francis, Encyclical Letter Fratelli Tutti (3 October 2020), par. 50: AAS 112 (2020), 986-987.
[122] Cf. E. Stein, Zum Problem der Einfühlung, Buchdruckerei des Waisenhauses, Halle 1917 (en. tr. On the Problem of Empathy, ICS Publications, Washington D.C. 1989).
[123] Cf. Francis, Apostolic Exhortation Evangelii Gaudium (24 November 2013), par. 88: AAS 105 (2013), 1057: “[Many people] want their interpersonal relationships provided by sophisticated equipment, by screens and systems which can be turned on and off on command. Meanwhile, the Gospel tells us constantly to run the risk of a face-to-face encounter with others, with their physical presence which challenges us, with their pain and their pleas, with their joy which infects us in our close and continuous interaction. True faith in the incarnate Son of God is inseparable from self-giving, from membership in the community, from service, from reconciliation with others.” Also cf. Second Vatican Ecumenical Council, Pastoral Constitution Gaudium et Spes (7 December 1965), par. 24: AAS 58 (1966), 1044-1045.
[124] Cf. Dicastery for the Doctrine of the Faith, Declaration Dignitas Infinita (8 April 2024), par. 1.
[125] Cf. Francis, Address to Participants at the Seminar “The Common Good in the Digital Age” (27 September 2019): AAS 111 (2019), 1570; Id, Encyclical Letter Laudato Si’ (24 May 2015), pars. 18, 124-129: AAS 107 (2015), 854.897-899.
[126] Francis, Message for the LVII World Day of Peace (1 January 2024), par. 5: L’Osservatore Romano, 14 December 2023, 3.
[127] Francis, Apostolic Exhortation Evangelii Gaudium (24 November 2013), par. 209: AAS 105 (2013), 1107.
[128] Francis, Address at the G7 Session on Artificial Intelligence in Borgo Egnazia (Puglia) (14 June 2024): L’Osservatore Romano, 14 June 2024, 4. For Pope Francis’ teaching about AI in relationship to the “technocratic paradigm,” cf. Id., Encyclical Laudato Si’ (24 May 2015), pars. 106-114: AAS 107 (2015), 889-893.
[129] Second Vatican Ecumenical Council, Pastoral Constitution Gaudium et Spes (7 December 1965), par. 26: AAS 58 (1966), 1046-1047.; as quoted in Catechism of the Catholic Church, par. 1912. Cf. John XXIII, Encyclical Letter Mater et Magistra (15 May 1961), par. 219: AAS 53 (1961), 453.
[130] Second Vatican Ecumenical Council, Pastoral Constitution Gaudium et Spes (7 December 1965), par 64: AAS 58 (1966), 1086.
[131] Francis, Encyclical Letter Fratelli Tutti (3 October 2020), par. 162: AAS 112 (2020), 1025. Cf. John Paul II, Encyclical Letter Laborem Exercens (14 September 1981), par. 6: AAS 73 (1981), 591: “work is ‘for man’ and not man ‘for work.’ Through this conclusion one rightly comes to recognize the pre-eminence of the subjective meaning of work over the objective one.”
[132] Francis, Encyclical Letter Laudato Si’ (24 May 2015), par. 128: AAS 107 (2015), 898. Cf. Id., Post-Synodal Apostolic Exhortation Amoris Laetitia (19 March 2016), par. 24: AAS 108 (2016), 319-320.
[133] Francis, Message for the LVII World Day of Peace (1 January 2024), par. 5: L’Osservatore Romano, 14 December 2023, 3.
[134] John Paul II, Encyclical Letter Evangelium Vitae (25 March 1995), par. 89: AAS 87 (1995), 502.
[136] Francis, Encyclical Letter Fratelli Tutti (3 October 2020), par. 67: AAS 112 (2020), 993; as quoted in Id., Message for the XXXI World Day of the Sick (11 February 2023): L’Osservatore Romano, 10 January 2023, 8.
[137] Francis, Message for the XXXII World Day of the Sick (11 February 2024): L’Osservatore Romano, 13 January 2024, 12.
[138] Francis, Address to the Diplomatic Corps Accredited to the Holy See (11 January 2016): AAS 108 (2016), 120. Cf. Id., Encyclical Letter Fratelli Tutti (3 October 2020), par. 18: AAS 112 (2020), 975; Id., Message for the XXXII World Day of the Sick (11 February 2024): L’Osservatore Romano, 13 January 2024, 12.
[139] Cf. Francis, Address to the Participants in the “Minerva Dialogues” (27 March 2023): AAS 115 (2023), 465; Id., Address at the G7 Session on Artificial Intelligence in Borgo Egnazia (Puglia) (14 June 2024): L’Osservatore Romano, 14 June 2024, 2.
[140] Cf. Francis, Encyclical Letter Laudato Si’ (24 May 2015), pars. 105, 107: AAS 107 (2015), 889-890; Id., Encyclical Letter Fratelli Tutti (3 October 2020), pars. 18-21: AAS 112 (2020), 975-976; Id., Address to the Participants in the “Minerva Dialogues” (27 March 2023): AAS 115 (2023), 465.
[141] Francis, Address to the Participants at the Meeting Sponsored by the Charity and Health Commission of the Italian Bishops’ Conference (10 February 2017): AAS 109 (2017), 243. Cf. ibid., 242-243: “If there is a sector in which the throwaway culture is manifest, with its painful consequences, it is that of healthcare. When a sick person is not placed in the center or their dignity is not considered, this gives rise to attitudes that can lead even to speculation on the misfortune of others. And this is very grave! […] The application of a business approach to the healthcare sector, if indiscriminate […] may risk discarding human beings.”
[142] Francis, Message for the LVII World Day of Peace (1 January 2024), par. 5: L’Osservatore Romano, 14 December 2023, 3.
[143] Second Vatican Ecumenical Council, Declaration Gravissimum Educationis (28 October 1965), par. 1: AAS 58 (1966), 729.
[144] Congregation for Catholic Education, Instruction on the Use of Distance Learning in Ecclesiastical Universities and Faculties, I. Cf. Second Vatican Ecumenical Council, Declaration Gravissimum Educationis (28 October 1965), par. 1: AAS 58 (1966), 729; Francis, Message for the XLIX World Day of Peace (1 January 2016), 6: AAS 108 (2016), 57-58.
[145] Francis, Address to Members of the Global Researchers Advancing Catholic Education Project (20 April 2022): AAS 114 (2022), 580.
[146] Cf. Paul VI, Apostolic Exhortation Evangelii Nuntiandi (8 December 1975), par. 41: AAS 68 (1976), 31, quoting Id., Address to the Members of the “Consilium de Laicis” (2 October 1974): AAS 66 (1974), 568: “if [the contemporary person] does listen to teachers, it is because they are witnesses.”
[147] J.H. Newman, The Idea of a University Defined and Illustrated, Discourse 6.1, London 18733, 125-126.
[148] Francis, Meeting with the Students of the Barbarigo College of Padua in the 100th Year of its Foundation (23 March 2019): L’Osservatore Romano, 24 March 2019, 8. Cf. Id., Address to Rectors, Professors, Students and Staff of the Roman Pontifical Universities and Institutions (25 February 2023): AAS 115 (2023), 316.
[149] Francis, Post-Synodal Apostolic Exhortation Christus Vivit (25 March 2019), par. 86: AAS 111 (2019), 413, quoting the XV Ordinary General Assembly of the Synod of Bishops, Final Document (27 October 2018), par. 21: AAS 110 (2018), 1592.
[150] J.H. Newman, The Idea of a University Defined and Illustrated, Discourse 7.6, Basil Montagu Pickering, London 18733, 167.
[151] Cf. Francis, Post-Synodal Apostolic Exhortation Christus Vivit (25 March 2019), par. 88: AAS 111 (2019), 413.
[152] In a 2023 policy document about the use of generative AI in education and research, UNESCO notes: “One of the key questions [of the use of generative AI (GenAI) in education and research] is whether humans can possibly cede basic levels of thinking and skill-acquisition processes to AI and rather concentrate on higher-order thinking skills based on the outputs provided by AI. Writing, for example, is often associated with the structuring of thinking. With GenAI […], humans can now start with a well-structured outline provided by GenAI. Some experts have characterized the use of GenAI to generate text in this way as ‘writing without thinking’” (UNESCO, Guidance for Generative AI in Education and Research [2023], 37-38). The German-American philosopher Hannah Arendt foresaw such a possibility in her 1959 book, The Human Condition, and cautioned: “If it should turn out to be true that knowledge (in the sense of know-how) and thought have parted company for good, then we would indeed become the helpless slaves, not so much of our machines as of our know-how” (Id., The Human Condition, University of Chicago Press, Chicago 20182, 3).
[153] Francis, Post-Synodal Apostolic Exhortation Amoris Laetitia (19 March 2016), par. 262: AAS 108 (2016), 417.
[154] Francis, Message for the LVII World Day of Peace (1 January 2024), par. 7: L’Osservatore Romano, 14 December 2023, 3; cf. Id., Encyclical Letter Laudato Si’ (24 May 2015), par. 167: AAS 107 (2015), 914.
[155] John Paul II, Apostolic Constitution Ex Corde Ecclesiae (15 August 1990), 7: AAS 82 (1990), 1479.
[156] Francis, Apostolic Constitution Veritatis Gaudium (29 January 2018), 4c: AAS 110 (2018), 9-10.
[157] Francis, Address at the G7 Session on Artificial Intelligence in Borgo Egnazia (Puglia) (14 June 2024): L’Osservatore Romano, 14 June 2024, 3.
[158] For example, it might help people access the “array of resources for generating greater knowledge of truth” contained in the works of philosophy (John Paul II, Encyclical Letter Fides et Ratio [14 September 1998], par. 3: AAS 91 [1999], 7). Cf. ibid., par. 4: AAS 91 (1999), 7-8.
[159] Dicastery for the Doctrine of the Faith, Declaration Dignitas Infinita (8 April 2024), par. 43. Cf. ibid., pars. 61-62.
[160] Francis, Message for the LVIII World Day of Social Communications (24 January 2024): L’Osservatore Romano, 24 January 2024, 8.
[161] Second Vatican Ecumenical Council, Pastoral Constitution Gaudium et Spes (7 December 1965), par 25: AAS 58 (1966), 1053; cf. Francis, Encyclical Letter Fratelli Tutti (3 October 2020), passim: AAS 112 (2020), 969-1074.
[162] Cf. Francis., Post-Synodal Exhortation Christus Vivit (25 March 2019), par. 89: AAS 111 (2019), 414; John Paul II, Encyclical Letter Fides et Ratio (14 September 1998), par. 25: AAS 91 (1999), 25-26: “People cannot be genuinely indifferent to the question of whether what they know is true or not. […] It is this that Saint Augustine teaches when he writes: ‘I have met many who wanted to deceive, but none who wanted to be deceived’”; quoting Augustine, Confessiones, X, 23, 33: PL 32, 794.
[163] Dicastery for the Doctrine of the Faith, Declaration Dignitas Infinita (4 April 2024), par. 62.
[164] Benedict XVI, Message for the XLIII World Day of Social Communications (24 May 2009): L’Osservatore Romano, 24 January 2009, 8.
[165] Cf. Dicastery for Communications, Towards Full Presence: A Pastoral Reflection on Engagement with Social Media (28 May 2023), par. 41; Second Vatican Ecumenical Council, Decree Inter Mirifica (4 December 1963), pars. 4, 8-12: AAS 56 (1964), 146, 148-149.
[166] Dicastery for the Doctrine of the Faith, Declaration Dignitas Infinita (4 April 2024), pars. 1, 6, 16, 24.
[167] Second Vatican Ecumenical Council, Pastoral Constitution Gaudium et Spes, (7 December 1965), par. 26: AAS 58 (1966), 1046. Cf. Leo XIII, Encyclical Letter Rerum Novarum (15 May 1891), par. 40: Acta Leonis XIII, 11 (1892), 127: “no man may with impunity violate that human dignity which God himself treats with great reverence”; as quoted in John Paul II, Encyclical Letter Centesimus Annus (1 May 1991), par. 9: AAS 83 (1991), 804.
[168] Cf. Catechism of the Catholic Church, pars. 2477, 2489; can. 220 CIC; can. 23 CCEO; John Paul II, Address to the Third General Conference of the Latin American Episcopate (28 January 1979), III.1-2: Insegnamenti II/1 (1979), 202-203.
[169] Cf. Permanent Observer Mission of the Holy See to the United Nations, Holy See Statement to the Thematic Discussion on Other Disarmament Measures and International Security (24 October 2022): “Upholding human dignity in cyberspace obliges States to also respect the right to privacy, by shielding citizens from intrusive surveillance and allowing them to safeguard their personal information from unauthorized access.”
[170] Francis, Encyclical Letter Fratelli Tutti (3 October 2020), par. 42: AAS 112 (2020), 984.
[171] Francis, Message for the LVII World Day of Peace (1 January 2024), par. 5: L’Osservatore Romano, 14 December 2023, 3.
[172] Francis, Address to the Participants in the “Minerva Dialogues” (27 March 2023): AAS 115 (2023), 465.
[173] The 2023 Interim Report of the United Nations AI Advisory Body identified a list of “early promises of AI helping to address climate change” (United Nations AI Advisory Body, Interim Report: Governing AI for Humanity [December 2023], 3). The document observed that, “taken together with predictive systems that can transform data into insights and insights into actions, AI-enabled tools may help develop new strategies and investments to reduce emissions, influence new private sector investments in net zero, protect biodiversity, and build broad-based social resilience” (ibid.).
[174] “The cloud” refers to a network of physical servers throughout the world that enables users to store, process, and manage their data remotely.
[175] Francis, Encyclical Letter Laudato Si’ (24 May 2015), par. 9: AAS 107 (2015), 850.
[176] Francis, Encyclical Letter Laudato Si’ (24 May 2015), par. 106: AAS 107 (2015), 890.
[177] Francis, Encyclical Letter Laudato Si’ (24 May 2015), par. 60: AAS 107 (2015), 870.
[178] Francis, Encyclical Letter Laudato Si’ (24 May 2015), pars. 3, 13: AAS 107 (2015), 848.852.
[179] Augustine, De Civitate Dei, XIX, 13, 1: PL 41, 640.
[180] Cf. Second Vatican Ecumenical Council, Pastoral Constitution Gaudium et Spes (7 December 1965), pars. 77-82: AAS 58 (1966), 1100-1107; Francis, Encyclical Letter Fratelli Tutti (3 October 2020), pars. 256-262: AAS 112 (2020), 1060-1063; Dicastery for the Doctrine of the Faith, Declaration Dignitas Infinita (4 April 2024), pars. 38-39; Catechism of the Catholic Church, pars. 2302-2317.
[181] Second Vatican Ecumenical Council, Pastoral Constitution Gaudium et Spes (7 December 1965), par. 78: AAS 58 (1966), 1101.
[182] Francis, Message for the LVII World Day of Peace (1 January 2024), par. 6: L’Osservatore Romano, 14 December 2023, 3.
[183] Cf. Catechism of the Catholic Church, pars. 2308-2310.
[184] Cf. Second Vatican Ecumenical Council, Pastoral Constitution Gaudium et Spes (7 December 1965), pars. 80-81: AAS 58 (1966), 1103-1105.
[185] Francis, Message for the LVII World Day of Peace (1 January 2024), par. 6: L’Osservatore Romano, 14 December 2023, 3. Cf. Id., Address at the G7 Session on Artificial Intelligence in Borgo Egnazia (Puglia) (14 June 2024): L’Osservatore Romano, 14 June 2024, 2: “We need to ensure and safeguard a space for proper human control over the choices made by artificial intelligence programs: human dignity itself depends on it.”
[186] Francis, Address at the G7 Session on Artificial Intelligence in Borgo Egnazia (Puglia) (14 June 2024): L’Osservatore Romano, 14 June 2024, 2. Cf. Permanent Observer Mission of the Holy See to the United Nations, Holy See Statement to Working Group II on Emerging Technologies at the UN Disarmament Commission (3 April 2024): “The development and use of lethal autonomous weapons systems (LAWS) that lack the appropriate human control would pose fundamental ethical concerns, given that LAWS can never be morally responsible subjects capable of complying with international humanitarian law.”
[187] Francis, Encyclical Letter Fratelli Tutti (3 October 2020), par. 258: AAS 112 (2020), 1061. Cf. Second Vatican Ecumenical Council, Pastoral Constitution Gaudium et Spes (7 December 1965), par. 80: AAS 58 (1966), 1103-1104.
[188] Second Vatican Ecumenical Council, Pastoral Constitution Gaudium et Spes (7 December 1965), par. 80: AAS 58 (1966), 1103-1104.
[189] Cf. Francis, Message for the LVII World Day of Peace (1 January 2024), par. 6: L’Osservatore Romano, 14 December 2023, 3: “Nor can we ignore the possibility of sophisticated weapons ending up in the wrong hands, facilitating, for instance, terrorist attacks or interventions aimed at destabilizing the institutions of legitimate systems of government. In a word, the world does not need new technologies that contribute to the unjust development of commerce and the weapons trade and consequently end up promoting the folly of war.”
[190] John Paul II, Act of Entrustment to Mary for the Jubilee of Bishops (8 October 2000), par. 3: Insegnamenti XXIII/2 (200), 565.
[191] Francis, Encyclical Letter Laudato Si’ (24 May 2015), par. 79: AAS 107 (2015), 878.
[192] Cf. Benedict XVI, Encyclical Letter Caritas in Veritate (29 June 2009), par. 51: AAS 101 (2009), 687.
[193] Cf. Dicastery for the Doctrine of the Faith, Declaration Dignitas Infinita (8 April 2024), pars. 38-39.
[194] Cf. Augustine, Confessiones, I, 1, 1: PL 32, 661.
[195] Cf. John Paul II, Encyclical Letter Sollicitudo Rei Socialis (30 December 1987), par. 28: AAS 80 (1988), 548: “[T]here is a better understanding today that the mere accumulation of goods and services […] is not enough for the realization of human happiness. Nor, in consequence, does the availability of the many real benefits provided in recent times by science and technology, including the computer sciences, bring freedom from every form of slavery. On the contrary, […] unless all the considerable body of resources and potential at man’s disposal is guided by a moral understanding and by an orientation towards the true good of the human race, it easily turns against man to oppress him.” Cf. ibid., pars. 29, 37: AAS 80 (1988), 550-551.563-564.
[196] Second Vatican Ecumenical Council, Pastoral Constitution Gaudium et Spes (7 December 1965), par. 14: AAS 58 (1966), 1036.
[197] Francis, Encyclical Letter Dilexit Nos (24 October 2024), par. 18: L’Osservatore Romano, 24 October 2024, 5.
[198] Francis, Encyclical Letter Dilexit Nos (24 October 2024), par. 27: L’Osservatore Romano, 24 October 2024, 6.
[199] Francis, Encyclical Letter Dilexit Nos (24 October 2024), par. 25: L’Osservatore Romano, 24 October 2024, 5-6.
[200] Francis, Encyclical Letter Laudato Si’ (24 May 2015), par. 105: AAS 107 (2015), 889. Cf. R. Guardini, Das Ende der Neuzeit, Würzburg 19659, 87 ff. (en. tr. The End of the Modern World, Wilmington 1998, 82-83).
[201] Second Vatican Ecumenical Council, Pastoral Constitution Gaudium et Spes (7 December 1965), par. 34: AAS 58 (1966), 1053.
[202] John Paul II, Encyclical Letter Redemptor Hominis (4 March 1979), par. 15: AAS 71 (1979), 287-288.
[203] N. Berdyaev, “Man and Machine,” in C. Mitcham – R. Mackey, eds., Philosophy and Technology: Readings in the Philosophical Problems of Technology, New York 19832, 212-213.
[204] N. Berdyaev, “Man and Machine,” 210.
[205] G. Bernanos, “La révolution de la liberté” (1944), in Id., Le Chemin de la Croix-des-Âmes, Rocher 1987, 829.
[206] Cf. Francis, Meeting with the Students of the Barbarigo College of Padua in the 100th Year of its Foundation (23 March 2019): L’Osservatore Romano, 24 March 2019, 8. Cf. Id., Address to Rectors, Professors, Students and Staff of the Roman Pontifical Universities and Institutions (25 February 2023).
[207] Francis, Encyclical Letter Laudato Si’ (24 May 2015), par. 112: AAS 107 (2015), 892-893.
[208] Cf. Bonaventure, Hex. XIX, 3; Francis, Encyclical Letter Fratelli Tutti (3 October 2020), par. 50: AAS 112 (2020), 986: “The flood of information at our fingertips does not make for greater wisdom. Wisdom is not born of quick searches on the internet nor is it a mass of unverified data. That is not the way to mature in the encounter with truth.”
[209] Francis, Message for the LVIII World Day of Social Communications (24 January 2024): L’Osservatore Romano, 24 January 2024, 8.
[212] Francis, Apostolic Exhortation Gaudete et Exsultate (19 March 2018), par. 37: AAS 110 (2018), 1121.
[213] Francis, Message for the LVII World Day of Peace (1 January 2024), par. 6: L’Osservatore Romano, 14 December 2023, 3. Cf. Id., Encyclical Letter Laudato Si’ (24 May 2015), par. 112: AAS 107 (2015), 892-893; Id., Apostolic Exhortation Gaudete et Exsultate (19 March 2018), par. 46: AAS 110 (2018), 1123-1124.
[214] Cf. Francis, Encyclical Letter Laudato Si’ (24 May 2015), par. 112: AAS 107 (2015), 892-893.
[215] Cf. Francis, Address to the Participants in the Seminar “The Common Good in the Digital Age” (27 September 2019): AAS 111 (2019), 1570-1571.