brunch

You can make anything
by writing

C.S.Lewis

by 류한석 Jun 25. 2024

대형언어모델의 논리적 사고력을
강화하는 CoT 기법

복잡한 문제를 단계적으로 추론하기

대형언어모델의 사고 능력을 극대화하는 핵심 기법의 하나가 바로 CoT(Chain-of-Thought)입니다. CoT는 AI를 인간처럼 “생각”하도록 만드는 기법입니다.


CoT: AI의 사고 체인을 만들다


단순히 모델에게 질문을 던지고 답변을 받는 일반적인 방법과 달리, CoT는 모델이 복잡한 문제를 단계별로 논리적인 추론을 거쳐 최종 결론에 도달하도록 유도합니다. 마치 수학 문제를 풀 때 순차적으로 풀이하면서 해답을 찾아가는 과정과 유사하다고 볼 수 있죠(실제로 모델에 수학 문제를 질문할 때 CoT를 이용하면 오답률이 감소합니다).


“Chain-of-Thought"라는 용어를 직역하면, “사고의 연쇄” 또는 “사고 과정의 연결”을 의미합니다. 이 용어는 문제를 해결하기 위해 체계적이고 단계별로 접근하는 과정을 나타냅니다. 여기에서 Chain은 각 단계나 과정이 서로 연결되어 있으며, 이 연결고리를 통해 최종 결론이나 해답에 도달하는 방식을 의미합니다.


CoT라는 명칭은 AI가 단순히 정보를 처리하는 것이 아니라, 인간의 사고 과정을 모방하여 더 깊이 있고 맥락적인 이해를 달성하려는 노력을 잘 반영하고 있습니다.


CoT의 4가지 핵심 요소


1. 단계적 사고: 문제를 여러 단계로 나누어 접근합니다. 각 단계에서 얻은 정보와 사고를 다음 단계로 이어감으로써 보다 깊이 있는 이해와 분석을 가능하게 합니다.


2. 논리적 연결성: 각 단계는 논리적으로 연결되어야 합니다. 이전 단계에서 도출된 결론이나 정보가 다음 단계의 출발점이 되며, 이를 통해 전체 사고 과정에서의 일관성을 유지할 수 있습니다.


3. 명확한 목표 설정: 각 단계에서 달성해야 할 구체적인 목표를 설정합니다. 이러한 목표 설정은 최종 결론에 도달하는 데 필요한 논리적 사고를 유도하고 유지하는 데 중요한 역할을 합니다.


4. 반복적 검토 및 조정: 모델의 사고 과정을 지속적으로 검토해서 필요에 따라 프롬프트를 조정합니다. 이 과정은 문제 해결의 정확성을 높이며, 최적의 결과를 도출하는 데 도움을 줍니다.


예를 들어, 다음과 같은 질문을 모델에 그냥 물었을 때와 CoT를 적용해 물었을 때의 차이를 살펴보겠습니다.


원래의 질문: “AI가 도덕적 주체가 될 수 있나요? 그렇다면 AI의 행위에 대한 책임은 누구에게 있나요?"



챗GPT(GPT-4o)


AI가 도덕적 주체가 될 수 있는지 여부는 복잡하고 다양한 관점에서 논의되는 문제입니다. 이를 이해하기 위해 몇 가지 중요한 요소를 살펴볼 필요가 있습니다.


1. 도덕적 주체로서의 AI

도덕적 주체는 도덕적 판단을 내리고 이에 따라 행동할 수 있는 능력을 의미합니다. 인간은 자신의 행동에 대한 이해와 의도를 가지고 있으며, 이는 도덕적 책임의 기초가 됩니다. 현재의 AI 기술은 복잡한 알고리즘과 데이터를 바탕으로 작동하지만, 스스로 도덕적 판단을 내리거나 의도를 가지지는 않습니다. AI는 프로그램된 대로 행동하며, 그 자체로는 도덕적 주체로 간주되기 어렵습니다.


2. AI의 행위에 대한 책임

AI의 행위에 대한 책임은 다음과 같은 주체들이 논의될 수 있습니다:

- 개발자 및 설계자: AI를 설계하고 프로그래밍한 사람들이 AI의 행위에 대한 일차적인 책임을 집니다. 이들은 AI가 어떻게 작동하고 어떤 결과를 초래할지에 대한 지식을 가지고 있기 때문입니다.

- 운영자 및 사용자: AI를 실제로 사용하고 관리하는 사람들도 일정 부분 책임이 있습니다. 이들은 AI의 사용 맥락을 이해하고, 이를 적절히 통제할 책임이 있습니다.

- 법적 및 규제 기관: AI의 오용이나 부작용에 대한 사회적 책임을 묻기 위해 법적 및 규제 기관이 존재합니다. 이들은 AI 기술의 개발과 사용에 대한 규제와 법률을 제정하고 집행합니다.


결론

현재로서는 AI가 도덕적 주체로 간주되기 어렵기 때문에, AI의 행위에 대한 도덕적 및 법적 책임은 주로 인간에게 있습니다. 개발자, 사용자, 그리고 법적 기관이 협력하여 AI의 사용과 관련된 책임 문제를 명확히 하고, 윤리적 기준을 마련하는 것이 중요합니다. 이를 통해 AI가 사회에 긍정적인 영향을 미칠 수 있도록 해야 합니다.



CoT 프롬프트:

"AI의 도덕적 주체성과 책임 소재를 다음에 따라 단계별로 분석해 주세요. 각 단계에서 당신의 추론 과정을 자세히 설명해 주세요.

1. 먼저, 도덕적 주체의 정의와 필수 조건에 대해 생각해 보세요. AI가 이러한 조건을 충족시킬 수 있는지 고려해 보세요.

2. 다음으로, 현재 AI 기술의 수준과 한계를 고려해 보세요. 현재의 AI가 도덕적 판단을 내릴 수 있는 능력이 있는지 분석해 보세요.

3. AI가 도덕적 주체가 될 수 있다고 가정했을 때, 이것이 AI의 결정과 행동에 대한 책임 문제에 어떤 영향을 미칠지 생각해 보세요.

4. AI의 행위에 대한 책임 소재를 다양한 관점에서 고려해 보세요. 예를 들어, AI 개발자, 사용자, 규제기관, AI 자체 등의 관점에서 책임 문제를 어떻게 볼 수 있을까요?

5. 마지막으로, AI의 도덕적 주체성과 책임 문제에 대한 당신의 최종 결론을 제시하고, 그 이유를 설명해 주세요."



챗GPT(GPT-4o)


1. 도덕적 주체의 정의와 필수 조건


도덕적 주체의 정의:

도덕적 주체란 자신의 행동에 대한 도덕적 책임을 지고, 도덕적 판단을 내릴 수 있는 존재를 의미합니다. 도덕적 주체가 되기 위해서는 다음과 같은 필수 조건들이 있습니다:

- 의식: 자신의 존재와 주변 환경을 인식할 수 있는 능력.

- 자율성: 외부의 강제나 통제 없이 스스로 선택하고 결정할 수 있는 능력.

- 도덕적 판단 능력: 선과 악, 옳고 그름을 구분할 수 있는 능력.

- 책임감: 자신의 행동에 대한 결과를 이해하고 그에 대해 책임질 수 있는 능력.


AI가 이러한 조건을 충족시킬 수 있는지 고려:

현재의 AI는 위의 조건을 완전히 충족시키지 못합니다. AI는 특정한 알고리즘과 데이터에 기반하여 행동하지만, 자율적인 의식이나 도덕적 판단 능력을 갖추고 있지 않습니다. AI는 프로그래밍된 방식으로 작동하며, 자율적으로 도덕적 결정을 내리기 위한 감정이나 윤리적 사유 능력이 없습니다.


2. 현재 AI 기술의 수준과 한계


현재 AI 기술은 주로 머신 러닝, 딥 러닝, 자연어 처리 등을 포함합니다. 이러한 기술들은 다음과 같은 한계를 가지고 있습니다:

- 자율성 부족: AI는 인간이 설정한 알고리즘과 데이터에 기반하여 작동하며, 진정한 자율성을 가지지 않습니다.

- 도덕적 판단 능력의 결여: AI는 도덕적 개념을 이해하거나 윤리적 딜레마를 해결할 수 있는 능력이 없습니다. AI는 단지 주어진 데이터를 분석하고, 프로그래밍된 규칙에 따라 행동합니다.

- 의식의 부재: AI는 의식을 가지고 있지 않으며, 감정이나 주관적 경험이 없습니다.


3. AI가 도덕적 주체가 될 수 있다고 가정했을 때의 책임 문제


가정: AI가 도덕적 주체가 될 수 있다면, 이는 AI가 자율적으로 도덕적 판단을 내리고 그에 따라 행동할 수 있는 능력을 갖추게 된다는 것을 의미합니다.


책임 문제:

- AI가 자율적으로 결정을 내린다면, 그 결정에 대한 책임은 AI 자신에게 있어야 합니다.

- 그러나 현재의 기술 수준에서는 AI의 결정을 프로그래밍한 사람이나 AI를 사용하는 사람이 책임을 져야 합니다.


4. AI의 행위에 대한 책임 소재


다양한 관점에서의 책임 문제:

- AI 개발자: AI의 설계와 프로그래밍을 담당한 개발자는 AI가 잘못된 결정을 내리거나 해로운 행동을 할 경우, 그 책임을 져야 합니다.

- 사용자: AI를 사용하는 사람은 AI의 활용 방법에 따라 발생하는 결과에 대해 일정 부분 책임을 져야 합니다.

- 규제기관: AI의 윤리적 사용을 감독하고 규제하는 기관은 AI가 사회적 규범과 법률을 준수하도록 할 책임이 있습니다.

- AI 자체: 만약 AI가 도덕적 주체로 인정된다면, AI 자체도 일정 부분 책임을 져야 합니다. 하지만 이는 현재 기술 수준에서 실현 가능하지 않습니다.


5. 최종 결론


결론:

AI의 도덕적 주체성과 책임 문제는 현재 기술 수준에서는 실현 불가능합니다. AI는 의식, 자율성, 도덕적 판단 능력 등 도덕적 주체가 되기 위한 필수 조건을 충족시키지 못합니다. 따라서 AI의 행위에 대한 책임은 주로 AI를 설계한 개발자, AI를 사용하는 사용자, 그리고 AI의 윤리적 사용을 감독하는 규제기관에 있습니다.


이유:

- 기술적 한계: 현재 AI는 자율적인 의식이나 도덕적 판단 능력을 갖추지 못하므로, 도덕적 주체로 인정될 수 없습니다.

- 책임 소재 명확화 필요: AI의 행동에 대한 책임 소재를 명확히 함으로써, AI의 오작동이나 윤리적 문제 발생 시 신속하고 정확한 대응이 가능합니다.


이와 같은 이유로 AI의 도덕적 주체성은 인정될 수 없으며, AI의 행위에 대한 책임은 인간에게 있다고 결론지을 수 있습니다.



CoT를 적용한 예시의 답변을 보면, 모델이 단계별로 사고한 결과를 기반으로 다음 사고를 이어가고, 이를 종합해 답변을 하기 때문에 응답의 품질이 전반적으로 증가하였음을 알 수 있습니다.


단계별로 생각합니다


그런데 CoT를 보다 간단하게 활용하는 방법이 있습니다. CoT를 유도하는 마법(?)의 명령어가 있는데, 바로 "단계별로 생각합니다(Let's think step by step)"입니다. 이 명령을 프롬프트에 포함했을 때와 아닐 때의 응답 품질의 차이는 다음 논문에서 상세히 증명되었습니다.


그러면 여기에서 원래의 질문에 "단계별로 생각합니다"만 포함해서 다시 질문해 보겠습니다.



사용자


AI가 도덕적 주체가 될 수 있나요? 그렇다면 AI의 행위에 대한 책임은 누구에게 있나요? 단계별로 생각합니다.


챗GPT(GPT-4o)


AI가 도덕적 주체가 될 수 있는지와 그 행위에 대한 책임이 누구에게 있는지를 단계별로 생각해보겠습니다.


1단계: 도덕적 주체란 무엇인가?


도덕적 주체는 도덕적 판단을 내리고 그에 따라 행동할 수 있는 능력을 가진 존재입니다. 이러한 존재는 도덕적 기준에 따라 옳고 그름을 판단할 수 있으며, 자신의 행동에 대해 책임을 질 수 있습니다.


2단계: AI가 도덕적 주체가 될 수 있는가?


2.1 인공지능의 특성


- 알고리즘 기반: AI는 인간이 만든 알고리즘에 따라 동작합니다. 이는 AI가 스스로 도덕적 판단을 내리는 것이 아니라, 주어진 데이터와 프로그래밍된 규칙에 따라 작동한다는 것을 의미합니다.

- 자율성의 한계: 현재의 AI는 인간처럼 자율적으로 생각하고 행동할 수 있는 능력이 없습니다. 모든 행동은 사전에 설정된 규칙과 데이터에 기반한 것입니다.


2.2 도덕적 판단 능력


- AI는 학습된 데이터를 기반으로 특정 상황에서 최적의 행동을 선택할 수 있지만, 이러한 선택은 도덕적 판단이라기보다는 확률적 예측에 가깝습니다.

- 따라서, 현재 기술 수준의 AI는 도덕적 주체가 되기에는 부족합니다. 도덕적 판단을 내리는 능력이 결여되어 있기 때문입니다.


3단계: AI의 행위에 대한 책임


3.1 책임의 주체


- 개발자: AI 시스템을 설계하고 프로그래밍한 개발자는 그 시스템의 작동 방식에 대해 1차적인 책임이 있습니다. 시스템의 오류나 예기치 않은 결과에 대한 책임은 개발자에게 있을 수 있습니다.

- 사용자: AI를 사용하는 사람 또한 그 결과에 대한 책임을 질 수 있습니다. 특히, AI의 권고를 따르거나 AI를 특정 방식으로 사용할 경우 사용자의 판단과 사용 방식에 책임이 따릅니다.

- 기업/기관: AI를 상용화하고 배포하는 기업이나 기관도 책임의 일부를 질 수 있습니다. AI 시스템의 안전성, 신뢰성, 윤리적 사용에 대한 책임이 있습니다.


4단계: 법적 및 윤리적 고려사항


- 법적 규제: 각국의 법적 규제는 AI 시스템의 개발, 배포, 사용에 대한 책임 소재를 명확히 하기 위해 필요합니다. 이는 법적 책임의 분배와 사용 기준을 설정하는 데 중요합니다.

- 윤리적 기준: AI의 개발과 사용에 있어 윤리적 기준을 준수하는 것이 중요합니다. 이는 AI가 사회에 미치는 영향을 최소화하고, 올바른 사용을 촉진하는 데 기여할 수 있습니다.


결론


현 단계에서 AI는 도덕적 주체가 될 수 없습니다. AI의 행위에 대한 책임은 주로 개발자, 사용자, 그리고 AI를 상용화하는 기업이나 기관에게 있습니다. 법적 및 윤리적 기준을 통해 이러한 책임을 명확히 하고, AI의 안전하고 책임 있는 사용을 보장하는 것이 중요합니다.



CoT를 적용해 프롬프트를 재작성했을 때만큼은 아니지만, 응답의 품질이 꽤 증가했음을 알 수 있습니다. 높은 추론 능력이 필요할 때 "단계별로 생각합니다"를 사용하는 걸 검토하세요.


CoT를 통한 대형언어모델의 문제 해결 능력 향상


지금까지 살펴본 것처럼, CoT는 대형언어모델로 하여금 인간과 유사한 방식으로 단계적이고 논리적인 사고 과정을 거치도록 유도하는 기법입니다.


이는 복잡한 문제를 다룰 때 중간 과정에서 발생할 수 있는 오류를 줄이고, 최종적인 해결책에 도달하기 위한 기반을 단단하게 만들어 줍니다. 특히 CoT는 모델이 단순히 정보를 재현하는 것이 아니라, 실제로 사고 과정을 거치며 문제에 접근하게 함으로써, 사용자에게 보다 질 높은 해결책을 제공할 수 있도록 합니다.


CoT는 모델의 추론 과정을 더 투명하고 이해하기 쉽게 만들고, 복잡한 문제에 대해 더 정확하고 신뢰할 수 있는 답변을 생성할 수 있는 좋은 방법입니다.


그런데 CoT는 문제를 여러 단계로 나누어 더 신중하게 접근하기 때문에 연산 비용을 더 사용합니다. 각 단계를 거치면서 모델이 추가적인 연산을 해야 하므로, 자원 소모가 증가하게 됩니다. 그에 따라 응답 속도도 느려질 수 있으므로, 상황과 필요에 따라 적절히 사용할 것을 추천합니다.


사슬처럼 생각을 잇는 것, 그것이 바로 CoT입니다.
브런치는 최신 브라우저에 최적화 되어있습니다. IE chrome safari