brunch

AI에 대한 현실적인 시각

학습여정

“제가 학습하고 있는 강의를 정리하여 공유합니다. 함께 발전하길 바랄 뿐입니다.”


인공지능(AI)이 사회와 개인의 삶에 미치는 영향이 지대하므로, 이에 대해 지나치게 낙관적이거나 비관적이지 않은 '골디락스(Goldilocks) 법칙'과 같은 현실적인 관점을 가져야 한다는 것을 핵심 주제로 합니다.

골디락스 관점의 필요성:

AI가 인류의 모든 문제를 해결할 유토피아를 만들 것이라는 지나친 낙관론(인공 일반 지능, 초지능의 임박 등)과, AI가 인류를 멸망시킬 것이라는 극단적인 비관론(지각력 있는 AI의 통제 불능) 모두 비현실적이며, 실제 문제로부터 주의를 분산시킨다고 주장합니다. AI는 강력한 도구이지만, 할 수 없는 것도 많다는 균형 잡힌 시각이 중요합니다.

AI의 주요 한계점:

설명 불가능성 (블랙박스 문제): 많은 고성능 AI 시스템은 결과는 잘 도출하지만, 그 결과를 도출하는 과정이나 이유를 설명하기 어렵습니다. 이는 신뢰성 확보와 문제 해결에 걸림돌이 될 수 있습니다.


편향성 (Bias): AI 학습 데이터에 성별, 민족 등에 대한 편향이 포함될 경우, AI 시스템 역시 편향되거나 차별적인 결과를 낼 수 있습니다.


적대적 공격 취약성 (Adversarial Attacks): AI 시스템은 의도적으로 시스템을 속이려는 적대적 공격에 노출될 수 있으며, 이는 특히 경제적으로 중요한 결정이 포함된 애플리케이션에서 위험 요소가 됩니다.


AI의 미래:

AI는 이미 막대한 경제적 가치를 창출하고 있으며, 앞으로도 많은 가치를 창출할 수 있는 명확한 경로가 있습니다. 따라서 AI의 잠재적 위험(편향, 불공정, 부정확한 결과)을 완화하면서 지속적으로 AI를 개발하고 활용해야 합니다.


예시: 의료 진단에서의 AI 활용

상황 설명: 병원에서 AI 시스템이 X-ray 이미지를 분석하여 환자의 폐에 문제가 있는지 진단합니다. 예를 들어, AI가 "오른쪽 폐가 무기폐(pneumothorax) 상태입니다"라고 진단할 수 있습니다.


관련성: 이 사례는 AI의 설명 가능성과 신뢰성 문제를 잘 보여줍니다. AI가 진단을 내릴 때, 그 근거를 설명하지 못하면 의사와 환자는 AI의 판단을 신뢰하기 어려울 수 있습니다. 이는 AI의 한계 중 하나로, 의료 분야에서의 AI 활용에 있어 중요한 고려사항입니다.


개념과의 연결:

설명 가능성: AI가 진단을 내릴 때, 어떤 부분을 분석했는지 시각적으로 보여주는 '히트 맵'을 제공할 수 있습니다. 이를 통해 의사들은 AI의 판단 근거를 이해하고, 더 나아가 환자에게 설명할 수 있습니다.


편향성 문제: AI가 훈련된 데이터가 특정 인종이나 성별에 대한 편향이 있을 경우, 진단 결과가 불공정할 수 있습니다. 이는 AI의 신뢰성을 떨어뜨리는 요소입니다.

현실 적용 실천 방향 3가지

AI 정보 비판적으로 수용하기: AI 관련 뉴스를 접할 때, 과장된 낙관론이나 공상 과학 같은 비관론에 현혹되지 않고, 제시된 정보의 근거와 현실성을 따져보는 습관을 들입니다.


AI 활용 시 한계 인식 및 보완 노력: 업무나 일상에서 AI 도구를 사용할 때, AI가 제공하는 정보나 결정이 완벽하지 않을 수 있다는 점을 인지하고, 중요한 사안은 항상 추가적인 검토나 전문가의 의견을 통해 교차 검증하는 시스템을 마련합니다.


AI 윤리 및 공정성 문제에 관심 갖기: AI 시스템의 편향성이나 차별 문제에 대한 인식을 높이고, AI 개발 및 활용 과정에서 공정성과 투명성을 확보하려는 사회적 논의와 노력에 적극적으로 관심을 가지고 참여합니다.



골디락스 이야기의 교훈


줄거리: 금발 소녀 골디락스가 곰 가족의 빈 집에 들어가, 곰들이 남겨둔 음식(수프), 의자, 침대를 경험하며 세 번 반복하는 ‘딱 맞아(just right)’의 균형을 찾는 이야기임


핵심 교훈: ‘지나침도 모자람도 아닌 적당함(중용, 균형)’의 중요성과 선택에 대한 책임이라는 테마를 내포함


모든 선택에는 ‘너무 많지도, 너무 적지도 않은’ ‘딱 맞는 균형’을 찾고, 그에 따른 책임을 져야 한다는 교훈이 현실에 직접적으로 적용된다.

→ Digitalian: 파도가 높으면 그 높은 파도의 크기에 압도됩니다. 우리는 집체만 한 파도가 해안가에 닿으면 물보라와 함께 사라지는 '사실'을 분명히 알고 있습니다. 파도에 압도는 당하되, 파도가 일어나는 원인과 파도의 끝을 즐겁게 생각해 봅니다. AI의 근본적인 한계점은, 답을 내놓기 위한 스스로 설명할 수 있는 능력이 인간과는 다르게 AI는 자가 설명능력이 없습니다. 데이터가 주어지고 그 데이터를 통해 인간의 지식과 교차 검증 시 사실화되는 것에 가장 가까운 답만 찾아낼 수 있다고 봅니다. 이런 관점에서, 향후 데이터 학습 효율을 위해 인간이 만든 데이터를 가지고 학습했던 인공지능의 알고리즘은 각기 다른 분야를 선택하여 집중한 다른 인공지능 데이터를 끌어와 학습할 수 있겠네요. 이렇게 되면 될수록 최초 학습 데이터의 사실성과 객관성이 첫 번째로 중요하고 두 번째로는 데이터 표준화가 엄청나게 중요할 듯합니다. 지금의 인공지능 파고를 보면 그 속에 숨은 물방울들이 보일 것 같네요. 결국, 기업은 서비스 플랫폼의 가치 실현과 수익현실화의 끝없는 저울질이 되겠습니다.


※본 요약은 ‘공정 이용(fair use)’사용 목적으로, Stanford University의 Coursera강의 ‘모두를 위한 AI’를 수강하며 작성한 요약이며, 직접적인 강의 내용 복사, 슬라이드 캡처등은 저작권에 의하여 엄격히 보호됩니다. - 앤드류 응(Andrew Ng)의 강의 by Coursera Plus - "Learning Notes and Summaries by digitalian”

keyword
작가의 이전글인공지능의 윤리적 문제