[칼럼의 칼럼] AI 대전환을 맞이하는 인류의 자세

by 송승원 기자

언론고시에서 손을 뗀 뒤로 전국·해외 이슈 관련 사설을 틈틈이 보기는 했지만, 제대로 분석하며 읽지는 못했다. 해당 사설의 표현이나 통찰, 개념이 현재 기자 생활에 도움을 줄 수 있기에 조금이라도 시간을 내 다시 시도해 보려 한다. 무엇보다 존경하는 선배가 오래전 '하루에 칼럼 한 편이라도 꼼꼼히 읽어보라'라고 했던 조언을 항상 생각하고 있었는데 이번 계기로 미뤄둔 숙제를 해야겠다.


KakaoTalk_20260309_084156350.jpg


'칼럼의 칼럼'이라는 느낌으로 칼럼 자체의 형식과 내용을 같이 분석해 보려고 하는데 많이 부족할 것이다. 하지만 글이 쌓일수록 조금이라도 혜안이 트이지 않을까 하는 마음에 꾸준히 해 보려고 한다. 첫 순서로 경향신문과 조선일보에 기고된 AI 칼럼을 가져왔다. AX(AI 대전환)에 따른 대응 방안을 제시하고 있는데 사례와 논리 구조에 차이가 있어 보는 재미가 있다.




[(경향신문) 금속노조 올 임단협서 'AI 의제화', 노사 상생 방안 찾길(2026.03.04.)]


https://www.khan.co.kr/article/202603041810011


문제 제기: AI발 일자리 쇼크


현대자동차는 오는 2028년 미국 조지아주에 설립할 공장에 2억 원 상당의 '아틀라스' 로봇을 투입한다고 밝혔다. 1년 유지비 1천4백만 원으로 24시간 가동해 연봉 1억 원 노동자보다 효율이 두 배 이상 높은 것으로 알려졌다.


현상: 노동계 대응


금속노조는 지난 3일 대의원회에서 'AI 도입 시 노동인권 및 고용보호' 요구안을 의결했다. AI 도입이 고용과 노동조건에 미치는 영향을 노사가 합동으로 사전 평가하는 내용을 비롯해 AI가 수집하는 조합원의 업무·인사 정보의 종류와 범위 등을 공개하는 등의 내용이 담겼다.


평가: 노동계 대응에 찬성하는 논거


AI 로봇 도입이 노동자의 노동조건과 환경에 엄청난 변화를 초래할 수밖에 없는 만큼 현행 노사 합의 절차에 따라 노동자의 의사가 충분히 협의·반영돼야 한다. 헌법(근로조건의 기준은 인간의 존엄성 보장)과 노동조합법(노조가 조합원을 위해 사용자와 교섭하고 단체협약 체결한 권한 가짐) 인용.


한계: 기술 발전의 불가피성


19세기 영국 노동자의 기계파괴운동이 실패로 끝난 것처럼 AI가 인간의 노동을 줄이거나 대체하는 것은 거스를 수 없는 시대적 흐름이다.


결론: 사회적 협의 필요


노사가 머리를 맞대 상생 방안을 찾되, 이달에 재가동되는 대통령 소속 경제사회노동위원회도 이 문제를 핵심 의제로 선정해 사회적 논의를 진행해야 한다.


칼럼의 칼럼: AX에 대한 사회적 합의 강조..구체적 설명 부족 아쉬워


짧은 글 안에서 AI 확산에 따른 일자리 충격과 기술의 긍정적 효과(산업 재해 위험 감소)를 균형 있게 제시했다. 실패로 끝난 기계파괴운동을 언급하며 AX(AI 대전환)는 막을 수 없는 시대적 흐름이라고 분석하며 사회적 합의의 필요성을 강조했다. 그러나 사회적 합의가 어떤 정책이나 제도적 장치로 이어질 수 있는지에 대한 자세한 설명으로 이어지지 못한 점이 아쉽다.


아마존은 지난해 미래 일자리를 위한 새로운 투자 비전 'Future Ready 2030'을 발표했다. 최소 5천만 명이 미래 직업에 대비할 수 있도록 25억 달러를 투자한다는 내용이 담겼다. 해고 대신, 기존 직원이 현재 맡은 일과(리스킬링) 현재 맡고 있는 분야(업스킬링)에서 다른 일을 할 수 있도록 새 기술을 가르치는 등 내부 인력 전환을 통해 생산성과 유연성을 동시에 확보하겠다는 취지다.


하지만 기업의 선의에 기대 AI 대전환에 따른 일자리 쇼크를 해결할 수는 없다. 정부의 역할이 필요하다. 내부 전환 전략을 마련한 기업에 적절한 인센티브를 제공하는 한편, 재교육과 재배치에 필요한 기반을 마련해야 한다. 영국은 AI·디지털 기술 관련 역량을 단기간에 습득할 기회를 제공하고, 공공부문 기술자들을 AI 전문가로 전환하기 위해 12주 집중 교육 프로그램을 운영한다.


노동자의 권리 보호도 보장돼야 한다. EU의 AI 법의 '금지된 AI'에는 노동조합 가입 여부 등을 확인하거나 추론하기 위한 시스템이 포함됐다. ‘고위험 AI’에는 채용 승진 성과와 근태에 대한 모니터링, 평가와 관련된 시스템이 포함됐다. 금지된 AI와 고위험 AI 사용 규제로 노동권을 보호하는 EU의 AI 기본법 사례처럼 한국의 노동 환경에 맞는 보호 방안 마련이 필요하다.


노동자의 권리 보호와 직무 전환을 동시에 고려하는 제도적 대응이 AI 시대 노동 정책의 핵심 과제가 될 것으로 보인다.


참고: 한국경제/ AI 자동화로 '일자리 대전환'...전환기 노동 정책 시급

내일신문 / [디지털·AI 시대 노동자 보호] 유럽연합, AI 법 제정으로 사용 규제와 노동권 보호




[(조선일보) 기술의 사춘기, '우리만의 AI'라는 착각(2026.03.05.)]


https://www.chosun.com/opinion/chosun_column/2026/03/05/Y52TI43AXRHFNOR6TPEWI4PU24/


문제 제기: AI를 인류가 제대로 통제할 수 있는가


AI 대전환 시기에 들어선 현시대를 칼 세이건이 명명한 '기술적 사춘기(기술을 제도와 윤리가 따라잡지 못해 문명이 자멸할 수 있는 시기)' 개념으로 설명한다.


이상적 사례: 윤리적 마지노선의 필요성


글로벌 AI 기업 앤트로픽의 창업자 다리오 아모데이는 천문학적 수익이 보장된 미 국방부의 제한 없는 기술 이용 요구를 거절했다. 자율 살상 무기나 대규모 감시 시스템에 자신의 기술이 쓰여서는 안 된다는 ‘윤리적 마지노선’을 지키기 위해서다.


비판적 사례: 국가 안보를 이유로 '예외'를 설정하면 안 되는 이유


정부가 발표한 AI 기본법은 '국방 또는 국가 안보 목적으로만 개발·이용되는 AI는 아예 적용 대상에서 제외'된다는 조항은 윤리적 마지노선을 ‘안보’라는 미명 하에 무시하도록 한다. AI는 민·군 겸용이 기본값이기 때문에 ‘오직 국가 안보 목적’이라는 경계도 흐릿해지고 있다.


법 제정 과정에서 강조된 '기술 주권'이나 '소버린 AI'라는 기획에 국가주의적 색채가 너무 짙은 것도 문제다. AI 기술을 국가 경쟁력의 도구로만 바라보면, 안전은 뒷전으로 밀리고 예외 조항을 늘어날 수밖에 없다.


비판 논리 확대: '예외' 논리가 시장에 미치는 악영향


국가주의적 예외 논리는 거대 플랫폼 기업들의 도덕적 해이로 연결된다. '기업 내부 업무용 AI'에 대한 투명성 의무 면제 조항은 플랫폼 권력 오남용을 초래할 수 있다. 알고리즘을 조작해 시장의 공정성을 흔들고, 노동자를 초 단위로 감시해 인격적 통제를 하는 행위가 ’영업 비밀‘ 명분 뒤로 숨어든다.


결론: 보편 윤리 정립의 필요성

기술적 사춘기를 안전하게 통과하고 성인기로 도달하기 위해서는 인류 공동의 발전을 위해 예외 없는 규칙, '보편 윤리'를 정립해야 한다.

칼럼의 칼럼: 기술적 사춘기 맞은 인류의 해법은?..추상적 결론만으로 될까


AI 대전환에 따른 윤리적 기준과 제도적 통제를 마련해야 한다는 주장은 너무도 흔하다. 해당 칼럼이 돋보인 건, 같은 주장을 하면서도 칼 세이건이 제시한 ‘기술적 사춘기’ 개념을 차용해 당위성을 강조했기 때문이다. 인문학적인 신선한 도입으로 독자의 이목을 집중시킨다. 이처럼 논리를 펼치기에 좋은 출발선에 섰음에도 뒷심을 발휘하지 못해 아쉬울 따름이다.


해당 칼럼은 AI 기본법에서 국방과 국가 안보 목적으로 개발·이용되는 AI를 규제 대상에서 제외한 조항을 언급하며 '국가주의라는 협소한 회로'에 갇혀 있는 것 같다고 지적한다. 하지만 현실적으로 군사 기술과 일반 산업 기술에 동일한 규제를 적용하기란 쉽지 않다. 군사 기술은 국가 안보와 직결되는 만큼 높은 수준의 기밀이 필요하기 때문이다. EU의 AI 법 역시, 군사와 국방, 국가 안보 목적의 AI 시스템은 규제 대상에서 제외하고 있다.


서론에서 아모데이의 사례가 등장했던 만큼, AI 기술과 국방의 윤리적 상관관계를 설명하고 싶었다면 다른 논거를 제시하는 게 타당했다고 사료된다. 우크라이나 전쟁에서 러시아 탱크가 드론의 후방 교신을 차단하자 해당 드론이 자율모드로 전환돼 러시아 탱크에 자폭 공격을 가해 승무원이 사망한 사례가 있다. 이와 관련해 AI의 피아 식별 살상과 공격·살상 결정권, 자율 공격 등의 허용만은 제한해야 한다는 주장이 더 설득력이 있을 것으로 판단된다.


또, 해당 칼럼은 국가 안보 목적의 규제 예외가 기업의 플랫폼 권력 남용으로 이어질 수 있다고 설명하는데 논리적인 인과관계가 조금은 아쉽다. 기업의 플랫폼 노동 감시와 알고리즘 권력 문제는 분명 해결해야 할 문제다. 다만, 국가 안보 목적의 AI 정책과 직접적으로 연결된 문제라고 보기는 어렵다. 국가 안보 정책과 시장 규제 문제를 하나의 논리로 연결하는 과정에서 충분한 근거와 대안을 제시하지 못했다.


신선한 도입으로 윤리적 이상과 국가 안보, 기업 권력 남용 등 다양한 문제를 제시한 점은 좋았으나. 개별 사례를 나열한 뒤, 보편 윤리 정립이라는 다소 손쉬운 결론으로 맺어진 점이 아쉽다.


참고: 뉴시스 / "AI에 軍 작전 결정권까지 넘기면 인류 멸망할 것"[코드전쟁④]

유럽연합 인공지능법이 한국 사회보장에 주는 함의

유럽연합 인공지능법 번역본