AI의사대체‘불가’편견에균형상실 이재명실용주의제국 균열

AI Doctor Replacement 'Impossible', Prej

by 김종찬

AI 의사 대체 ‘불가’ 편견에 균형상실 이재명 실용주의 제국 균열



AI가 의사 대체에 대해 최종적으로 불가능한 이유로 미묘한 병세 표현과 미기록 정보에 판독 불가능으로 나오며 이재명 실용주의 AI 주식 제국에 균열을 보이며 이재명 체제의 AI 강국 실용주의 붕괴를 보인다.

AI가 의사를 대체할 것이란 인공지능 만능주의는 실용주의를 통상 앞세웠고, 이때 실용주의가 배척한 ‘철저함과 균형 판단’이 외료 진단 처치의 실제 핵심이고 이를 AI가 판독할 수 없다고 지적됐다.

이재명 대통령은 AI 무기로 의무병을 대체하고 군비증강하며, AI 직접 민주주의로 행정을 대체해 절세하며 양극화를 해소하고 AI 강국에 주식으로 코스피 5000을 선거공약으로 집행했다.

이재명 체제가 정치적 실용주의와 AI 만능주의에서 증시 제국주의 구축에 핵심 이데올로기인 ‘실용주의’는 처음부터 ‘철저함에 균형 판단’ 배척 구조로 출범하고, 다양성을 엄격 차단하기 위한 이념체제로 굳어졌고, 집단 편견 강화 수단으로 강제 이식에 AI를 도입하며 파시즘 성향을 드러내 미국 AI 모방의 'AI 강국 만들기' 전략 실패 가능성이 커지며 ‘주식 제국’에서 기반 균열이 보인다.

듀크 대학의 심장 전문의이며 전 식품의약국(FDA) 국장인 로버트 캘리프 박사는 인공지능이 환자 방문 기록 등 의사들이 지금 해야 하는 "일부 잡일"을 인수한다고 NYT에 말했다.

칼리프 박사는 알파벳에서 6년간 근무했으며, 인공지능을 이용해 약물 처방을 하는 스타트업을 자문하고 있다.

그는 “서버에 의료 지식이 모여 있어도, 챗봇이 환자 돌봄을 완전히 장악할 만큼 충분하지 않을 수도 있다”고 밝혔다.

예일 의과대학 디지털 전략 및 전환 부학장이자 신경과 의사인 리 슈왐 박사는 "의료 정보가 너무 방대해서 그 정보를 비판적으로 사고하는 방법이 복잡하다"면서 “의사는 미묘한 신호를 읽고 명확히 표현하기 어렵고 거의 기록하지 않는 정보를 종합하는 법을 배웠고, 챗봇의 강점은 단지 패턴을 매칭하고 예측하는 데 매우 능숙할 뿐이다"고 NYT에 말했다.

그는 AI 의료에 대해 "이것은 환자에 대해 받은 데이터를 바탕으로 할 수 있으나 그 정보를 스스로 추출할 방법은 없다"며, 반면 의사는 "제한된 정보나 불완전한 정보 앞에서도 추론을 사용해 가장 가능성 높은 진단을 선택해 추가 평가를 할 수 있으며, 철저함과 실용주의의 균형을 맞출 수 있다"고 차이점을 말했다.

그는 한 예로 환자가 "어제 어지러워서 깼어요. 내 팔은 죽었고, 말하기도 힘들었다"라고 말했을 때, 환자의 말인 "어지럼"이 실제로 무슨 뜻인가?

실제로 환자가 어지럽고 곧 기절할 것임을 의미할 수 있고, 아니면 방이 빙글빙글 도는 걸 의미할 수도 있다.

환자의 '죽은' 팔은 약하기보다는 저릴 수 있다. 팔이 부분적으로 마비된 사람은 팔이 무감각하다고 말할 수 있다.

하지만 슈밤 박사가 환자의 팔을 찌르면 환자가 핀을 느낄 수 있다.

이건 환자가 뇌졸중을 겪고 있나? 이게 의료 응급 상황인가?

슈왐 박사는 수년간의 훈련을 받아 누가 아픈지, 어디가 아픈지, 누가 걱정하지 말아야 하는지, 누가 병원에 입원해야 하는지 판단하는 데 도움을 준다고 NYT에 말했다.

그는 심각한 질환을 앓는 환자들은 인간적인 연결이 필요하다고 덧붙였다.

그는 "결국 누군가의 눈을 마주치고 싶다"고 말하며, 환자가 10년, 즉 단 6개월밖에 살지 못한다고 설명했을 때를 말했다.

하지만 그는 챗봇을 무시하는 것이 아니다. 챗봇이 의사의 영향력을 넓히고 우리 의료 시스템의 구조를 바꿀 수 있다는 점은 인정한다.

슈왐 박사는 이미 인공지능이 심전도 판독과 같은 상황에서 의사보다 더 뛰어난 성능을 낼 수 있다고 인정했고, 챗봇은 심장 전문의가 볼 수 없는 패턴을 감지해 심장 질환을 찾아낼 수 있는데, 보통은 비용이 많이 드는 심장 초음파 검사가 필요하다.

이로써 심장 전문의의 업무는 이제 일반의가 담당할 수 있게 됐다.

챗봇의 의료 역할에는 또한 일부 의료 전문가의 ‘환자 쏠림’에 의한 대기 시간이 긴 환자 부담을 줄여 전문 지식이 필요한 환자들이 몇 주 또는 몇 달을 기다리지 않아도 되게 만들 수 있고 이건 부차적인 ‘실용주의’의 효과다.

임종 환자와 위급한 환자에게 영양관 삽입 여부에 대해 어려운 대화를 나눌 때, 스탠포드의 내과 의사 조나단 첸 박사는 먼저 챗봇으로 연습한다.

그는 로봇에게 의사가 되어 달라고 요청하고 자신은 환자 역할을 한다. 그러다 역할을 바꿔 본다.

그는 그렇게 하는 것이 불편하다.

그는 “이 챗봇은 환자와 대화할 방법을 정말 잘 찾아낸다”며 “챗봇 의사들은 또한 진단에 매우 뛰어나고, 스캔과 영상을 읽는 데 매우 뛰어나며, 사실 많은 의사들보다 더 뛰어나며, 환자 포털에서 질문에 답하고 약물이나 시술이 거부될 때 보험사에 호소하는 글을 작성하는 데도 매우 뛰어나다”고 NYT에 말했다.

그렇다면 의사는 무엇을 위한 것일까?

첸 박사는 인공지능 프로그램이 의사들에게 "존재론적으로 위협적"이 되고 있다면서 "그들은 네 정체성과 목적을 위협해"라고 밝혔다.

예일대 심장 전문의이자 의사들을 위한 인공지능 프로그램인 OpenEvidence의 자문인 할런 크럼홀츠 박사는 "인공지능의 추론과 진단 능력은 이미 의사들이 할 수 있는 것보다 앞서고 있다"고 NYT에 말했다.

그는 인공지능을 이용해 의료 스캔과 디지털 데이터를 해석하는 두 스타트업의 공동 창립자이다.

NYT는 “의학에서 인공지능의 역할에 대해 깊이 고민한 많은 의사들도 인공지능 기업들과 함께 일해왔다”며 반면에 “연구원들은 챗봇 박사가 아직 당신을 볼 준비가 안 됐다고 말한다. 하지만 인공지능은 일부 의사들이 하는 일과 진료하는 환자들을 바꾸기 시작했다”고 밝혔다.

환자의 진료 대기 줄이기에는 일부 의료 전문가의 환자 부담을 줄여주며 전문 지식이 필요한 환자들에게 진료를 위해 몇 주 또는 몇 달을 기다리지 않아도 되게 만든다.

노스웨스턴 대학교 파인버그 의과대학의 위식도 역류 질환(GERD) 전문의인 존 에릭 판돌피노 박사의 진료에서 이런 현상은 일어나고 있다.

GERD 증상을 걱정하는 대부분의 환자들은 그와 약속을 잡기까지 몇 주를 기다려야 했다.

그는 "상당수의 경우" 환자들이 그의 치료가 필요 없는 덜 심각한 경우를 겪고 있다고 말했다.

판돌피노 박사는 GERDBot이라는 인공지능 솔루션을 만들었다.

이 솔루션은 환자를 분류하고, 사실 그를 진료할 필요가 없는 환자들을 다른 의료진으로 안내한다.

그의 목표는 더 걱정스러운 증상을 추려내서 이 증상 환자들을 신속히 치료하는 것다.

이 솔루션은 먼저 환자들에게 봇의 질문에 답하게 한다.

여기에서 심각한 증상을 보이는 환자들은 즉시 진료를 받는다.

나머지 환자들은 일주일 이내에 간호사 실무자나 의사 보조원으로부터 전화를 받아 두려움을 달래고 필요하다면 도움이 될 수 있는 약을 처방받는다.

판돌피노 박사는 자신이 만든 다른 인공지능 모델을 의료기기 회사 메드트로닉에 라이선스했다.

그 결과 그에게서 환자 수는 적지만, 그의 전문 지식이 필요한 사람들은 바로 그들을 추려내 치료할 수 있다.

그는 "대부분의 사람들은 치료를 시작하고 즉시 정보를 얻을 수 있다는 점에 감사하며, 치료에 실패하거나 경고 신호가 나타나면 의사에게 진료를 받는다"고 NYT에 말했다.

그는 “소수의 사람들이 자신들이 2류 치료로 밀려난다고 느낀다”고 인정한다.

하지만 예전 방식 — 예약까지 최대 6개월 기다림이 필요했던 방식 — 은 도움과 안심을 원하는 사람들에게 훨씬 더 힘들었다.

다음 단계는 더 심각한 GERD 증상을 가진 환자들도 내보내는 것이다.

판돌피노 박사는 '에소-인슈타인'('Eso' 식도)이라는 인공지능 알고리즘을 개발했는데, 이는 덜 전문화된 위장병 전문의가 환자의 증상, 내시경 스캔, 생리학적 검사를 통해 가장 가능성 높은 진단을 결정하는 데 도움을 준다.

그 후 그 일반의 의사에게 환자 치료법과 예후를 알려준다.

그는 "결국 알고리즘이 인간보다 더 잘 작동할 때는 다른 일을 찾아야 할 것이다"라며 "인공지능이 나 같은 사람들을 점점 더 덜 가치 있게 만들 것"이라고 NYT에 말한다.

NYT는 “판돌피노 박사의 인공지능 알고리즘이 전문의들이 많은 환자를 일반의에게 넘길 수 있게 해주듯, 같은 전략이 일반의의 일부 업무를 간호사에게 넘겨줌으로써 더 쉽게 접근할 수 있게 할 수 있다는 일부 희망도 있다”며 “농촌뿐만 아니라 여러 병원과 대형 의과대학이 있는 대도시에서도 1차 진료 의시가 심각하게 부족하다”고 밝혔다.

하버드 의과대학 생의학정보학과장인 아이작 코하네 박사는 신임 교수가 보스턴의 1차 진료 의사를 추천해 달라고 요청했을 때, 신규 환자를 받는 병원을 찾지 못했다고 NYT에 말했다.

메릴랜드 대학교 의과대학 역학 및 공중보건 및 의학 교수인 다니엘 모건 박사는 "접근성은 분명히 문제이다"라며 "환자들을 더 신속하게 진료하고 싶지만, 그러나 '아, 네.'라고 말하는 의사를 한 명도 모른다. 환자들이 나를 만나려면 6개월이 걸려"라고 NYT에 밝혔다.

베스 이스라엘 디코니스 의료센터의 내과 의사 아담 로드먼 박사는 그런 경우(초진 시급성)에 대해 “인공지능은 환자들을 도울 수 있다”라고 NYT에 밝혔다.

NYT는 “이 프로그램은 환자를 분류하고 간호사 실무자가 1차 진료 의사의 업무를 더 많이 수행할 수 있게 하여 복잡한 환자를 더 많이 진료할 수 있게 한다”며 “신규 환자를 받지 않는 의사와 간호사 실무자나 의사 보조원에게 의뢰하는 의사 중 선택할 때, 환자들은 이런 다른 의료 전문가를 받아들일 가능성이 높다”고 밝혔다.

하지만 로드먼 박사와 다른 연구자들은 ‘채팅봇이 의료 기관이 이미 가진 편향을 재현할 위험이 있다’는 점을 인정한다.

NYT는 “연구에서는 여성이나 맞춤법이나 문법 실수를 한 사람에게 덜 관심을 기울일 수 있다는 결과가 나왔다”면서, “이러한 우려로 인해 일부 전문가들은 인공지능을 의료 시스템의 만병통치약으로 삼는 것을 경고한다”고 밝혔다.

MIT 계산생리학 연구실의 임상 연구 책임자인 레오 앤서니 셀리 박사는 "진짜 문제는 인공지능 자체가 아니다"라며 "AI가 심각하게 망가진 시스템을 최적화하기 위해 배치되고 있다는 점이지, 시스템을 재구상하는 데 쓰이는 것이 아니라는 점이다"고 밝혔다.

셀리 박사는 "오늘날 환자들은, 현재 시스템이 얼마나 자신들을 제대로 실패시키고 있는지 깨닫지 못할 수도 있다"고 NYT에 말했다.

그의 동료인 MIT 헬시 ML 그룹의 마르지예 가세미 박사도 비슷한 우려를 가지고 있다.

그는 인공지능에 대해 "엄청난 잠재력을 지니고 있다"면서도, 현재는 주로 "청구 증가, 불리한 환자를 위한 최전선 간호 인력 대체, 약물 광고 등으로 ‘의료 시스템의 이익을 늘리기’에 사용되는 것 같다"고 NYT에 말했다.

내과 의사인 로드먼 박사는 구글의 전 방문 연구원으로 일했다.

그믐 “의료 시스템과 환자들이 이러한 문제를 인지해야 한다”면서 "하지만, 그것이 이 기술을 진행하지 말아야 할 이유가 아니라, 인공지능을 통해 연구자들이 편향을 문서화하고 줄일 수 있어야 한다“고 희망을 말했다.

그는 가장 무서운 ‘인간과 같은 편견’을 가진 AI 생성에 대해, "이를 완화하기가 정말 어렵다"고 NYT에 말했다.

로드먼 박사는 적어도 일부 과제에서는 인공지능이 의사보다 더 뛰어날 것이라면서도 “선별 지침에 주의를 기울이고 환자들의 수면 및 식습관에 대해 상담하는 데 더 잘 활용될 것”을 말했다.

하노스웨스턴 내과 전문의인 제프리 A. 린더 박사는 이에 대해 "이것들이 의사 진료의 지루한 부분이다"라며 "1차 진료에서 하는 많은 업무는 마치 체크박스를 채우는 것처럼 느껴지나 그것이 내가 의학에 끌린 이유가 아니다“라고 말했다.

린더 박사는 일부 의사들이 인공지능에 지나치게 의존할까 걱정한다고 말했다.

그는 "당신이 가장 원하지 않는 건 멍청한 AI 의존 의사이다"라며 "나는 뇌를 꺼버리고 AI가 항상 내게 뭘 하라고 말하는 방식이다"고 밝혔다.

NYT는 “문제는 인공지능이 이상적이지 않을지라도 오늘날의 의료 시스템도 이상적이지 않다는 점이다”며 “의사의 역할이 변화를 겪을 것이라는 점이 점점 더 분명해지고 있다”고 밝혔다.

판돌피노 박사는 "의학은 변할 것이다"라며 "당신은 그걸 거부할 수 없으나 의사들은 여전히 중요한 역할을 해야 한다“고 말했다.

그는 "내과는 사람을 직접 만나는 전문 분야이다"라며 "시간이 지나면서 환자들을 알게 되고, 그들의 가치관을 알고 있고, 그들의 가족을 알고 있다"고 NYT에 말했다.

뉴욕 빙엄턴에 위치한 SUNY 업스테이트 의과대학의 주치의인 조슈아 스타인버그 박사는 이에 동의했다.

스타인버스 박사는 "설령 AI가 모든 의학 문헌을 읽었더라도, 나는 여전히 ‘내 환자에 대한 전문가’일 것이다"라며 "우리의 의사 역할은 조금 다를 수 있지만, 나는 여전히 작은 바퀴 돌리는 의자에 앉아 환자와 이야기할 것이다"라고 NYT에 말했다.

로이터는 “2월 첫째 주에 아시아 주식에서 외국인 유출이 급등했다”며 “이는 한국과 대만이 대규모 AI 관련 자본 지출에 대한 우려로 인해 고성장 기술 주식의 전 세계적 매도세에 압박을 받으면서 발생했다”고 10일 보도했다.

LSEG 데이터에 따르면, 한국, 대만, 태국, 인도, 인도네시아, 베트남, 필리핀 주식시장 기준으로 2월 6일로 끝나는 주에 외국인 투자자들은 순 97억 9천만 달러 상당의 주식을 매도했다.

외국인들은 1월에는 약 39억 달러를 매도했고 2월에 거의 3배 폭증이고 기술주 하락을 주도했다.

외국인들은 2월 첫째 주에 74억 8천만 달러 상당의 한국 주식을 매도했고. 이는 1월의 월간 유입 4억 4,600만 달러와 대비되며 한국의 기술주 중심 체제에 타격을 시작했다.

외국인들은 칩 강국인 대만 주식도 매각을 시작해 1월에 3억 6백만 달러의 외국 순유입에서 반전해 2월 첫째 주에 34억 3천만 달러의 순자산 매각을 보였다.

외국인들은 1월에 인도 주식을 39억 8천만 달러 상당으로 매도하며, 5개월 만에 가장 많은 매도 수치를 보였다.

외국인들은 기술주 비중이 약한 태국, 인도네시아, 필리핀의 주식은 2월 첫째주에 각각 3억 3,200만 달러, 1억 3백만 달러, 2,300만 달러의 외국인 유입을 유치했다.

반면 외국인들은 베트남에서 2억 3,600만 달러 상당의 주식을 판매했다.

기술주 중심의 미국 나스닥 종합지수는 2월 첫째 주에 최대 4.27% 하락했다.

로이터는 “아마존이 올해 2026년 자본지출 전망에서 우려가 50% 이상 상승하며 주식이 약 12.11% 하락해 기술 부문 전반에 걸친 AI 기반 투자에 대한 우려가 더욱 커졌다”고 10일 밝혔다.

노무라증권 보고서는 "이러한 심리 변화는 아시아 기술주에도 부담을 줬다"며 "지난주 주식 움직임은 특히 인기 있는 주제에서 포지셔닝이 혼잡할 때 포트폴리오의 분산과 균형을 유지하자는 메시지를 강화한다고 본다"고 밝혔다.

<미국 주법 AI 규제 가짜이미지 의사 사칭 형사처벌 이재명 '기업우위', 2026년 1월 18일자>

<이재명 AI로 직접민주주의 헌법 위반 2021년 공약은 ‘뉴딜 4% 고성장, 2025년 7월 14일자>

<건강보험의 의료기술 지원 체제로 보장률 감소 2021년 8월 12일자>

<AI 인종편견 휴대전화 얼굴 인식 아시안 오류 흑인 ‘고릴라’ 분류, 2025년 4월 28일자> 참조

kimjc00@hanmail.net



AI Doctor Replacement 'Impossible', Prejudice Loses Balance, Lee Jae-myung's Pragmatic Regime 'Cracks'


The ultimate impossibility of AI replacing doctors stems from subtle disease presentations and indecipherable unrecorded information, signaling the collapse of Lee Jae-myung's AI-powered pragmatism.

The AI supremacist belief that AI will replace doctors typically prioritized pragmatism. However, it was pointed out that "thoroughness and balanced judgment," rejected by pragmatism, are the true core of outpatient diagnosis and treatment, and that AI cannot decipher these.

President Lee Jae-myung implemented his campaign promises to replace conscripts with AI weapons, increase military spending, replace administration with AI direct democracy to reduce taxes, resolve polarization, and build a KOSPI 5000 stock market as an AI powerhouse.

The Lee Jae-myung administration, built on political pragmatism and AI supremacy, established a stock market imperialism. "Pragmatism," a core ideology, was launched from the beginning as a structure that rejected "thoroughness and balanced judgment."

This system solidified into an ideological system that strictly suppressed diversity. Furthermore, it revealed fascist tendencies by introducing AI for forced transplants as a means of reinforcing group bias. This strategy of imitating the US AI to "build an AI powerhouse" is increasingly likely to fail, revealing cracks in the foundation of the "stock empire."

Dr. Robert Califf, a Duke University cardiologist and former FDA commissioner, told the New York Times that AI is taking over "some of the chores" doctors currently do, such as keeping patient records.

Dr. Califf worked at Alphabet for six years and advises a startup that uses AI to prescribe medications.

He said, "Even with all the medical knowledge on servers, it may not be enough for chatbots to completely take over patient care."

Dr. Lee Schwam, a neurologist and vice dean for digital strategy and transformation at Yale School of Medicine, told the Times, "The sheer volume of medical information makes it complex to think critically about it. Doctors have learned to read subtle signals and synthesize information that is difficult to articulate and rarely recorded. Chatbots' strengths lie in their ability to match patterns and make predictions."

He explained the difference between AI medicine and medicine: "It can rely on data received about a patient, but it has no way to extract that information on its own." On the other hand, doctors can "use reasoning to select the most likely diagnosis and conduct further evaluations, even with limited or incomplete information, balancing thoroughness and pragmatism."

He offered an example: when a patient says, "I woke up yesterday feeling dizzy. My arm was dead, and I had trouble speaking," what does the patient actually mean by "dizzy"?

It could mean the patient is dizzy and about to faint, or it could mean the room is spinning.

The patient's "dead" arm might feel numb rather than weak. A person with a partially paralyzed arm might describe it as numb.

But when Dr. Shubham pokes the patient's arm, the patient feels the pinprick.

Is this a stroke? Is this a medical emergency? Dr. Schwam, who has years of training, told the New York Times that he helps determine who is sick, where it hurts, who shouldn't worry, and who needs to be admitted to the hospital.

He added that patients with serious illnesses need a human connection.

"Ultimately, you want to look someone in the eye," he said, referring to a time when a patient was told they had 10 years to live, or just six months.

But he's not dismissive of chatbots. He acknowledges that they have the potential to expand the influence of doctors and reshape our healthcare system.

Dr. Schwam has already acknowledged that AI can outperform doctors in situations like reading electrocardiograms, and chatbots can detect patterns that cardiologists can't see, potentially revealing heart disease that would normally require expensive echocardiograms.

This frees up the work of cardiologists for general practitioners.

Chatbots can also play a role in healthcare, reducing the burden on some medical professionals who face long wait times due to "patient overcrowding," saving patients who need specialized expertise from having to wait weeks or months. This is a secondary benefit of "pragmatism."

When having difficult conversations with terminally ill and critically ill patients about whether to insert a feeding tube, Stanford internist Dr. Jonathan Chen first practices with a chatbot.

He asks the robot to be the doctor, while he plays the patient.

He then switches roles.

He finds it uncomfortable.

"The chatbot is really good at figuring out how to communicate with patients," he told the New York Times. "The chatbot doctors are also very good at diagnosing, very good at reading scans and images—in fact, better than many doctors—and very good at answering questions on patient portals and writing appeals to insurance companies when medications or procedures are denied."

So what are doctors for? Dr. Chen said AI programs are becoming "existentially threatening" to doctors, saying, "They threaten your identity and your purpose."

Dr. Harlan Krumholtz, a Yale University cardiologist and advisor to OpenEvidence, an AI program for doctors, told the New York Times that "AI's reasoning and diagnostic capabilities are already far beyond what doctors can do."

He is the co-founder of two startups that use AI to interpret medical scans and digital data.

"Many doctors who have thought deeply about the role of AI in medicine have also worked with AI companies," the New York Times reported. "On the other hand, researchers say, 'Dr. Chatbot isn't ready to see you yet.' But AI is beginning to change what some doctors do and the patients they see."

Reducing patient waiting times could ease the burden on some medical professionals, allowing patients who need specialized expertise to avoid waiting weeks or months for care. This phenomenon is playing out in the practice of Dr. John Eric Pandolfino, a gastroesophageal reflux disease (GERD) specialist at Northwestern University Feinberg School of Medicine.

Most patients concerned about GERD symptoms have had to wait weeks to get an appointment with him.

He said that "a significant portion" of his patients have less severe cases that don't require his care.

Dr. Pandolfino created an AI solution called GERDBot.

This solution triages patients and directs those who don't actually need his care to other providers.

His goal is to identify more concerning symptoms and provide prompt treatment for these patients.

The solution first asks patients to answer a bot's questions.

From there, patients with severe symptoms are seen immediately.

The rest receive a call within a week from a nurse practitioner or physician assistant, who calms their fears and, if necessary, prescribes medications that can help.

Dr. Pandolfino has licensed another AI model he created to the medical device company Medtronic. As a result, he has a smaller patient population, but he can quickly identify and treat those who need his expertise.

"Most people appreciate the immediate access to information once they start treatment, and if treatment fails or warning signs appear, they see a doctor," he told the New York Times.

He acknowledges that "a small minority feel they're being relegated to second-rate care."

But the old way—with waits of up to six months for an appointment—was far more difficult for those seeking help and reassurance.

The next step is to also remove patients with more severe GERD symptoms.

Dr. Pandolfino developed an artificial intelligence algorithm called "Eso-Instein" ("Eso" for esophagus), which helps less specialized gastroenterologists determine the most likely diagnosis based on a patient's symptoms, endoscopic scans, and physiological tests.

Then, the general practitioner is informed of the patient's treatment and prognosis. "Eventually, when algorithms outperform humans, we'll have to find other work," he told the Times. "AI will make people like me less and less valuable."

The Times noted, "Just as Dr. Pandolfino's AI algorithm has enabled specialists to refer many patients to general practitioners, there's some hope that the same strategy could make some general practitioner work more accessible by shifting it to nurses." "There's a severe shortage of primary care physicians, not just in rural areas but also in large cities with multiple hospitals and large medical schools," the Times reported.

Dr. Isaac Kohane, chairman of the Department of Biomedical Informatics at Harvard Medical School, told the Times that when a new faculty member asked him for a recommendation for a primary care physician in Boston, he couldn't find one that was accepting new patients. "Access is definitely an issue," Dr. Daniel Morgan, a professor of epidemiology, public health, and medicine at the University of Maryland School of Medicine, told the Times.

"I want to see patients more quickly, but I don't know a single doctor who says, 'Oh, yes.' It's going to take six months for them to see me."

Dr. Adam Rodman, an internist at Beth Israel Deaconess Medical Center, told the Times that in such cases (first-time urgent care visits), "AI can help patients."

The program "triages patients and frees up nurse practitioners to do more of the work of primary care physicians, allowing them to see more complex patients," the Times said. "Given the choice between a doctor who won't accept new patients and a doctor who will refer patients to a nurse practitioner or physician assistant, patients are more likely to accept that other health care professional."

However, Dr. Rodman and other researchers acknowledge that chatbots risk replicating existing biases in healthcare institutions. The New York Times reported, "Studies have shown that doctors may pay less attention to women or to people who make spelling or grammar mistakes," and that "these concerns have led some experts to caution against using AI as a panacea for the health care system."

"The real problem isn't AI itself," said Dr. Leo Anthony Celi, director of clinical research at MIT's Computational Physiology Laboratory. "It's that AI is being deployed to optimize a system that's seriously broken, not to reimagine it."

"Patients today may not realize how badly the current system is failing them," Dr. Sely told the Times.

His colleague, Dr. Marziye Ghasemi of MIT's Healthy ML Group, shares similar concerns.

He told the Times that while AI "has tremendous potential," it currently seems to be used primarily to "add value to the health care system" by "increasing billing, displacing frontline nurses for disadvantaged patients, and advertising drugs."

Dr. Rodman, an internist and former visiting researcher at Google, said, "Health care systems and patients need to be aware of these issues. But that's not a reason not to move forward with this technology. AI should allow researchers to document and mitigate bias."

He told the Times that the most frightening aspect, the creation of AI with "human-like biases," would be "really difficult to mitigate." Dr. Rodman said AI would likely outperform doctors at least in some tasks, but said it would be better used to "attend to screening guidelines and counsel patients about their sleep and eating habits."

Dr. Jeffrey A. Linder, an internist at Northwestern, said, "These are the boring parts of being a doctor. A lot of the work I do in primary care feels like checking boxes, but that's not why I was drawn to medicine."

Dr. Linder said he worries that some doctors will become overly reliant on AI.

"The last thing you want is a dumb, AI-dependent doctor," he said. "I turn my brain off and the AI is always telling me what to do."

The New York Times reported, "The problem is that while AI may not be ideal, today's health care system isn't either. It's becoming increasingly clear that the role of the doctor is going to change."

Dr. Pandolfino said, "Medicine is going to change. You can't deny it, but doctors still have a crucial role to play." “Internal medicine is a very people-focused profession,” he told the Times. “Over time, you get to know your patients, you know their values, you know their families.”

Dr. Joshua Steinberg, an attending physician at SUNY Upstate Medical School in Binghamton, New York, agreed.

“Even if AI read all the medical literature, I would still be the ‘expert on my patients,’” Dr. Steinberg told the Times. “Our role as physicians might be a little different, but I would still be sitting in a little swivel chair talking to patients.”


Reuters reported on the 10th that "foreign outflows from Asian stocks surged in the first week of February," as South Korea and Taiwan faced pressure from a global selloff in high-growth technology stocks amid concerns about large-scale AI-related capital spending.

According to LSEG data, foreign investors sold a net US$9.79 billion worth of stocks in the week ending February 6th across South Korea, Taiwan, Thailand, India, Indonesia, Vietnam, and the Philippines.

Foreigners sold approximately US$3.9 billion in January, a figure that nearly tripled in February, driving the decline in technology stocks.

Foreigners sold US$7.48 billion worth of South Korean stocks in the first week of February, compared to a monthly inflow of US$446 million in January and beginning to dent South Korea's tech-heavy structure. Foreign investors also began selling Taiwanese stocks, a major chip market, reversing the net inflow of $306 million in January to a net asset sale of $3.43 billion in the first week of February.

Foreign investors sold $3.98 billion worth of Indian stocks in January, the largest selling volume in five months.

Stocks in Thailand, Indonesia, and the Philippines, which are less heavily weighted in technology stocks, attracted foreign inflows of $332 million, $103 million, and $23 million, respectively, in the first week of February.

Conversely, foreign investors sold $236 million worth of Vietnamese stocks.

The tech-heavy Nasdaq Composite Index fell as much as 4.27% in the first week of February. Reuters reported on the 10th that Amazon's stock fell about 12.11% amid concerns about its capital expenditure outlook for 2026, which rose more than 50% this year, further fueling concerns about AI-based investments across the tech sector.

Nomura Securities said in a report that "this shift in sentiment also weighed on Asian tech stocks," adding, "Last week's stock moves reinforce the message of maintaining diversification and balance in portfolios, especially when positioning is mixed on popular themes."


See <US State Law Regulates AI, Fake Images, Doctor Impersonation, Criminal Punishment, Lee Jae-myung's 'Corporate Dominance,' January 18, 2026>

<Lee Jae-myung Violates Constitutional Direct Democracy with AI, 2021 Pledge: 'New Deal, 4% High Growth,' July 14, 2025>

<Health Insurance's Medical Technology Support System Reduces Coverage Rate, August 12, 2021>

<AI Racial Bias Cell Phone Facial Recognition Error Classifies Asians as 'Gorillas,' Black People, April 28, 2025>


AI, AI Powerhouse, Unregistered, Pragmatism, Doctor, Lee Jae-myung, Information, Stock Market Empire, Chatbot, Prejudice

작가의 이전글AI연구수학‘수준이하’언어모델새아이디어불가 과학발전저해