IT재발견 기업혁신 그리고 AI
혹시 독자는 아래와 같은 고민을 하고 있지 않습니까?
"AI를 활용하고 싶지만, 클라우드 서비스에 데이터를 보내는 것은 조금 불안한데..."
"인터넷 사용제약이 있는 환경에서도 AI를 사용하고 싶다"
ChatGPT, Gemini, Claude등의 LLM이 우리의 삶과 비즈니스에 혁명을 일으키는 반명에 이런 서비스에는 클라우드 의존하는 공통적인 제약이 있습니다. 데이터를 클라우드로 전송해야 하며 항상 인터넷 연결이 필요하며 사용량에 따라 과금이 되지 않습니다. 하지만, AI세계에는 '로컬LLM'라는 옵션이 있다는 것을 알고 있습니까? 이를 활용한 '로컬 AI 에이전트'가 새로운 가능성을 개척하고 있습니다.
이번 글에서는 로컬 LLM과 로컬 AI 에이전트의 기본 개념부터 구체적인 활용 사례, 도입방법에 이르기까지 AI에 관심있는 독자를 위해 알기 쉽게 설명합니다. 클라우드 기반의 AI의 제약으로부터 벗어나고 자기 컴퓨터로 AI의 가능성을 최대한 끌어내는 방법을 찾아볼 것입니다.
로컬 LLM(Local Large Language Model)은 클라우드 서버가 아닌 사용자 자신의 컴퓨터나 서버에서 실행되는 대규모 언어모델입니다. 간단히 말하면, '일반용으로 파일로서 공개된 AI모델'을 자신의 PC에서 실행하는 구조입니다.
기존 ChatGPT 및 Claude와 같은 서비스에서 사용자 입력(프롬프트)은 인터넷을 통해 서비스 제공자의 서버로 전송되며 거기에서 처리된 후 결과가 반환됩니다. 반면 로컬 LLM에서는 모델 파일을 컴퓨터에 다운로드하여 직접 처리합니다.
최근에는 Llama, Mistral, Phi, Gemma등 다양한 오픈소스 모델이 공개되어 개인 PC에서도 잘 작동하는 크기에 최적화된 모델도 늘고 있습니다.
로컬 LLM과 클라우드 LLM의 주요 차이점은 다음과 같습니다.
데이터 흐름: 클라우드형에서는 데이터가 외부 서버로 전송되지만, 로컬형에서는 모든 데이터 처리가 컴퓨터내에서 완료됩니다.
인터넷 연결: 클라우드형은 항상 인터넷 연결이 필요하지만, 로컬형은 오프라인에서도 동작합니다.
비용구조: 클라우드형은 이용량에 따른 과점이 일반적이지만, 로컬형은 초기 투자(하드웨어)이외의 지속적인 비용이 들지 않습니다.
사용자정의: 로컬형은 자신의 필요에 맞게 모델을 조정하거나 특정 데이터로 미세조정할 수 있는 비교적 쉽습니다.
성능 및 리소스: 일반적으로 클라우드형이 고성능 하드웨어를 사용할 수 있기 때문에 처리능력이 높지만, 로컬형은 자신의 하드웨어 성능에 따라 다릅니다.
로컬 LLM의 작동방식은 다음과 같습니다.
모델 다운로드: Hugging Face와 같은 플랫폼에서 모델 파일을 다운로드합니다.
로컬 환경에서 실행: 전용소프트웨어(Ollama 등)를 사용하여 다운로드한 모델을 로드합니다.
추론 처리: 사용자입력(프롬프트)에 대해 모델이 로컬 GPU를 사용하여 추론 처리를 수행합니다.
결과 출력: 처리결과가 사용자에게 직접 리턴됩니다. 모든 작업이 컴퓨터내에서 완료되므로 데이터가 외부로 누출되지 않습니다.
로컬 LLM을 실행하려면 일정 이상의 하드웨어 사양이 필요합니다. 특히, GPU 메모리(VRAM)의 욜량이 모델크기에 충분하다는 것이 중요합니다. 그러나, 최근에는 양자화(Quantization)라고 불리는 기술에 의해 모델 사이즈를 작게 하면서 성능을 어느정도 유지하는 방법도 발전하고 있어 일반 PC에서도 충분히 실용적인 수준으로 동작시키는 것이 가능해졌습니다.
데이터 보안 강화: 로컬 LLM의 가장 큰 매력은 데이터보안강화입니다. 기업의 기밀정보나 개인의 프라이버시에 관한 데이터를 외부 서버에 송신할 필요가 없기 때문에 정보 유출 리스크를 대폭 줄일 수 있습니다. 특히 의료정보, 금융데이터, 기업의 지적재산등 고도의 기밀성이 요구되는 경우에 큰 가치를 발휘합니다.
인터넷 독립적인 안정성: 로컬 LLM은 인터넷 연결에 의존하지 않으므로 오프라인 환경과 통신상황이 불안정한 곳에서도 안정적으로 사용할 수 있습니다. 이벤트장소나 네트워크환경이 갖추어지지 않은 현장, 이동중인 차량이나 비행기 내부등 다앵한 상황에서 AI의 힘을 활용할 수 있게 됩니다. 또한, 서버의 혼잡한 상황이나 유지보수의 영향을 받지 않고 언제든지 일정한 성능을 발휘할 수 있다는 점도 가장 큰 장정입니다.
API 사양 변경에 좌우되지 않는 자유도: 클라우드 서비스 API는 자주 업데이트되며 사양이 변경되고 있습니다. 예를 들어 OpenAI의 API는 특정버전이 만료일자를 제공하며 정기 운영시 고려해야할 때 주의해야 합니다. 반면에 로컬 LLM은 파일로 사용하기 떄문에 모델 버전을 고정하고 장기적으로 사용할 수 있습니다. 이렇게 하면 한번 구축한 시스템이나 프롬프트 구동이 갑자기 바뀌는 위험을 피할 수 있습니다.
즉각적인 응답 및 대기시간 감소: 데이터 송수신할 수 필요가 없으므로 응답시간(대기시간)이 단축됩니다. 특히 실시간성이 요구되는 애플리케이션이나 대량의 데이터 처리가 필요한 경우에는 이런 즉각성이 큰 경우에 장점이 됩니다. 음성기반 어시스턴트와 같은 사용자와의 상호작용에서는 이런 응답속도가 사용자경험을 크게 좌우합니다.
장기적인 비용절감: 클라우스형은 이용량에 따른 과금이 일반적이지만, 로컬 LLM은 초기투자(=하드웨어나 셋업)이외의 지속적인 비용이 들지 않습니다. 특히 대량의 데이터 처리 및 빈번한 사용이 예상되는 경우 장기적으로 상당한 비용절감으로 이어질 수 있습니다. 필자가 진행했던 프로젝트중 어떤 기업에서는 사내문서 검색 및 요약에 로컬 LLM을 도입하여 연간 API이용료를 90%를 절감한 성공 사례도 있습니다.
사용자정의 유연성: 로컬LLM은 자신의 필요에 맞게 사용자정의하기 쉽습니다. 특정 산업용어 및 사내문서로 미세조정하거나 특정작업에 특화된 모델을 구축할 수 있습니다.
관리 리스크: 클라우드형과 달리 시스템 운용관리나 보안대책을 모두 자사에서 대응할 필요가 있습니다. 모델 업데이트, 버그수정, 보안패치적용도 직접 수행해야 하며 전문지식이 있는 직원이 필요합니다.
초기비용 허들: 로컬LLM을 효율적으로 동작시키기 위해서는 고성능 GPU나 충분한 메모리를 내장한 하드웨어가 필요합니다. 특히 대규모 모델이나 고속처리를 요구하는 경우, 해당 스펙을 가지는 머신의 조달비용은 결코 저렴하지 않습니다. 예를 들어, 최신 GPU는 몇천만원까지 비용이 들고, 기업규모로의 도입을 생각할 경우에는 상당한 초기 투자가 필요합니다.
클라우드형과 비교한 성능 차이: 일반적으로 클라우스형에서 제공되는 모델(GPT-4o, Claude 3.7)과 비교하면 오프소스기반의 로컬 LLM은 성능측면에서 열등할 수 있습니다. 특히, 최신 대규모 모델은 개인 PC에서 실행하기에는 너무 큰 것도 있습니다.
계산자원 소비: 로컬 LLM은 자신의 컴퓨팅 리소스를 사용하기 때문에 실행중에는 다른 작업의 성능에 영향을 줄 수 있습니다. 특히 GPU메모리를 많이 소비하기 때문에 그래픽 처리가 필요한 다른 애플리케이션과 동시에 사용하기가 어려울 수 있습니다.
스케일링의 어려움: 서비스로 배포하는 경우 사용자 수가 증가함에 따라 인프라를 확장해야 합니다. 클라우드형처럼 쉽게 스케일아웃하기 어렵고 하드웨어 추가 및 관리 복잡성이 증가합니다.
로컬LLM에 적합한 용도
기밀성이 높은 데이터르르 다루는 업무 (의료, 법률, 금융 등)
인터넷연결이 제약되어 있거나 사용할 수 없는 환경
장기적으로 같은 모델의 실행을 유지하고자 하는 경우
특정분야에 특화된 맞춤형 모델이 필요한 경우
API 사용비용이 우려되는 대량 처리
클라우드형 서비스에 적합한 용도
최고 수준의 성능이 필요한 경우
하드웨어 투자를 피하고 싶은 경우
기술적인 관리부담을 줄이고자 하는 경우
급속하게 스케일해야 할 경우
최신 모델과 기능을 바로 사용하고 싶은 경우
실제 도입에 있어서의 이런 장점과 단점을 종합적으로 판단하고 자신의 요구에 가장 적합한 선택을 하는 것이 중요합니다. 또한 최근에는 하이브리드 접근법(클라우드형과 로컬형의 조합)도 하나의 옵션으로 대두되고 있습니다.
AI 에이전트는 AI를 활용하여 특정 작업을 자동으로 수행하고 의사결정을 지원하는 시스템입니다. 단순한 질문응답뿐만 아니라 환경을 인식하고 추론하고 행동을 수행하고 학습을 통해 성능을 향상시킬 수 있는 능력을 가지고 있습니다.
AI 에이전트에는 다음과 같은 유형이 있습니다.
반사형 AI 에이전트: 사전 프로그래밍된 규칙 및 조건에 따라 작동하는 기본적인 유형입니다. 예를 들어, 온도센서로 실내온도를 조정하는 시스템이 이에 해당됩니다.
모델기반 반사형 AI 에이전트: 물리적 환경과 과거 데이터를 기반으로 예측을 수행하고 효율적인 행동을 선택합니다. 스마트 로봇 청소기등이 이에 해당합니다.
효용성 AI 에이전트: 여러 옵션을 비교하여 가장 가치있는 결정을 내릴 수 있습니다. 예를 들어, 가격비교 AI시스템등이 이에 해당합니다.
학습형 AI 에이전트: 자신의 행동과 환경에서 배우고 다음 결정을 개선합니다. 문서 관리시스템이 이에 해당합니다.
의도형 AI 에이전트: 사용자의 의도를 분석하고 적절한 행동을 선택합니다. Siri 및 Google 어시스턴트와 같은 음성 어시스턴트가 이 범주에 포함됩니다.
논리형 AI 에이전트: 엄격한 규칙과 논리를 기반으로 의사결정을 내립니다. 법률 및 의료분야에서 활용됩니다.
목표지향형 AI 에이전트: 특정 목표를 달성하기 위해 행동을 조정합니다. 공급망 관리 시스템등이 이에 해당합니다.
로컬 환경에서 실행되는 AI 에이전트는 클라우드형과는 다른 특징을 가지고 있습니다.
개인정보 및 보안: 데이터가 로컬환경내에서 처리되므로 기밀정보 보호가 강화됩니다.
오프라인 동작: 인터넷 연결에 의존하지 않고 네트워크를 사용할 수 없는 환경에서도 작동합니다.
응답속도: 데이터 송수신이 필요없기 때문에 응답이 빠릅니다.
사용자정의: 특정 환경 및 용도에 맞게 최적화하기 쉽고 고유한 기능을 추가하는 것도 쉽습니다.
자원 제약: 로컬 하드웨어의 성능에 의존하기 때문에 처리능력에 제한이 있습니다.
자율성: 외부 서비스에 의존하지 않고 독립적으로 작동할 수 있습니다.
로컬 AI 에이전틍의 대표적인 예시로 Block사가 개발한 Goose가 있습니다.
Goose 주요 특징
로컬 퍼스트 설계: PC내에서 완결하기 위해 온프레미스 환경이나 기밀성이 높은 프로젝트에서도 이용가능합니다.
오픈소스: Apache 2.0라이선스로 공개되어 있으며, 기업 및 개인 불문하고 무료로 이용할 수 있습니다.
확장성: MCP(Model Context Protocol)라는 구조로 GitHub, Google Drive등의 도구와 표준화된 방식으로 연계확장이 가능합니다.
다양한 LLM 대응: OpenAI GPT-4와 Anthropic Claude와 Llama 3 오픈소스 모델까지 자유롭게 결합됩니다.
자율적 태스크 완료: 코드 작성뿐만 아니라, 명령실행, 테스트, 빌드, 파일편집등 개발자의 팔다리로 실제 환경을 조작할 수 있습니다.
Goose 활용사례
소프트웨어 개발 자동화: Ember에서 React 프레임워크 마이그레이션, 테스트 코드 생성 및 실행, 종속성 관리등을 자율적으로 수행합니다.
비즈니스용 애플리케이션: Google Drive 자료를 가로질러 검색하고 요점을 요약한 보고서를 자동으로 생성하거나 이메일 등 여러 채널 정보를 집계하여 작업할 수 있습니다.
개인 사용: 가정내의 디바이스 제어 및 매크로적 작업 자동화, 음악 제작이나 이미지생성등 크리에이티브 분야에서의 활용도 늘고 있습니다.
그외에도 다음과 같은 로컬 AI에이전트가 개발되었습니다.
LocalAGI: 로컬 환경에서 실행되는 범용 AI에이전트로 복잡한 작업을 자율적으로 수행합니다.
Dify: 로컬 LLM을 활용한 AI에이전트를 쉽게 구출할 수 있는 프레임워크입니다.
AutoGPT: 목표를 설정하는 것만으로 자율적으로 하위작업을 계획하고 실행하는 에이전트입니다.
금융업계 활용
금융업계에서는 고객데이터나 거래정보등의 고도의 기밀성이 요구되는 정보를 다루기 위해 로컬 LLM과 AI에이전트의 활용이 진행되고 있습니다.
<사례1> 투자분석 자동화
투자자문회사는 고객의 투자 포트폴리오분석에 로컬 LLM을 도입했습니다. 시장 데이터와 고객자산정보를 결합하여 분석하여 개인화된 투자제안을 생성합니다. 데이터가 로컬환경에서 처리되기 때문에 고개자산정보가 외부로 유출될 위험을 최소화하면서 AI분석을 활용할 수 있습니다.
<사례2> 부정탐지 시스템 강화
대형은행은 거래 데이터의 이상탐지에 로컬 AI에이전트를 활용하고 있습니다. 기존 규칙기반시스템에서는 탐지할 수 없었던 복잡한 패턴도 식별할 수 있게되어 부정탐지율이 30%향상된 것으로 보고되었습니다.
의료분야 활용
의료 분야에서는 환자의 개인정보보호가 가장 중요한 과제이며, 로컬 LLM의 활용이 특히 효과적입니다.
<사례3> 의료 기록 분석 및 요약
병원에서는 전자의료기록 시스템에 로컬 LLM을 통합하고 환자의 과거 진료기록을 즉시 분석 및 요약하는 기능을 구현했습니다. 의사는 진찰 전에 환자 병력을 단시간에 파악할 수 있게 되어, 진료의 질과 효율이 향상하고 있습니다.
<사례4> 영상진단 지원
방사선과에서는 MRI 및 CT스캔 영상분석에 로컬 AI 에이전트를 도입하고 있습니다. 이미지 데이터가 원내 서버에서 처리되기 떄문에 환자의 프라이버시를 지키면서 AI에 의한 진단지원이 가능해지고 있습니다.
제조업 활용
제조업에서는 생산라인 최적화 및 품질 관리에 로컬 AI에이전트를 활용하고 있습니다.
<사례5> 예지보전시스템
선도적인 제조사들은 공장기계로부터 수집된 센서데이터를 로컬 AI에이전트로 분석하고 고장 조짐을 감지하는 시스템을 구축했습니다. 기계의 가동 데이터라는 기밀성이 높은 정보를 로컬환경에서 처리함으로써 보안을 확보하면서 다운타임을 60% 줄이는데 성공합니다.
② 개인 활용 예시: 개인정보보호, 취미, 창작활동 등
개인 정보 보호 중점
<사례6> 비공개질문응답 시스템
개인 프라이버시를 중시하는 사용자들 사이에서 자신의 일기나 개인메모, 가계부등의 비공개 데이터를 검색 및 분석할 수 있는 개인 어시스턴트로 로컬 LLM을 활용하는 경우가 늘고 있습니다. 클라우드 서비스에 정보를 보내지 않고 자신만의 지식기반을 구축할 수 있다는 점을 높게 평가하고 있습니다.
크리에이티브 활동 중점
<사례7> 소설 및 각본의 집필 지원
전문 작가나 시나리오 작가 중에는 아이디어 내기 및 문장 브러쉬업에 로컬 LLM을 활용하는 사람도 있습니다. 미발표 작품 내용을 외부로 유출하지 않고 창작활동을 지원할 수 있다는 점이 장점입니다.
<사례8> 음악제작 효율화
음악관련 제작자는 작고과 배열의 아이디어를 내보내고 심지어 간단한 믹싱작업을 자동화하기 위해 로컬 AI에이전트를 활용하는 경우가 있습니다. 특히 저작권 관련된 미공개 곡 처리를 로컬환경에서 완료할 수 있다는 점이 중요시되고 있습니다.
교육분야
<시나리오1> 개인화된 학습 체험
교육기관에서는 학생 한사람 한사람별 학습진도나 자랑, 특정의에 맞춘 사용자지정 교재 생성에 로컬 LLM을 활용할 수 있습니다. 학생 개인정보나 학습 데이터를 로컬 환경에서 처리함으로써 프라이버시를 보호하면서 AI에 의한 교육지원이 가능합니다.
<시나리오2> 교재 작성 효율화
교사는 수업계획 및 교재작성에 로컬 AI에이전트를 활용하여 준비시간을 크게 줄일 수 있습니다. 학교 독자적인 커리큘럼이나 교육방침에 맞추 컨텐츠 생성이 가능합니다.
법률분야
<시나리오3> 법류문서 분석 및 요약
법률사무소에서는 판례 및 계약서와 같은 대량의 법률문서를 로컬 LLM에서 분석하고 요점을 추출하는 시스멩을 구축할 수 있습니다. 클라이언트 기밀정보등이 포함된 문서를 로컬환경에서 처리하면 정보유출 위험을 최소화할 수 있습니다.
<시나리오4> 계약검토 자동화
계약 검토 및 잠재적 위험 부분을 식별하기 위해 로컬 AI에이전트를 활용하여 변호사의 작업효율을 향상시킬수 있습니다. 특히, NDA등 기밀성이 높은 계약서 처리에 적합합니다.
R&D분야
<시나리오5> 연구 데이터 분석 및 가설생성
연구기관에서는 실험 데이터 분석 및 새로운 가설생성에 로컬 LLM을 활용할 수 있습니다. 특허 신청 전의 기밀성이 높은 연구내용을 로컬환경에서 처리함으로써 지적재산 보호가 가능합니다.
<시나리오6> 논문작성 지원
연구원은 논문작성 및 참고문헌 정리에 로컬 AI에이전트를 활용하여 연구결과 발표 프로세스를 효율화할 수 있습니다. 미발표 연구 내용을 외부로 전송하지 않고 AI지원을 받을 수 있는 점이 중요합니다.
이런 사례와 시나리오를 통해 알 수 있듯이, 로컬 LLM과 AI에이전트는 특히 데이터의 기밀성이 중요한 케이스와 사용자정의가 필요한 경우에 큰 가치를 발휘합니다. 기술 진화와 같이 향후 더욱 다양한 활용방법이 나오게 될 것으로 기대합니다.
로컬 LLM과 AI에이전트의 기술은 빠르게 진화하고 있으며, 향후 추가 발전이 기대되고 있습니다. 아래 주목해야할 기술 추세와 미래 가능성을 살펴봅시다.
모델 소형화 및 효율화
현재 최첨단 LLM은 파라미터수가 수억천개에 달하는 것도 있지만, 연구자들은 모델을 소형화하면서 성능을 유지하는 기술개발에 주력하고 있습니다.
증류기술(Distillation): 대규모 모델의 지식을 소형모델로 전이시키는 기술이 진화하고 있습니다. 이렇게 하면 더 적은 리소스로 고성능 모델을 실행할 수 있습니다.
양자화의 고도화: 현재의 4비트, 2비트 양자화로부터 더욱 발전해 정밀도를 유지하면서 모델사이즈를 극적으로 줄이는 기술이 개발되고 있습니다.
스파스 모델링: 모델의 불필요한 파라미터를 줄이고 효율성을 높이는 기술이 진화하고 있습니다.
이런 기술은 향후 스마트폰이나 IoT디바이스와 같은 소형기기에서도 고성능 LLM을 실행할 수 있게 될 것입니다.
특화형 모델 증가
범용적인 대규모 모델뿐만 아니라, 특정분야난 용도에 특화된 소형 고효율 모델 개발이 진행되고 있습니다.
도메인 특화형 LLM: 의료, 법률, 금융등 특정 전문분야에 특화된 모델이 증가하여 전문지식을 필요로 하는 태스크로 보다 높은 정밀도를 발휘하게 됩니다.
태스크 특화형 LLM: 코드 생성, 문서요약, 감정분석등 특정 태스크에 최적화된 모델이 보급되어 효율적인 AI솔루션 구축이 용이합니다.
언어 특화형 모델: 한국어나 다른 비영어 언어에 특화된 모델의 개발이 진행되어 다언어 대응이 더욱 강화될 것입니다.
AI에이전트 자율성 향상
AI에이전트의 자율성과 능력은 앞으로 더욱 향상될 것이며, 더 복잡한 작업을 자율적으로 수행할 수 있을 것으로 예상됩니다.
멀티모달 대응: 텍스트뿐만 아니라, 이미지, 음성, 동영상등을 통합적으로 이해 및 처리할 수 있는 에이전트가 보급될 것입니다.
장기기억과 학습능력: 사용자와의 과거 상호작용을 기억하고 시간을 들여 학습 및 적응하는 에이전트가 등장합니다.
도구 사용능력 향상: 웹브라우저, 데이터베이스, API등 외부 도구를 자율적으로 조작하는 능력이 향상되어 보다 복잡한 워크플로우를 자동화할 수 있습니다.
앞으로는 로컬형과 클라우드형이 결합한 하이브리드형이 주류가 될 것으로 예상됩니다.
Edge-Cloud협력: 일상적인 작업은 로컬로 처리하고 더 복잡한 처리가 필요한 경우에만 클라우드에 연결하는 시스템이 보급됩니다.
프라이버시 우선 처리: 기밀 데이터는 로컬로 처리하고 일반적인 질문이나 공개정보에 관한 처리는 클라우드에서 실시하는등 데이터 성질에 따른 처리분배가 표준이 됩니다.
분산형 AI: 복수의 디바이스나 서버에 걸쳐 처리를 분산시키는 기술이 발전해 효율성과 프라이버시 밸런스를 취하면서 고급처리를 실현합니다.
로컬 LLM과 AI에이전트의 발전은 일반 사용자의 일상생활에도 큰 변화를 가져올 것으로 예상됩니다.
개인 AI 어시스턴트의 발전: 개인 취향과 습관을 배우고 프라이버시를 보호하면서 일상생활을 지원하는 AI어시스턴트가 보급될 것입니다.
창조적 활동의 민주화: 문장작성, 프로그래밍, 디자인, 음악제작등 지금까지 전문지식이 필요했던 창조적 활동이 AI지원을 통해 더 많은 사람들에게 접근이 가능하게 되었습니다.
디지털 프라이버시의 새로운 옵션: 클라우드 서비스에 의존하지 않고 자신의 데이터를 자신의 관리하에 두면서 AI혜택을 받는 옵션이 펼쳐집니다.
교육 및 학습의 변화: 개인화된 학습 경험과 개인의 속도에 맞는 교육콘텐츠를 제공하여 교육의 효율성과 효과를 향상시킵니다.
로컬 LLM과 AI에이전트의 기술은 아직 개발단계이지만, 그 잠재적인 가능성은 헤아질 수 없습니다. 프라이버시와 보안을 중시하면서 AI의 힘을 최대한 활용할 수 있는 미래가 꾸준히 다가오고 있습니다. 필자도 이런 로컬 AI기술의 발전에 주목하여 독자에게 가치있는 AI솔루션을 개발하기 위해 노력하고 있습니다.
©2024-2025 GAEBAL AI, Hand-crafted & made with Damon Jaewoo Kim.
GAEBAL AI 개발사: https://gaebalai.com
AI 강의 및 개발, 컨설팅 문의: https://talk.naver.com/ct/w5umt5