26년 1월, 우리나라도 'AI기본법'이 시행됩니다. 우리 조직은?
오픈AI 공동 창업자이자 최고 기술책임자인 일리야 슈츠케버와 얀 라이케는 인공지능의 안전성과 사회적 영향 분석에 더 많은 초점을 맞춰야 한다고 강조했는데요. 그리고 23년 11월, ‘오픈AI가 안전을 최우선으로 하는 AI 회사가 되어야 한다’고 주장하면서 회사를 떠났습니다. ‘ChatGPT’가 등장해 우리 생활 속에 자리한 2년 여 동안 관련 기술은 생성형 AI 기술 수준을 끌어올렸을 뿐만 아니라 AI에 대한 사용자 인식 개선에 큰 기여가 있었는데요. 하지만 최신 정보에 대한 부적절한 응답, 환각현상, 비윤리적인 답변 등 부작용도 나타나고 있어, 잠재적 위협에 대한 주의를 기울여야 합니다.
하지만 AI활용에 대한 보안은 정부 차원에서 뿐만 아니라 기업에서도 준비하셔야 합니다. ChatGPT, Copilot, Notion AI 등 생성형 AI는 이미 기업 현장에서 빠르게 확산되고 있습니다. 기획, 문서 작성, 보고서 초안 등 다양한 업무에 도입되며 업무 효율을 높이는 도구로 인식되고 있죠. 하지만 동시에, 이런 질문을 던지고 있습니다.
“우리 회사에서 어디까지 AI를 써도 괜찮은 걸까?”
“AI가 틀린 답을 주면, 그 책임은 누가 질까?”
정작 그 기준은 대부분의 조직에서 아직도 모호하실 것입니다. 실제 기업 사례를 통해 드러난 생성형AI의 리스크를 살펴보고, 앞으로 어떻게 조직이 대응해야 할지 살펴보도록 하겠습니다.
https://blog.innofitpartners.com/ai-responsible-use
#이노핏파트너스 #AI기업교육 #AI교육컨설팅 #AI역량강화 #AI프롬프트 #AI비즈니스모델 #AI전략교육 #AI도입전략 #AI실습교육