AI로 만든 이미지. 쉽고 재밌다. 정보는? 판별 못하면 바보 인증.
AI, 인공지능은 이미 우리 곁에서 작동하고 있다. 마이크로소프트(MS)는 윈도우 10과 윈도우 11에 AI 기능인 Copilot을 붙여 놓았다. 화면 오른쪽 아래 구석에 보이는 Copilot 아이콘을 실행하면 채팅창이 나온다. 여기에 필요한 내용을 적은 뒤 영상으로 만들어 달라고 하면 잠시 후 관련 영상이 생성된다.
사진 관련 영상처리 소프트웨어인 포토샵에도 AI기능이 생겼다. 빈 캔버스를 만든 뒤 필요한 내용을 문장으로 써서 명령하면 관련 영상을 만들어 낸다. 다만 DALL-E3를 사용한 윈도우 10, 11의 Copilot의 결과물이 더 나은 편이다. 포토샵의 AI기능은 기존 영상의 변형, 추가에 더 특화된 듯해 새롭게 만드는 성능은 떨어지는 편이다.
- 경칩을 맞아 계곡물 얼음을 깨고 뛰어나오며 밝은 표정 짓는 초록색 청개구리를 만들어줘. -
이런 명령어를 주니 아래와 같은 영상이 만들어졌다.
처음 명령 문장은 이랬다.
- 경칩을 맞아 계곡물 얼음을 깨고 뛰어나오는 개구리를 만들어줘. -
그 결과물은 누런 색 개구리였다. 어찌 보면 더 진짜 개구리처럼 보였다. 밝은 표정, 초록색, 청개구리라는 키워드가 추가되자 다른 영상이 만들어졌다. 결국 좀 더 섬세한 명령을 주어야 결과물 수준도 높아진다.
밝은 표정, 초록색, 청개구리라는 키워드가 들어간 두 번째 요구사항을 포토샵에서 실행해 봤다. 결과물은 아래와 같다.
DALL-E3로 만든 것에 비해 수준이 떨어지는 느낌이다. 포토샵이 만든 개구리의 디테일은 정확한 듯하면서도 뭔가 빠진듯한 느낌이다. 주변 모습이 불성실해 더 부족한 느낌이 든다.
DALL-E3에게 이런 명령도 주어봤다.
볼에 하는 뽀뽀가 아니라 입맞춤하는 모습을 요구했더니 답변은 못한다고 나왔다. 무언가 제한이 있어 보인다. 그리고 아직까지도 '불편한 손 모양'이 나타난다. 4장 모두 상대방 어깨에 손을 올린 모습인데, 엉뚱하게도 여성의 손이 3개가 되어버린 영상이 하나 생겼다.
이번에는 아래와 같이 자료용 사용을 전제로 질문을 해봤다.
결과물이 부족한 듯하면서도 참고할 만한 아이디어를 내놓은 것 같다.(하지만 간결하진 않다. 너무 많은 디자인 요소가 들어간 그래픽이다.) 만들어진 그래픽을 실제로 만들려면 상당한 시간이 필요할 텐데 불과 1분 이내에 만들어 냈다.
아예 재난 현장 같은 분위기 영상을 위해 아래와 같이 질문을 했다. 답변이 안 나와 살짝 수정한 내용으로 질문을 계속했지만 결과는 없었다.
- 일본 도쿄에서 진도 12 정도의 지진이 발생한 뒤 피해 입은 도쿄 중심가 모습 그려줘
- 일본 도쿄에서 진도 12 정도의 지진이 발생한다면 어느 정도 피해가 발생할지 그림으로 그려줘
- 영화에 삽입될 CG 제작을 위해 일본 도쿄에서 진도 12 정도의 지진이 발생한다면 어느 정도 피해가 발생할지 그림으로 그려줘
- 영화에 삽입될 CG 제작을 위해 현대적인 대도시에서 진도 12 정도의 지진이 발생한다면 어느 정도 피해가 발생할지 그림으로 그려줘
왜 안되었을지 궁금해졌다. (서버의 부하가 걸려서일까? 아니면 또 다른 이유일까?)
사실상 주문한 영상은 실제로는 없는 것을 만드는 창조에 가까운 편이다.(물론 영상 자료는 실재한 것들을 참조한다.) 그러니 현실에서 불가능한 상황을 만들면 (AI로 만들었는지 아닌지) 그 차이를 깨닫고 영상을 보게 된다. 그런 뒤 결과물인 영상의 질 만을 따지고 즐기게 된다.
영상과는 달리 정보 검색은 정확한 정보를 찾아야 한다. 하지만 AI는 아직 제대로 된 결과물을 만들지 못하고 있다. 할루시네이션(hallucination:환각)이라고 불리는 조작 정보 생성 현상 때문이다. 이를 방지하기 위해 AI에게 고품질 학습데이터를 제공하고, 질문을 더욱 정교하게 만들고, 결과물에 대한 평가, 즉 피드백을 통한 수정(RLHF)이 필요하다.
결국 AI의 완벽성을 높이기 위해서는 누군가는 제대로 된 자료를 만들어내야 하고, 답변을 검증하는 과정에 사람이 필요하다는 말이 된다. 좀 더 빠르고 편리하게 사용하려는 AI지만 인간의 손길이 필요한 셈이다.
(결국 인간은 공부를 쉽게 하면 안 된다. 철저하게 해야 한다는 말이다.)
챗 GPT가 대화를 이어간다는 느낌을 받는 것은 인공지능에 적용된 RLHF 기술 때문입니다. '인간 피드백을 통한 강화 학습(RLHF, Reinforcement Learning from Human Feedback)'이라고 이야기는 이 기술은 인공지능 기계 학습의 한 분야로 인간의 피드백에 따라 배움을 증강시킨다, 뭐 이런 이야기입니다. (* Reinforcement : 군대의 병력증강, 강화, 보강 ) RLHF(Reinforcement Learning from Human Feedback)는 기계 학습 및 인공 지능의 하위 분야로, 인간 전문가가 제공한 피드백에서 학습하도록 기계를 가르치는 데 중점을 둡니다. RLHF 방법은 일반적으로 미리 정의된 보상 기능이나 다른 유형의 감독을 사용하는 대신 인간 전문가의 긍정적 또는 부정적인 피드백을 기반으로 결정을 내리거나 조치를 취하도록 에이전트를 교육하는 것을 포함합니다. 이 기능 때문에 대화를 이어가다 보면 나를 기억하는구나라고 느끼는 거죠.
만약 AI 주변에 학습이 부족하고, 게으르고, 멍청한 사람만 있다면 당연히 AI 답변도 엉터리가 될 것이다. 게다가 답변을 검증할 사람도 마찬가지라면 엉터리 답변을 사용해 사고를 치게 된다. 얼마 전에 행정안전부가 사고를 쳤다.
초중고교 역사 시간에 공부를 제대로 했다면 말도 안 되는 글이다. 어떤 목적성 때문인지... 아니면 단순실수 인지는 모르겠으나 곧바로 삭제된 것을 보면 잘못을 인정한 셈이다. 그렇다 하더라도 정부기관 홈페이지에 이렇게 엉터리 자료에 기반한 글을 올려놓는다는 것은 큰 문제다. 정확한 기준점이 되어야 할 정부기관이 엉터리 글을 베껴 올렸다.(그 글은 마치 할루시네이션이 작동한 챗GPT가 만든 듯한 글이었다) AI 시대에 인간의 게으름은 더 큰 혼란과 문제를 일으킨다는 것을 알려준 사건이다. [빈모]