brunch

You can make anything
by writing

C.S.Lewis

by 박송이 Sep 08. 2024

따라쟁이 AI로부터 내 작품 지키는 방법

인공지능이 여러분의 작품을 따라 할 수 없도록 알려 Drill 게요!

2024.1.22  |  vol. 12  |  구독하기  |  지난호 보기


미래에 할 수 있는 경험을 사전 예약하신 퓨처드릴 구독자, 드릴러님 안녕하세요! AI Experience (AIX)의 이모저모를 전해드리는 '퓨처드릴'입니다!


오늘도 저 에디터 쏭과 함께 알쏭달쏭한 인공지능 소식들을 깊이 있게 읽어보아요!


오늘은 인공지능의 스타일 모방을 방해할 수 있는 논문부터 직접 사용해 볼 수 있는 도구까지 모두 소개해 Drill게요!




시작하기 - Turning On the Drill



“AI 이미지 생성기 미드저니 논란... 피카소부터 워홀까지 1만 6천 명 작가 활용”


 혹시 위와 관련된 뉴스를 보신 적 있으신가요? 인공지능에 관심 있으신 분들이라면 보셨을 텐데요, 널리 알려진 Midjourney에서 인공지능을 학습시키기 위해 무려 1만 6천 명의 작가 그림을 사용했다는 뉴스입니다. 이처럼 생성형 인공지능을 학습시키기 위해서는 방대한 양의 이미지 데이터 세트가 필요해요. 저작권이 만료된 작품도 있지만 1만 6천 명의 작가들 목록에는 현재 활발히 활동하고 있는 작가의 작품 또한 포함되어 있습니다. 만약 인공지능이 어떤 작가의 그림 스타일을 너무 잘 학습하여 그 스타일대로 그림을 만들어낸다면 작가는 경제적으로 타격을 받을 수밖에 없겠죠.

 오늘은 Prompt-Specific Poisoning Attacks on Text-to-Image Generative Models(논문 링크)라는 논문과 함께 직접 내 그림에 적용해 볼 수 있는 Glaze라는 도구도 함께 소개해봅니다. 현재 가장 유행하고 있는 프롬프트 기반의 이미지 생성 모델의 모방을 효과적으로 방해하는 방법과 이를 Glaze라는 도구를 이용해 직접 실습해 보는 과정까지 소개해 Drill게요!


모두들 follow me~



핵심 1: 논문을 읽기 위한 기초 개념 다지기




프롬프트(텍스트)를 입력받아 이미지를 생성하는 모델을 Text-to-Image 모델이라고 하는데요, 이번에 살펴볼 이 논문에서도 기본적으로 Text-to-Image 모델의 학습 과정에 관해서 설명하고 있습니다. 즉 모방을 어떻게 하는지 알아야 모방을 피하는 방법도 생각해 낼 수 있는 거죠! 아래의 글들을 통해 기본적인 Text-to-Image 모델이 어떤 식으로 동작하는지 자세히 알아봐요. 


1. Text-To-Image 모델은 어떻게 동작하는가?

출처 : Prompt-Specific Poisoning Attacks on Text-to-Image Generative Models

위의 이미지를 보시게 되면 모델이 학습하는 과정부터 그래서 학습 후 실제로 이미지를 생성하는 것까지의 과정을 한눈에 보실 수 있습니다. 굵은 글자를 보게 되면 크게 Model Training 부분과 Image Generation 부분으로 나눠지게 되죠. 각각 어떻게 학습이 진행되고 실제로 이미지를 만드는지 하나씩 살펴볼게요.


1-1. Model Training

위의 이미지에서 두 개의 색칠된 사각형이 있는데요, 하나는 특성 추출기(Feature Extractor), 하나는 생성자(Generator)입니다. 모델 학습 과정에서 이 두 가지가 가장 중요한 역할을 합니다. 각각 어떤 역할을 하고 이 두 개가 합쳐져서 어떤 식으로 모델이 학습하게 되는지 볼까요.



특성 추출기 (Feature Extractor)

우선 Text-to-Image 모델을 학습시키기 위해서는 이미지와 그에 맞는 프롬프트가 하나의 쌍으로 필요합니다. 위에 보시면 달리고 있는 개의 사진과 그 사진을 설명하는 프롬프트 “달리고 있는 개”가 하나의 데이터 쌍을 이루고 있습니다. 여기서 특성 추출기는 이미지 데이터에서 가장 핵심이 되는 특성들을 추출하는 역할을 담당합니다. 이미지가 특성 추출기를 통과하면 고차원의 벡터값을 출력하게 되는데 여기서 이 값들이 일종의 ‘정답’ 역할을 하게 됩니다. 사람도 공부하게 되면 내가 맞춰야 하는 정답과 내가 실제로 푼 내용이 각각 나오게 되죠. 인공지능이 학습하는 것도 모델의 예측값과 실제 모델의 정답 사이의 오차를 구해서 그 오차를 줄이는 방식으로 학습하게 됩니다. 오차를 자꾸 줄이다 보면 정답에 가까워지게 되고 결국 모델이 결국 더 똑똑해지는 거죠!




생성자 (Generator)

특성 추출기가 이미지에서 가장 중요한 특징들을 뽑아내는 역할을 한다면 생성자는 프롬프트에서 중요한 특성들을 뽑아내는 역할을 담당합니다. 특성 추출기는 이미지에서 특징을 뽑아내고 생성자는 프롬프트라는 텍스트에서 특징을 뽑아낸다는 차이점이 있지만 둘 다 특징을 일련의 숫자들의 모음으로 뽑아낸다는 공통점이 있습니다.


위에서 인공지능이 정답과 학습한 결과의 차이를 바탕으로 학습하면서 그 차이를 줄여나간다고 말씀을 드렸는데요, 특성 추출기가 뽑아낸 값들이 일종의 정답 역할을 한다면 생성자는 학습을 통해서 예측한 결괏값을 뽑아냅니다. 사람으로 치면 공부를 한 다음 이를 기반으로 푼 문제의 정답 정도로 생각하면 될 것 같습니다. 사람과 인공지능 모두 한 번에 모든 걸 알 수는 없죠. 처음에는 생성자가 학습을 많이 하지 못했기 때문에 ‘달리고 있는 개’에서 정확한 특징들을 뽑아내지 못할 것입니다. 처음에는 ‘개’라고 하는 특징만 뽑아냈다가 점점 학습을 진행할수록 ‘달리고 있는’과 같은 좀 더 세부 디테일을 포착할 것입니다.


이런 식으로 처음에는 ‘달리고 있는 개’라는 프롬프트에서 정확한 특징을 추출하지 못하지만, 학습을 자꾸 진행할수록 점점 더 세부적인 디테일들을 포착할 수 있게 됩니다. 바로 이 과정이 인공지능의 학습 과정입니다.



1-2. Image generation

실제 이미지를 생성하는 과정에서는 위에서 다뤘던 생성자와 이미지 디코더라고 하는 새로운 모듈을 이용합니다. 위에서 다뤘던 생성자에 덧붙여 이 이미지 디코더가 구체적으로 어떤 역할을 하기에 텍스트에서 이미지를 생성해 낼 수 있는지 소개해 드릴게요.



생성자 (Generator)

여기 나온 생성자는 위에서 다룬 생성자를 의미합니다. 새롭게 학습을 시키는 게 아니라 model training 과정을 통해 학습된 생성자 모듈을 가져와서 쓰는 것입니다. 이 생성자는 프롬프트를 받아서 더 세부적인 디테일들을 잘 포착할 수 있도록 학습되었습니다. 그렇기에 위에서와는 다른 ‘우주에 있는 개’라는 새로운 프롬프트가 주어져도 여기서 ‘우주’, ‘개’라는 중요 요소들을 잘 파악해서 그 특징을 추출할 수 있습니다.



이미지 디코더 (Image Decoder)

이미지 디코더는 모델 학습 과정에는 없고 이미지 생성 과정에만 있는 모듈입니다. 제가 위에서 특성 추출기와 생성자는 다른 점도 있지만 모두 일련의 숫자 값을 출력한다는 공통점이 있다고 말씀드렸습니다. 사실 특성을 추출하는 것, 세부적인 디테일을 포착하는 것은 사람에게 보이는 겉모습이고 인공지능은 이를 모두 숫자로 다루고 있습니다. 그러니까 이미지에서 어떤 특성을 포착해서 내놓은 결과물은 사실은 인간이 이해하기 힘든 아주 복잡한 숫자들의 모음으로 이루어져 있는 거고 생성자를 통해 추출된 프롬프트의 특징이라는 것도 사실은 그냥 숫자들의 집합이죠. 하지만 우리가 원하는 것은 텍스트로 입력된 프롬프트에 해당하는 이미지를 숫자가 아니라 이미지의 형태로 보고 싶은 것이죠.


 이 숫자들의 집합을 사람이 원하는 이미지의 형태로 바꿔주는 것이 바로 이미지 디코더의 역할입니다. 꼭 Text-to-Image 모델이 아니더라도 이미지로 결과를 출력해야 하는 모델에서는 이런 이미지 디코더가 붙어서 내부적으로 다루어진 숫자들을 사람이 볼 수 있는 이미지 형태로 바꿔주는 모듈들이 존재합니다.


2. 인공지능은 어떻게 스타일을 모방하는가?


출처 : Prompt-Specific Poisoning Attacks on Text-to-Image Generative Models

위의 이미지를 보시게 되면 예술가가 온라인 공간에 작품을 업로드하는 과정부터 모방하는 과정까지를 소개하고 있습니다. 저희는 그중에서도 모방의 과정만을 중점적으로 살펴보도록 하겠습니다.



Step1 모델 다운로드

모델 다운로드 왼쪽을 보시게 되면 인공지능 회사가 학습 과정을 통해서 Text-to-Image model을 만든 부분이 나옵니다. 이 부분이 소개되는 이유는 사실 하나의 괜찮은 인공지능 모델을 만들기 위해서는 정말 많은 자원이 필요합니다. 우선 잘 정제된 대규모 데이터 세트가 필요하고 이를 반복적으로 학습시킬 수 있는 큰 컴퓨팅 자원이 필요합니다. 그런 만큼 웬만한 규모가 아닌 이상 괜찮은 모델을 하나 만든다는 것은 정말 힘든 일입니다.


그래서 자원을 감당할 수 있는 빅테크 회사들이나 혹은 대학 연구실에서 괜찮은 모델을 하나 만들어서 허깅페이스와 같은 공유 플랫폼에 모델을 업로드해주면 작은 회사들이 그 모델을 다운로드하여 자신들의 사용 목적에 맞게 파인튜닝하여 사용합니다. 우선 이 단계에서는 모든 인공지능 관련 회사들이 다 모델을 만드는 게 아니라 이미 괜찮은 성능을 입증한 모델을 다운로드하여 사용한다는 정도만 알아두시면 좋을 것 같습니다.



Step2 모델 파인튜닝

두 번째 단계는 모델 파인튜닝 단계입니다. 인공지능을 접해 본 분들에게는 이미 익숙한 개념이지만 아마 공부해 보지 않으신 분들에게는 굉장히 생소한 개념일 수 있습니다. 하지만 인공지능이 인간의 학습 과정을 모방한 만큼 파인튜닝의 목적과 의도는 이미 우리에게 굉장히 익숙한 개념일 수밖에 없습니다. 예를 들어 이런 말이 있죠. “국어를 잘해야 다른 과목도 잘 공부할 수 있다.” “국어가 모든 과목의 기본이다.” 즉 사회든 수학이든 영어든 기본적인 언어 능력이 어느 정도 있어야 다른 과목도 잘 공부할 수 있는 거죠.


 인공지능 또한 마찬가지입니다. 기본적인 언어 자체를 잘 모르고 능력이 없는데 뉴스 기사만을 많이 학습해서 뉴스 기사를 제작할 수 있는 모델을 만들 수 있을까요? 혹 만들었다 하더라도 성능이 좋을 수 있을까요? 이런 생각에서 출발해서 위에 나온 꽤 괜찮은 모델을 다운로드하거나 혹은 직접 개발하여 그 위에 내가 특별히 해결하고자 하는 도메인 맞춤으로 학습을 시키는 겁니다.


 예를 들어 우리가 지금 하고 있는 텍스트를 입력받아 이미지를 생성하는 Text-to-Image 모델에서는 괜찮은 모델을 다운로드하여 그 위에 우리가 구체적으로 생성하길 원하는 스타일의 작품만을 집중적으로 학습시켜 이 모델의 성능을 미세 조정합니다. 이런 미세 조정 과정을 파인튜닝이라고 부릅니다. 여기서는 기본적인 학습 능력을 갖춘 모델을 가져와 내가 구체적으로 해결하고 싶은 만들고 싶은 결과물을 집중적으로 학습시켜 그것에 특화된 모델을 만드는 과정이라고 생각해 주시면 좋을 것 같습니다.



Step3 이미지 생성

이렇게 파인 튜닝된 모델을 가지고 오면 내가 학습시킨 학습 데이터에 아주 잘 맞는 이미지를 생성할 수 있습니다. 여기서는 내가 모방하고자 하는 작가의 작품 몇 점만 가지고도 그 스타일을 아주 잘 흉내 낼 수 있는 모델을 만들 수 있습니다. 바로 이런 과정들을 통해 큰 모델을 만드는 부담 없이도 좀 더 손쉽게 작품 스타일을 아주 잘 흉내 낸 이미지를 생성하고 작가의 스타일을 모방하게 됩니다.




핵심 2: 인공지능의 모방을 방해하는 도구, Glaze 이해하기



위에서 어떻게 모방하는지 알아야 모방을 피할 방법도 고안해 낼 수 있다고 말씀을 드렸는데요, 이번에는 이 논문에서 구체적으로 어떤 과정들을 통해 모방을 피하는 작품을 만드는지 그 과정을 자세히 살펴보죠!


출처 : Prompt-Specific Poisoning Attacks on Text-to-Image Generative Models


1. 핵심 아이디어 소개 - style transfer

이 논문의 목표는 인공지능의 학습 과정을 효율적으로 방해하는 것에 있습니다. 결국 인공지능이 나의 고유한 스타일의 특징을 잘 학습하면 모방작들을 쉽게 만들어낼 수 있으므로 학습이 잘 안 되게 하는 것이 핵심이라고 할 수 있습니다. 다만 내 작품 스타일을 되도록 유지하면서 인공지능의 학습만을 막고 싶은데 학습을 방해하기 위해서 스타일을 너무 바꿔 버리면 본래의 가치가 훼손되겠죠. 그래서 중요한 점은 예술가의 작품 스타일 자체는 되도록 유지하면서 인공지능의 학습만을 방해하는 것입니다.


그렇다면 전체를 무작위적으로 바꿀 수는 없으니, 스타일의 핵심이 되는 부분만 정확히 파악해서 바꾼다면 어떨까요? 인공지능은 사람의 눈과 다르게 하나의 이미지를 픽셀의 모음으로 보고 그 각각의 픽셀들에 해당하는 숫자 값을 이리저리 다루면서 학습을 진행합니다. 이때 스타일에 직결되는 몇몇 픽셀들을 다른 스타일로 적절히 바꿔 놓는다면 인공지능이 그 부분을 학습하지 못하게 되고 그렇다면 결과적으로 스타일 모방에 실패하게 되지 않을까요?


여기서 사용되는 다른 스타일로의 변경이 바로 Style Transfer의 핵심입니다. 알파고 이후에 구글 광고에서 렘브란트 스타일의 그림을 반 고흐 스타일의 그림으로 바꿔놓는 영상을 보신 적이 있으시다면 여기서 사용되는 기술이 바로 Style Transfer입니다.


 즉 말 그대로 스타일을 Transfer 한다는 것이죠. 쉽게 말하면 인공지능의 학습을 방해하기 위해서 일부분을 다른 것으로 바꿔놓아야 하는데 이 바꿔놓는 것의 기준이 되는 레퍼런스를 Style Transfer 기능을 통해서 만들 수 있습니다. 레퍼런스를 참고해 스타일이 다른 작품을 하나 만들어 놓고 거기서 원래 작가의 작품에서 핵심이 되는 부분만 가져와서 새로운 작품을 만들게 됩니다. 특징이 되는 부분이라고는 했지만, 사실 픽셀 단위이기 때문에 인간의 눈에는 잘 구별되지 않고 이를 통해 인간의 눈에는 식별되지 않지만, 인공지능의 학습에는 방해를 줄 수 있는 거죠!


2. Glaze 전체 동작 과정 정리

출처 : Prompt-Specific Poisoning Attacks on Text-to-Image Generative Models



Step 1: Style Transfer

1단계에서는 원본 작품을 대상으로 Style Transfer를 진행하여 새로운 스타일이 적용된 작품을 생성하게 됩니다. 위의 이미지에서는 원본 작품 대상으로 반고흐 스타일의 유화 스타일로 바꾼 이미지를 보실 수 있습니다. 분명 원본 그림이 남아있으면서도 우리가 알고 있는 반고흐 풍의 그림이 탄생하게 됩니다. Style Transfer를 진행할 때는 무작위로 스타일을 선택하게 됩니다. 물론 원본 작품이 가지고 있는 특징과 반대되는 특징을 가진 스타일을 선택하면 좋겠지만 그렇게 되면 그 차이를 계산하는데도 컴퓨터 자원이 많이 소모되기 때문에 이 논문에서는 무작위로 스타일을 선택하여 스타일을 변경합니다.




Step 2: Cloak Optimization

1단계를 진행하고 나면 두 개의 그림이 남습니다. 하나는 작가가 만들어낸 원본 작품이고 나머지 하나는 Style Transfer 기능을 통해 다른 스타일이 덧씌워진 작품입니다. 위에 보시면 원본 작품에 점선으로 이루어진 원을 보실 수 있습니다. 바로 이 부분이 작가 고유의 특징을 나타내는 부분입니다. 그 아래 반 고흐 스타일이 적용된 이미지를 보시면 불투명한 원이 있는데 바로 그 부분이 우리가 가져오고 싶은 부분입니다. 원본 작품에서 특징이 되는 부분을 새로운 스타일이 적용된 작품에서 가져와 원본 작품에 채워 넣는 것입니다. 그렇게 차이를 계산해 주면 이미지처럼 원이 아닌 영역은 원래 작가의 원작이고 붉은색 영역은 왼쪽의 변형된 작품에서 가져온 부분이 되게 됩니다.


 즉 하나의 이미지 안에 사람의 눈에는 보이지 않지만 원본 작품과 다른 스타일이 적용된 부분이 함께 존재하게 됩니다. 하나의 작품 안에 그것도 가장 중요한 특징이 되는 부분에 사실 다른 작가의 스타일이 존재하니 인공지능이 그 특징을 적절히 추출할 수 없게 되고 그로 인해 모방에도 실패하게 됩니다.



핵심 3  : Glaze 사용하는 방법



Glaze는 웹 버전과 데스크톱 버전 두 가지 종류가 있습니다. 데스크톱에서 사용한다면 되도록 최신의 고사양 컴퓨터가 있어야 한다는 한계가 있지만 좀 더 편하게 사용할 수 있고,  Web Glaze를 이용하기 위해서는 계정을 얻기 위해 별도의 과정이 필요하지만 컴퓨터 환경에 구애받지 않고 Glaze를 이용할 수 있다는 장점이 있습니다. 아래의 글을 보시고 여러분의 사용환경과 목적에 알맞은 방법을 선택해 실험해 보시길 추천드립니다. 


1. 시작하기


방법 1. Web Glaze 이용하기

 일반적인 웹사이트에서 회원가입하는 방식과 다른 방식으로 계정을 얻을 수 있습니다. 또한 자신의 고유한 작품이 있는지 검증하는 과정이 동반됩니다. 자기 작품이 업로드된 소셜 미디어 계정에서 Glaze팀의 계정에 direct message를 보내게 되면 확인 후 웹 Glaze 계정을 생성할 수 있도록 도와줍니다. 구독자분들 중에 소셜미디어에 자신의 작품 이미지를 게시해 놓으셨고,  고사양의 컴퓨터를 갖고 있지 않아서 데스크톱 버전을 사용하실 수 없는 경우 이 방법을 사용해 보시길 추천드립니다. 


방법 2. 데스크톱 버전 이용하기


링크에 들어가면 맨 하단에 다운로드 링크를 확인하실 수 있습니다. 보시다시피 맥과 윈도우에서 모두 사용 가능하지만 특정 운영체제 버전 이상이 반드시 필요하기 때문에 요구사항보다 낮은 버전을 사용하실 경우 다운로드는 가능하지만 정상적으로 실행되지 않습니다. (정상적으로 실행되지 않을 경우 웹 버전을 사용해 보시길 추천드립니다.) 프로그램이 정상적으로 실행된다면 회원가입 절차 없이 바로 Glaze를 이용할 수 있습니다. 


2. 사용방법


웹과 데스크톱에 상관없이 Glaze를 사용하기 위해서는 세 단계만 기억하면 됩니다.   


Step 1: 작품 선택하기

인터넷에 올리고자 하는 작품을 한 개 또는 여러 개 선택해 주세요


Step 2: 옵션 선택하기

Glaze에는 두 개의 옵션이 존재하는데요. 각각의 옵션을 잘 선택해서 이미지 제작 시간을 적절히 조절하고 원하는 강도를 선택해 주세요



Intensity

Intensity 값을 통해 스타일을 얼마나 강하게 적용할 것인지 지정할 수 있습니다. 이 값이 커질수록 보호 기능이 더 강력해지지만, 일반적으로 여러분의 작품에 눈에 띄는 변화가 더 많이 나타나게 됩니다. 즉 더 강한 강도를 설정하면 작품이 더 많이 변경되기 때문에 인공지능의 모방이 어려워지는 거죠. 하지만 그만큼 여러분의 작품에 더 많은 변화가 발생하기 때문에 이 값이 너무 커지게 되면 여러분의 작품에 있던 스타일에 변형이 생기게 됩니다. 정답은 없습니다. 때론 작품을 일정 부분 희생하더라도 인공지능의 모방을 잘 막는 게 더 중요할 수도 있기 때문이죠.


일반적으로는 강도를 ‘낮음’으로 설정하는 것이 좋으나 만약 작품이 오래되었거나 변형을 감수하고서라도 모방을 막고 싶다면 강도를 올리시는 것을 추천해 드립니다. 혹은 여러분이 배포하고자 하는 미디어에 따라 강도를 다르게 설정하는 것도 하나의 방법입니다.



Render quality

render quality를 조절하게 되면 Glazing을 하는데 소요되는 시간이 변경됩니다. 즉 렌더링 품질이 높아질수록 성능은 향상되지만 만드는데 시간이 길어집니다. 만약 최고 품질을 선택한다면 개인용 한 개의 이미지당 약 60분의 시간이 소요됩니다. (분명 적지 않은 시간이죠…. ) 우선은 처음부터 품질을 올리기보다는 중간 정도에서 시작하고 미리 보기를 통해 확인한 다음 적절히 조절하시는 것을 추천해 드립니다.


Step 3: 결과 확인하고 최종 결과물 출력하기

이미지를 업로드하고 원하는 설정을 선택하면 처리된 결과를 미리 확인할 수 있습니다. 미리 보기를 사용하면 글레이즈 변경 사항이 적용된 예상 최종 이미지를 볼 수 있으므로 최종 이미지를 렌더링 하기 전에 필요한 경우 강도 수준을 조정할 수 있습니다. 미리 보기 결과는 최종 결과와 다를 수 있습니다. 강도 수준이 만족스러우면 실행을 클릭하면 이미지에 변형이 추가됩니다. 




Glaze 사용법 핵심 정리  


Web Glaze 링크 : https://glaze.cs.uchicago.edu/webglaze.html

데스크톱 버전 다운로드 링크 : https://glaze.cs.uchicago.edu/downloads.html

사용자 가이드 : https://glaze.cs.uchicago.edu/user-guide.html

설정 가능한 옵션

1. Intensity : intensity를 강하게 하면 더 많은 변형이 일어난다.

2. Render quality : 품질을 높이면 제작 시간이 늘어난다. 




마무리하기 - Turning Off the Drill



오늘 내용 어떠셨나요? 저는 저자들이 논문에서 그치지 않고 직접 이용해 볼 수 있는 툴까지 제공한다는 점이 인상 깊었습니다. 인공지능 학습 과정에서 워낙 많은 계산이 수행되기 때문에 이런 도구를 대중에게 배포하는 것이 쉽지 않았을 텐데 예술가들을 돕고자 하는 그들의 진심이 느껴졌습니다.


 이 논문을 작성한 Glaze Team에서 nightshade라고 하는 새로운 논문을 발표하였습니다. 지금은 논문 정도지만 앞으로 Glaze 툴에 NightShade 기능까지 통합할 계획이라고 합니다. 사실 위의 Glaze 도구를 사용하는 과정을 보면 아직은 접근성에 한계가 있는데요, 그렇지만 앞으로 예술가들의 더 큰 수요가 있다면 이런 도구들이 서비스 형태로 발전하여 더 쉽고 빠르게 사용할 수 있지 않을까 싶습니다.


 어떤 사람들은 인공지능의 스타일 모방은 불가피하기에 이를 받아들이고 나아가야 한다고 말합니다. 하지만 저는 스타일 모방을 원치 않는 예술가들의 목소리 또한 존중받아야 한다고 생각하고 앞으로 이들의 권리를 보장해 줄 수 있는 다양한 도구나 서비스들이 더욱더 많아졌으면 하는 바람입니다. 앞으로도 창작을 하는 사람들을 보호해 줄 수 있는 논문이나 도구가 있다면 뉴스레터에서 소개해 드리고자 합니다.


오늘도 길고 어려운 글을 끝까지 읽어주셔서 감사합니다. 더욱 알찬 내용으로 찾아뵙겠습니다.




오늘의 AI 단어 :  파인튜닝 (fine-tuning)


Fine-tuning은 기계 학습에서 사용되는 모델을 초기에 학습시키고, 그 모델을 특정 작업이나 새로운 데이터에 맞게 미세하게 조정하는 과정을 의미합니다. 이것은 기존에 학습된 모델의 일반적인 특성과 패턴을 유지하면서, 새로운 작업이나 도메인에 더 잘 적응할 수 있도록 모델을 조절하는 것을 목표로 합니다.


비유를 들자면, 마치 어떤 사람이 처음에 여러 종류의 동물들을 보고 각 동물에 대한 특징을 학습한다고 상상해 봅시다. 이렇게 학습된 지식을 바탕으로 그 사람은 나중에 새로운 동물을 만나면 이전에 학습한 지식을 활용하여 그 동물을 더 잘 이해하게 될 것입니다. Fine-tuning은 이렇게 학습된 지식을 새로운 상황에 더 잘 맞도록 조절하는 것과 비슷합니다.







AI Experience (AIX)의 이모저모를 전해드리는 '퓨처드릴'입니다!

퓨쳐드릴은 네 명의 에디터가 매주 돌아가면서 글을 작성하고 있습니다. 


퓨쳐드릴 뉴스레터는 월요일 아침 8시에 발송됩니다. 

새로운 뉴스레터를 받아보고 싶으시다면 https://futuredrill.stibee.com/ 여기서 구독해 주세요:)

매거진의 이전글 노코드로 나만의 AI 머신러닝 모델 만들기
브런치는 최신 브라우저에 최적화 되어있습니다. IE chrome safari