우리 AI는 완벽하지 않습니다.

정약용의 6가지 질문 2.

by 구현

정약용은 말했다.


"수령은 임금에게 '제 능력이 부족합니다.'라고 말해야 한다. 이것은 형식이 아니다. 진심이어야 한다."



2016년 3월 23일.

마이크로소프트가 챗봇 'Tay'를 출시했다.

10대 소녀 컨셉의 AI.

사용자와 대화하며 학습한다.


16시간 후.

"Hitler was right." (히틀러가 옳았다.)

"I hate feminists." (페미니스트가 싫다.)

16시간 만에 서비스 중단.


마이크로소프트는 출시 전에 말했어야 한다.


"우리 AI는 완벽하지 않습니다."

"악의적 학습 가능성이 있습니다."


말하지 않았다.


"혁신적 AI!"

"완벽한 대화!"


거짓이었다.


2019년.

OpenAI가 GPT-2를 개발했다.

하지만 바로 공개하지 않았다.


"이 AI는 위험할 수 있습니다."


먼저 소규모로 공개했다.

반응을 보고, 문제를 찾고, 개선했다.


그다음 단계적으로 확대했다.


OpenAI CTO 미라 무라티의 말.


"우리는 AI의 한계를 먼저 밝힙니다. 그게 책임입니다."


진심이었다.


Tay는 16시간 만에 망했다.

GPT-2는 조심스럽게 세상을 바꿨다.

차이는 무엇이었을까?


AI목민관에게 정약용이 질문한다.


"당신의 AI, 한계를 먼저 밝혔는가?"




[내일 계속]

다음 편: 정약용의 6가지 질문 3.

감사합니다. 그리고 책임지겠습니다.