실험 : 감정 인식 얼마나 될까?
구글 클라우드 비전 API가 공개되고, 쉽게 따라 하는 좋은 예제를 발견(http://bcho.tistory.com/1075)해서 저도 따라 해 보았습니다.
정말 조대협 님 말씀처럼 10분 만에 같은 결과를 확인할 수 있었습니다.
그런데, 제 생각에는 별로 즐거운 표정이 아닌 듯해 보였습니다. 좀 더 확실한 감정이 드러난 사진에서는 좀 더 다른 결과가 나올까? 그래서, 한번 연예인의 얼굴을 가지고 분석해 보았습니다.
이미지는 구글에서 kpop으로, 이미지 -> 얼굴만 검색해보았습니다.
유명한 몇 분이 나왔는데, 그중에 다음의 네 개 샘플 분석을 해보았습니다. 선택은 랜덤으로, 표정을 중심으로 뽑아보았습니다.
활짝 웃고 있는데, 구글 클라우드 비전은 뭐라고 분석했을까요?
즐거워할 가능성이 아주 높다고 하네요. 그리고 또 흥미로운 부분이 이 사진은 hair, hairstyle과 연관성이 높다고 하는데. 다시 돌아보니 첫 번째 사진보다 머리카락이 많이 나와 있네요.
두 명의 얼굴을 분석하면 어떤 결과가 나올지 궁금했습니다.
결과는.. 두 명이 각기 분석되어서 나옵니다.
왼쪽부터 즐거워할 가능성이 높고, 머리에 뭔가를 했을 가능성이 있다고 나옵니다. 네 헤어밴드입니다.
그리고 오른쪽은.. 즐거워할 가능성이 아주 높고, 뭔가 좀 놀라고 있는 듯하다는 분석인데요.
화가 난 얼굴을 찾다 보니, 태운군의 얼굴이 나왔습니다.(이름은 링크 타고 가서 확인했습니다.)
결과는...
슬프거나 화났을 가능성이 좀 있다.라고 나왔네요.
그렇다면 이건 어떻게 나왔을까요?
게리가 런닝맨에 나와서 스트레스! 를 외치는 장면입니다. 짜증이 정말 많이 나올까요?
즐거워할 가능성 높고, 머리에 무엇인가 쓰고 있을 가능성이 아주 높다고 나왔습니다. 그냥 예능에서 짜증을 내는 척하는 것을 간파한 것일까요? 아니면 정확도가 낮은 것일까요? 그건 저도 잘 모르겠습니다.
감정이 확실한 사진에서는 다양한 분석 결과가 나오지만, 감정이 애매한 사진에서는 애매하게 나오는 것 같습니다. 동일 인물로 다양한 표정을 분석해보면 어떻게 나올지 궁금합니다. 나중에 좀 더 시간을 들여서 이 실험도 해봐야겠습니다.
활용 방안도 꽤 많을 것 같은데요. 동영상을 시청하다가 순간 사진을 찍어, 이 사진 결과를 가지고 방금 본 동영상의 평가를 대신한다든지. 아니면 얼마나 짧은 시간에 다양한 표정을 짓는지 재미 삼아서 테스트할 수 있는 앱도 만들 수 있을 것 같네요.