설명할 수 있는 인공지능
1. regime switching (hidden markov)
학부 4학년 여름 방학 시절에 regime switching을 접하고 내가 아는 모든 방법론에 regime switching을 붙여서 써봤다. 마지막에 했던 거를 모멘트 별로 꼽자면 regime switching VECM 이니 regime switching BEKK 정도. 없는 건 내가 코드 만들어서 쓰고 그랬으니 그 때 당시 기준으로 웬만한 건 다 시도해 봤다고 봐도 무방할 거다. 그만큼 좋아했었는데, 석사 졸업하면서 부터 안 썼다.
데이터 자체가 스스로 말하게 하는 건 좋으나, 그 regime이 사후적으로 연구자의 판단에 의해서 정해져야 한다는 게 마음에 안 들었고, 사전적으로 regime이 몇 개인지 설정하는 것도 연구자의 의도에 따라 결정되어야 한다는 것이 마음이 안 들었다.
유학 가서 regime 에 대해서 이론적으로 들을 기회가 있어서 (계량이 아닌 거시에서...) 머릿 속으로는 반쯤 이해했지만, 아직도 심정적으로는 손이 가지 않는 방법론이다.
2. AI
AI 모르면 안 되는 세상처럼 느껴지지만, 이 것도 까놓고 보면 regime switching 을 한층 더 꼬아 놓은 black box를 이용해 먹는다. 그리고는 내가 학습한 것에 따른 결과는 이렇고, 그 중간 과정은 말해 줄 수 없소. 라고 하는 건데, 이 부분이 아마 많은 사회과학자들이 인공지능으로 바로 넘어가지 못하게 잡는 발목일 거다.
예를 들자면, 타로 점을 치러 가서 카드를 골라 보세요 해서 카드를 골랐더니 당신의 운세는 이러함. 끝. 하고 아무런 설명을 안 해주는 거다. 무슨 설명을 해줘야 설득이 되고 할텐데 그런 거 없이 내가 배운 건 이거니깐 결과는 이거다 라고 하는 셈.
3. XAI
그래서 내가 요즘 급 관심을 가지고 있는 주제이다. AI를 설명할 수는 없을까? 다르게 표현하면 AI가 만들어낸 결과를 보고 어떻게 해서 그런 결과가 나오게 되었는지를 사람이 해석할 수는 없을까? 아니면 AI 스스로 자기의 결과를 해석하게 할 수는 없을까?
그 출발점으로 일단 AI랑 맞닿아 있는 통계적 방법론을 찾고 있고, 지금 현재까지는 Structural Estimation 정도가 출발점으로 적당할 것 같다. 앞으로 얼마나 더 발전시킬 수 있을지는 좀 봐야될 것 같고..