Automation

by 송창록

공장 자동화와 사무실 자동화는 과연 낙관적일까요? X축을 자동화 정도로 놓고 Y축을 생산성 또는 만족도로 놓으면, 그 곡선은 종형이 됩니다. 자동화가 증가하면 쓸데 없는 일이 줄고 단순반복 업무에서 고차원 업무로 이동하여 노동의 질이 높아집니다. 여유가 생기고 업무 스타일이 바뀌면서 의욕이 높아집니다. 자동화가 더 진행되어 인간의 노동을 대부분 대체하게 되면 인간은 자동화의 도구가 됩니다. 종의 왼쪽 면에서는 분명히 자동화가 인간을 위해 기여하는데, 종의 오른쪽 면에서는 인간이 자동화의 노예가 됩니다.


복잡성의 대부분을 시스템이 처리하는 경우에 거꾸로 노동은 양극화로 치닫습니다. 비행기가 자동항법장치로 운행하다가 갑자기 수동으로 바뀌는 경우, 자동화 라인이 Down되어서 수동으로 생산하는 경우, 오리지널 원류를 알고 있는 사람과 모르는 사람은 천지 차이로 달라집니다. 갖가지 System의 오류와 생산의 방정식을 통합적으로 알고 있는 Integrator가 대접받습니다. 나머지 노동은 더 단순해집니다. 가사 로봇은 사람이 하는 마지막 영역까지 대체합니다.


이런 사회가 유토피아일까요 디스토피아일까요? 스탠리 큐브릭의 “2001 스페이스오디세이”에 우주선을 통제하는 인공지능 수퍼컴퓨터 “HAL9000”이 통제를 벗어나는 장면이 나옵니다. 승무원들이 인공지능 수퍼컴퓨터에 죽임을 당하지요.


경영에서 자동화의 적정성은 화두이고 계륵입니다. 누구도 적정성이 어디까지 인지 모릅니다. 사회적 필요, 기업의 욕망 그리고 정치적 합의를 따르겠지요. 구성원이 하고 있는 일이 기계가 할 일인가 사람이 할 일인가는 경영자로서 리더에게는 어려운 문제입니다.


“로봇공학의 3원칙”은 미국 작가 “아이작 아시모프”가 로봇에 관한 소설에서 제안합니다. 1942년작 단편 Runaround에서 처음 언급되었습니다.


원칙 1: 로봇은 인간을 다치게 해서는 안 되고, 또는 위험에 처한 인간을 방관해서도 안 된다. (A robot may not injure a human being or, through inaction, allow a human being to come to harm)

원칙 2: 로봇은 인간이 내린 명령에 복종해야 한다. 다만 명령이 1원칙과 상충되는 경우는 예외로 한다. (A robot must obey the orders given to it by human beings, except where such orders would conflict with the First Law)

원칙 3: 로봇은 1원칙과 2원칙과 갈등하지 않는 한에서 자기를 보호해야 한다. (A robot must protect its own existence as long as such protection does not conflict with the First or Second Laws)

나중에 아시모프는 《로봇과 제국》을 쓰면서 “0번째 원칙”을 추가합니다. 다른 세 원칙도 이 0번째 원칙을 위배할 수 없습니다.

원칙 0: 로봇은 인류에게 해를 끼쳐서는 안 되며, 위험에 처한 인류를 방관해서도 안 된다. (A robot may not injure humanity, or, through inaction, allow humanity to come to harm)

아시모프는 다른 에세이에서 이 세 원칙은 모든 도구에 대해 확장될 수 있다고 지적하였습니다.

1. 도구는 안전해야 한다.
2. 도구는 그 기능을 효율적으로 쓸 수 있어야 하며, 단 사용자에게 해를 가해서는 안 된다.
3. 도구는 사용 도중 망가지지 않아야 하며, 단 기능이나 안전을 위해서는 망가질 수 있다.

우리가 사용하는 모든 장비와 설비에도 적용할 수 있는 원칙입니다.

2015년 4월 4일 독서통신

작가의 이전글죽음의 순간