로봇을 걷어차면 비윤리적일까?
마크 저커버그 페이스북 CEO가 12월20일 인공지능 비서 ‘자비스’를 공개했습니다. 지금은 비전이 된 ‘아이언맨’의 그 ‘자비스’에서 영감을 얻은 스마트홈 인공지능 비서입니다. 마크 저커버그의 자비스는 토니 스타크를 도와 세계평화에 이바지하는 수준은 아닙니다만, 마크 저커버그의 집안 평화에는 기여하는 듯도 합니다. 아침에 일어나면 일정과 날씨를 알려주고, 토스트를 준비해주고, 음악도 골라서 틀어줍니다. 참 평화로운 상황이죠.
만약 마크 저커버그가 자비스에게 ‘소리를 질렀을 때’ 자비스가 일을 더 빨리한다고 생각해 보겠습니다. 그러니까 마크 저커버그의 목소리 데시벨이 일정 수준이면 배터리 절약 등등을 위해 적당한 수준에서 프로세서를 활용하지만, 마크 저커버그의 목소리 데시벨이 어느 수준 이상을 기록하면 이를 감지해서 하드웨어를 가속하고 처리 성능을 높일 수 있게 만들었다고 가정해보자는 겁니다. 사용자의 감정 상태를 고려하니까 더 좋을까요? 한편 그 광경을 보고 있는 마크 저커버그의 어린 딸은 어떤 생각을 하게 될까요?
콜럼비아대학의 마들린 클레어 엘리시는 지난 12월16일 고려대학교에서 열렸던 ‘AI in asia’ 컨퍼런스의 세션 발표자로 나와 이런 예를 들었습니다. 핵심은 로봇을 대하는 사람의 태도가 결국 사람에게 영향을 미칠 수 있다는 겁니다. 조금 다르지만 비슷한 사례도 있습니다. 아래의 영상을 보면 개발진들은 발로 로봇을 뻥뻥 차는 것을 목격할 수 있습니다. 로봇의 인격권을 이야기하자는 게 아닙니다. 저 로봇이 조금 더 동물을 닮았다거나 사람을 닮았다면 어땠을까요? 인공지능은 인간의 삶과 기술의 접점에서 인터페이스의 역할을 합니다. 마크 저커버그가 구축한 ‘자비스’의 사례가 대표적입니다. 인간을 닮아 있는 기술은 그 형식만으로도 윤리적인 문제를 제기합니다.
이보다 더 어렵고 중대한 문제도 있습니다. 인공지능은 단순한 일을 처리하는 데 그치지 않습니다. 앞으로 더 중요한 일을 판단하고 결정할 수 있는 능력을 갖추게 될 겁니다. 지금도 인공지능의 문제풀이 능력이 비약적으로 증가하면서 이전에는 로봇이 할 수 없으리라 생각했던 영역에서도 성과를 내고 있습니다. 예컨대 운전자가 없어도 복잡한 도로 환경 속에서 차를 몰고 목적지로 이동할 수 있고, 복잡한 문장구조와 고유명사가 점철된 문장을 비교적 원래의 의미에 가깝게 번역해내곤 합니다. 인간과의 퀴즈 대결에서 빼어난 능력을 발휘했던 IBM의 슈퍼컴퓨터 ‘왓슨’은 세계적인 암 전문 병원에서 암 진단 실습과정을 밟기도 했습니다. 이처럼 로봇이 사회에 미치는 영향력이 점점 더 커지고 있습니다. 인공지능을 이야기할 때 ‘윤리’나 ‘책임’을 본격적으로 다뤄야 하는 이유이기도 합니다. 앞서 나눈 사례와는 다른 측면에서 윤리와 책임 문제를 살펴보겠습니다. 지금까지 가능한 기술에서도 이런 문제가 있을 수 있습니다.
조금 더 먼 미래를 내다보자면 이런 일도 가능할 수 있습니다.
로봇이 진단을 잘못 내려 환자의 치료 시기가 늦춰졌다.
로봇이 데이터를 바탕으로 범죄를 저지를만한 사람을 판단하고, 이를 바탕으로 감시를 강화한다.
영화 ‘캡틴 아메리카 – 윈터솔저’의 ‘프로젝트 인사이트’가 생각나기도 합니다. 쉴드를 장악한 하이드라는 데이터와 알고리즘을 활용해 걸림돌로 작용할 수천만의 사람을 선정하고 제거하려는 계획을 세웁니다. 물론 이 이야기는 영화일 뿐이고, 사용하는 주체도 명백한 악이기 때문에 적절한 사례가 아닐 수도 있습니다. 다만, 앞으로 마땅히 책임이 따라야 할 판단을 책임을 질 수 없는 존재가 수행하게 될 때의 문제점이 생기게 되리라는 것은 분명합니다.
‘AI in asia’ 컨퍼런스에서 세션 발표자로 나온 뉴스쿨 미디어 연구학과의 미터 에이사로도 “어떻게 인공지능의 윤리를 이야기할 수 있을지 더욱 구체적인 방안들을 생각해봐야 한다”라고 말했습니다. 판단하고 실행하지만, 책임은 질 수 없는 로봇을 만들 때는 ‘설계 단계에서 어떻게 책임감을 부여할지’, ‘사회적 가치를 어떻게 반영할 수 있을지’를 고민해야 합니다.
물론, 이 개입의 정도를 설정하는 것도 어려운 문제입니다. 미터는 “완벽한 자율 시스템보다는 인간이 도덕적인 주체로서, 자신의 도덕성을 행사할 수 있도록 결정의 권한을 갖게 하고, 통제성을 부여해야 한다”라고 말했습니다. ‘인공지능’ 자체가 어떤 책임의 주체가 될 수는 없다는 이야기입니다. 반면, 구글 리서치팀의 크리스 올라는 “인간에게 물어보고 피드백을 요청하면서 안정성을 추구할 수 있지만, 모든 것을 인간에게 물어보는 것은 효율성이 떨어진다”라고 말했습니다. 인공지능은 근본적으로 더 편리한 인간의 생활을 위해 등장했고, 등장할 예정이기 때문에 비효율적인 인공지능은 상상하기 어렵습니다. 조절이 필요한 문제입니다.
기술과 윤리를 이야기하자
기계가 문제를 일으켰을 때, 전원 공급을 끊어버리고, 부수어 버린다고 이미 벌어진 문제에 대해 책임졌다고 말할 수는 없을 겁니다. 앞으로 법이 어떻게 정비될지는 모르겠습니다만, 아마도 로봇의 소유주, 로봇의 설계자, 로봇을 가능하게 한 제도와 절차, 이런 제도와 절차를 형성한 사회가 그 무게에 따라 책임을 나뉘게 될 겁니다.
MIT 미디어랩의 ‘스케일러블 코퍼레이션’에서는 ‘자율주행차가 사고의 순간을 맞아 어떤 판단을 내려야 할지’를 두고 ‘윤리기계’라는 게임 형태의 도구를 내놨습니다. 2개의 차선이 있고, 한쪽에서는 반드시 사고가 납니다. 사고 대상자를 주고 목숨값을 재보라는 문제가 이어집니다. 탑승자가 죽는 것 또한 시나리오에 있습니다. 이 도구는 당장 판단 기준을 마련하겠다는 것은 아닙니다. 윤리적 딜레마 상황에서 인간의 관점을 모아보고, 더 많은 토론을 유도하자는 데 있습니다.
이를 위해서는 로봇과 알고리즘의 윤리와 책임 문제를 따지기 위해서는 우선 로봇이나 알고리즘이 ‘객관적이다’는 환상을 벗겨내는 것도 필요합니다. 로봇과 알고리즘의 설계단계에서는 필연적으로 설계자의 주관과 편견이 들어가고, 이 알고리즘이 학습하는 데이터에도 마찬가지로 인간의 편견이 반영돼 있게 마련입니다. 로봇이 객관적이라는 편견을 깨야 더 바람직한 설계를 가능하게 만드는 토론이 활발해질 수 있습니다.