로봇을 걷어차면 비윤리적일까?

조회수 2016. 12. 26. 15:02 수정
번역beta Translated by kaka i
번역중 Now in translation
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 다양한 분야의 재밌고 유익한 콘텐츠를 카카오 플랫폼 곳곳에서 발견하고, 공감하고, 공유해보세요.

인공지능과 로봇, 그들의 윤리와 책임

마크 저커버그 페이스북 CEO가 12월20일 인공지능 비서 ‘자비스’를 공개했습니다. 지금은 비전이 된 ‘아이언맨’의 그 ‘자비스’에서 영감을 얻은 스마트홈 인공지능 비서입니다. 마크 저커버그의 자비스는 토니 스타크를 도와 세계평화에 이바지하는 수준은 아닙니다만, 마크 저커버그의 집안 평화에는 기여하는 듯도 합니다. 아침에 일어나면 일정과 날씨를 알려주고, 토스트를 준비해주고, 음악도 골라서 틀어줍니다. 참 평화로운 상황이죠.

수트를 부르는 건 아니고 매일 입는 회색 티셔츠를 던져달라고 말하는 중이다.
집에 방문한 마크 저커버그의 부모님을 자동으로 인식해 알려준다.

만약 마크 저커버그가 자비스에게 ‘소리를 질렀을 때’ 자비스가 일을 더 빨리한다고 생각해 보겠습니다. 그러니까 마크 저커버그의 목소리 데시벨이 일정 수준이면 배터리 절약 등등을 위해 적당한 수준에서 프로세서를 활용하지만, 마크 저커버그의 목소리 데시벨이 어느 수준 이상을 기록하면 이를 감지해서 하드웨어를 가속하고 처리 성능을 높일 수 있게 만들었다고 가정해보자는 겁니다. 사용자의 감정 상태를 고려하니까 더 좋을까요? 한편 그 광경을 보고 있는 마크 저커버그의 어린 딸은 어떤 생각을 하게 될까요?

자비스...일을 빨리 하란 말야!!(*실제로 이런 말을 하지는 않았습니다)
마크 저커버그의 가족 사진

콜럼비아대학의 마들린 클레어 엘리시는 지난 12월16일 고려대학교에서 열렸던 ‘AI in asia’ 컨퍼런스의 세션 발표자로 나와 이런 예를 들었습니다. 핵심은 로봇을 대하는 사람의 태도가 결국 사람에게 영향을 미칠 수 있다는 겁니다. 조금 다르지만 비슷한 사례도 있습니다. 아래의 영상을 보면 개발진들은 발로 로봇을 뻥뻥 차는 것을 목격할 수 있습니다. 로봇의 인격권을 이야기하자는 게 아닙니다. 저 로봇이 조금 더 동물을 닮았다거나 사람을 닮았다면 어땠을까요? 인공지능은 인간의 삶과 기술의 접점에서 인터페이스의 역할을 합니다. 마크 저커버그가 구축한 ‘자비스’의 사례가 대표적입니다. 인간을 닮아 있는 기술은 그 형식만으로도 윤리적인 문제를 제기합니다.

로봇의 균형감각을 자랑하기 위해 발로 뻥뻥 찬다.

이보다 더 어렵고 중대한 문제도 있습니다. 인공지능은 단순한 일을 처리하는 데 그치지 않습니다. 앞으로 더 중요한 일을 판단하고 결정할 수 있는 능력을 갖추게 될 겁니다. 지금도 인공지능의 문제풀이 능력이 비약적으로 증가하면서 이전에는 로봇이 할 수 없으리라 생각했던 영역에서도 성과를 내고 있습니다. 예컨대 운전자가 없어도 복잡한 도로 환경 속에서 차를 몰고 목적지로 이동할 수 있고, 복잡한 문장구조와 고유명사가 점철된 문장을 비교적 원래의 의미에 가깝게 번역해내곤 합니다. 인간과의 퀴즈 대결에서 빼어난 능력을 발휘했던 IBM의 슈퍼컴퓨터 ‘왓슨’은 세계적인 암 전문 병원에서 암 진단 실습과정을 밟기도 했습니다. 이처럼 로봇이 사회에 미치는 영향력이 점점 더 커지고 있습니다. 인공지능을 이야기할 때 ‘윤리’나 ‘책임’을 본격적으로 다뤄야 하는 이유이기도 합니다. 앞서 나눈 사례와는 다른 측면에서 윤리와 책임 문제를 살펴보겠습니다. 지금까지 가능한 기술에서도 이런 문제가 있을 수 있습니다.

출처: 유튜브 영상 갈무리
자율주행이 인사사고를 낸다
신호등을 무시하는 우버 자율주행차량
무장된 드론이 스스로 표적을 찾아 사살한다
참고로 2015년 7월28일 아르헨티나 부에노스아이레스에서 열린 ‘국제 인공지능 컨퍼런스’에서는 인공지능 무기 군비 경쟁을 경고하는 성명서가 발표된 바 있다. 일론 머스크 테슬라 CEO, 알파고의 아버지인 데미스 허사비스, 애플의 공동창업자 스티브 워즈니악 등 2500명이 넘는 인공지능, 로봇공학 연구가들이 인공지능 무기에 반대하는 성명서에 동참했다.
공개 하루만에 혐오발언을 학습하고 내뱉어 문제가 된 MS의 챗봇 ‘테이’

조금 더 먼 미래를 내다보자면 이런 일도 가능할 수 있습니다.


로봇이 진단을 잘못 내려 환자의 치료 시기가 늦춰졌다.


로봇이 데이터를 바탕으로 범죄를 저지를만한 사람을 판단하고, 이를 바탕으로 감시를 강화한다.

출처: ’캡틴 아메리카 윈터솔져’ 오피셜 트레일러 갈무리

영화 ‘캡틴 아메리카 – 윈터솔저’의 ‘프로젝트 인사이트’가 생각나기도 합니다. 쉴드를 장악한 하이드라는 데이터와 알고리즘을 활용해 걸림돌로 작용할 수천만의 사람을 선정하고 제거하려는 계획을 세웁니다. 물론 이 이야기는 영화일 뿐이고, 사용하는 주체도 명백한 악이기 때문에 적절한 사례가 아닐 수도 있습니다. 다만, 앞으로 마땅히 책임이 따라야 할 판단을 책임을 질 수 없는 존재가 수행하게 될 때의 문제점이 생기게 되리라는 것은 분명합니다.

‘AI in asia’ 컨퍼런스에서 세션 발표자로 나온 뉴스쿨 미디어 연구학과의 미터 에이사로도 “어떻게 인공지능의 윤리를 이야기할 수 있을지 더욱 구체적인 방안들을 생각해봐야 한다”라고 말했습니다. 판단하고 실행하지만, 책임은 질 수 없는 로봇을 만들 때는 ‘설계 단계에서 어떻게 책임감을 부여할지’, ‘사회적 가치를 어떻게 반영할 수 있을지’를 고민해야 합니다.


물론, 이 개입의 정도를 설정하는 것도 어려운 문제입니다. 미터는 “완벽한 자율 시스템보다는 인간이 도덕적인 주체로서, 자신의 도덕성을 행사할 수 있도록 결정의 권한을 갖게 하고, 통제성을 부여해야 한다”라고 말했습니다. ‘인공지능’ 자체가 어떤 책임의 주체가 될 수는 없다는 이야기입니다. 반면, 구글 리서치팀의 크리스 올라는 “인간에게 물어보고 피드백을 요청하면서 안정성을 추구할 수 있지만, 모든 것을 인간에게 물어보는 것은 효율성이 떨어진다”라고 말했습니다. 인공지능은 근본적으로 더 편리한 인간의 생활을 위해 등장했고, 등장할 예정이기 때문에 비효율적인 인공지능은 상상하기 어렵습니다. 조절이 필요한 문제입니다.

윤리기계

기술과 윤리를 이야기하자


기계가 문제를 일으켰을 때, 전원 공급을 끊어버리고, 부수어 버린다고 이미 벌어진 문제에 대해 책임졌다고 말할 수는 없을 겁니다. 앞으로 법이 어떻게 정비될지는 모르겠습니다만, 아마도 로봇의 소유주, 로봇의 설계자, 로봇을 가능하게 한 제도와 절차, 이런 제도와 절차를 형성한 사회가 그 무게에 따라 책임을 나뉘게 될 겁니다. 


MIT 미디어랩의 ‘스케일러블 코퍼레이션’에서는 ‘자율주행차가 사고의 순간을 맞아 어떤 판단을 내려야 할지’를 두고 ‘윤리기계’라는 게임 형태의 도구를 내놨습니다. 2개의 차선이 있고, 한쪽에서는 반드시 사고가 납니다. 사고 대상자를 주고 목숨값을 재보라는 문제가 이어집니다. 탑승자가 죽는 것 또한 시나리오에 있습니다. 이 도구는 당장 판단 기준을 마련하겠다는 것은 아닙니다. 윤리적 딜레마 상황에서 인간의 관점을 모아보고, 더 많은 토론을 유도하자는 데 있습니다. 


이를 위해서는 로봇과 알고리즘의 윤리와 책임 문제를 따지기 위해서는 우선 로봇이나 알고리즘이 ‘객관적이다’는 환상을 벗겨내는 것도 필요합니다. 로봇과 알고리즘의 설계단계에서는 필연적으로 설계자의 주관과 편견이 들어가고, 이 알고리즘이 학습하는 데이터에도 마찬가지로 인간의 편견이 반영돼 있게 마련입니다. 로봇이 객관적이라는 편견을 깨야 더 바람직한 설계를 가능하게 만드는 토론이 활발해질 수 있습니다.

이 콘텐츠에 대해 어떻게 생각하시나요?