AI, 인간이 될 권리를 탐하다

조회수 2020. 11. 9. 11:31 수정
번역beta Translated by kaka i
번역중 Now in translation
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 다양한 분야의 재밌고 유익한 콘텐츠를 카카오 플랫폼 곳곳에서 발견하고, 공감하고, 공유해보세요.

[윤리] 인공지능의 오만과 편견

먼 미래의 존재라고 여겨졌던 인공지능형 로봇이 우리 삶에 깊숙이 들어오게 된다면, 상상 속에서만 존재했던 특별한 삶이 우리 눈앞에 실제로 펼쳐질지도 모른다. 영화 〈그녀(Her)〉(2013)와 〈조(Zoe)〉(2019)는 그 특별한 삶의 가능성을 우리에게 보여준다. 여기서 말하는 그 특별한 삶이란 인간이 인공지능과 ‘연애’하는 삶을 말한다. 두 영화는 공통적으로 인공지능 혹은 지능형 로봇이 인간을 보조하는 단순한 도구를 너머서 ‘인간과 깊게 교감할 수 있는 존재가 될 수 있을 것인가’라는 의미심장한 물음을 던진다. 또한 진짜와 가짜를 구분하는 기준이 무엇인지, 인간과 로봇이 공존하는 시대에 각자의 정체성을 어디에서 어떻게 찾아야 하는지 우리에게 질문한다.

이미지를 불러올 수 없습니다.

인간의 삶 속에 로봇이 보편화되는 ‘로봇공존사회’가 도래하고 있다. 이미 2017년 10월 사우디아라비아 정부는 홍콩에 본사를 둔 핸슨로보틱스(Hanson Robotics)社의 휴머노이드 여성 로봇 ‘소피아(Sophia)’에게 세계최초로 시민권을 부여했으며, 이에 앞서 2017년 1월 EU는 로봇에게 ‘전자인간(electronic personhood)’이라는 법적 지위를 부여하는 ‘로봇시민법’ 결의안을 통과시켰다. 법적으로 로봇을 ‘인간에게 도움을 주는 존재’로 명시, ‘전자인간’으로서 로봇은 그에 맞는 법적인 책임과 권리・의무를 가지며, 로봇 개발자와 연구자는 인간의 존엄한 사생활・안전을 고려할 것을 권고하고 있다.

이미지를 불러올 수 없습니다.

AI 로봇공존사회 도래

AI로봇이 가까운 미래에 얼마나 광범위하게 이용될지에 대한 의견은 분분하다. 그러나 우리가 혁명의 중간에 있다는 것은 사실이다. IT 조사기관인 가트너(Gartner)社는 2020년에 모든 소비자 서비스 운영 중 1/4가량이 ‘가상 소비자 지원(virtual customer assistants)’을 이용할 것으로 예측했고, IBM은 2020년 모든 소비자 상호 작용 중 85%가 인간의 개입 없이 이루어질 것으로 전망한 바 있다.

기업들이 인간보다 인공지능을 탑재한 로봇을 선호하는 데는 많은 이유가 있다. 이들은 많은 훈련이 필요 없고 하루 24시간 내내 소비자들의 요구에 맞게 응대할 수 있다. 소비자도 사람을 상대하는 것보다 챗봇을 이용하는 것에 대해 점차 선호도가 높아지고 있다. Gartner社에 따르면 챗봇을 이용할 경우 소비자 만족도가 33% 올라가고, 전화나 이메일 질의가 70% 감소하는 것으로 나타났다. 

기술 발달로 AI가 사회 곳곳에 침투하면 인간과의 경계가 모호해지거나 AI가 의도치 않은 결과를 낳게 된다. AI는 시작부터 인간에게 이롭게 쓰여야 한다는 전제 속에서 개발되지만, 실제 운용 과정에서는 다양한 문제가 생겨날 수밖에 없다. 세계 각국에서 AI의 법적·윤리적 책임 문제를 고민하는 이유다.

국내외 AI윤리 입법추진

미래학자 ‘레이 커즈와일(Ray Kurzweil)’은 저서 『특이점이 온다』에서 “AI 기술·서비스와 인간은 충돌할 수밖에 없다”며 “서로 조율하는 절차가 필요하다”고 강조했다. 그의 말마따나 인류와 AI의 불화는 세계 곳곳에서 간간이 일어나곤 했다. 


언론에 따르면 자산관리 AI가 뉴욕 증시에 혼란을 준 사례도 있고, 세계미인대회에서 심사위원으로 활용한 ‘뷰티AI(Beauty AI)’는 미인 44명 중 37명을 백인으로 선정하기도 했으며, 오바마 대통령의 얼굴과 목소리를 그대로 복제한 ‘딥페이크’ 기술은 큰 화제와 논란을 불러일으키기도 했다.

이미지를 불러올 수 없습니다.

AI에 대한 주요 윤리적 쟁점으로는 ▲데이터와 알고리즘에 내재된 행태적 차별 ▲개인정보·사생활 침해 ▲자율주행자동차의 손해배상법·보험법상 책임 ▲예술AI 창작물의 지적재산권 ▲성인로봇(섹스로봇) 등장에 따른 사회·윤리적 문제 ▲의료AI의 정확도·책임소재 ▲인간의 일자리 대체 문제 ▲군사력 강화를 위한 AI무기 개발 경쟁 등 다양한 이슈들을 내포하고 있다. 


이런 부작용을 예방하고자, 세계 각국에서 AI 윤리규정 논의가 활발히 진행되고 있다. 우리나라의 경우 과학기술정보통신부(한국정보화진흥원)가 2018년 9월 ‘지능정보사회 윤리 가이드라인’을 발표했다. 여기에는 공통 원칙으로 공공성·책무성·통제성·투명성을 들고, 각 원칙의 세부지침을 개발자·공급자·이용자 관점에서 각각 제시했다.

이미지를 불러올 수 없습니다.

AI산업, 기업 역할 중요

AI의 긍정적인 활용을 위해서는 정부뿐만 아니라 기업의 역할도 중요하다. 사실상 AI 산업의 주체이기 때문이다. AI의 부정적 측면이 사회문제로 발전할 수 있는 우려를 잠재우기 위해선 기업 자체적으로 윤리헌장을 마련하고 이를 준수하는 선에서 기술 개발이 이뤄져야 한다. 


Microsoft MS는 ‘Microsoft AI principles’라는 AI 윤리규정을 마련했다. 이들은 ‘신뢰할 수 있는 AI를 설계하기 위해선 윤리 원칙을 반영해야 한다’고 밝히며, ‘평등·신뢰와 안전·개인정보와 보안·포괄적 참여·투명성·책임감’이라는 키워드를 제안했다.

이미지를 불러올 수 없습니다.

Google 글로벌 IT 기업 중 하나인 구글 역시 ‘AI at Google: Our Principles’이란 이름으로 기업 윤리헌장을 공개했다. 구글은 AI를 개발하는 데 있어, ‘사회적 이익을 도모하고, 편견과 차별을 최소화하고, 안전을 최우선에 두고, 개인정보 보호를 우선하며, 책임감 있게 개발하고, 원칙에 맞게 사용하는 것’을 강조하고 있다. 


IBM AI 산업을 선도하고 있는 IBM 또한 ‘기업이 신뢰할 수 있는 AI’란 이름으로 규정을 마련했다. 세부적으로 ‘인공지능을 위한 일상의 윤리’라는 가이드라인을 마련, ‘책임·가치 정렬·설명 가능성·공정성·사용자 데이터 권한’이라는 5가지 윤리 규정을 제안하고 있다. 


카카오 한편, 국내에서는 처음으로 카카오가 AI 윤리헌장을 발표했다. ‘알고리즘과 관련된 모든 노력을 우리 사회 윤리 안에서 다하며, 이를 통해 인류의 편익과 행복을 추구한다’는 게 주요 골자다.

AI, 낙관론 vs 비관론

인공지능의 발전이 미래 인류에게 미치는 영향에 대해 유명 인사들 간의 견해 차이가 심화되는 가운데 낙관론과 비관론으로 양극화 현상을 보이고 있다. 


낙관론은 인공지능이 인간을 지원하고 힘든 업무를 대신함으로써 삶의 질을 향상시키는 기술이며, 인공지능에 의한 인류의 종말론은 과도한 걱정이라고 주장한다. 반면 비관론은 인공지능이 가지게 될 지적능력은 인간으로 하여금 인공지능의 결정을 맹목적으로 준용하게 하고, 인공지능을 통제하지 못하게 되면서 인류에게 큰 위협이 될 것이라고 반박한다.

이미지를 불러올 수 없습니다.

이와 관련, 이스라엘 예루살렘히브리대학 유발 하라리(Yuval Noah Harari) 교수는 “무지나 공포가 아닌 이해에 기반을 둔 인공지능의 규제가 필요하고 그 규제는 반드시 산업계와 협력을 통해 이뤄져야 하며 정부의 일방적인 명령은 지양해야 될 것”이라고 강조한다. 

한편 2017년 세계경제포럼(WEF, 일명 다보스포럼)은 AI야말로 인류가 역사상 개발해온 신기술 중 가장 부정적 영향이 큰 기술이 될 것으로 예측했다. 제도 설계자들은 경제가치 폭발이라는 긍정적 효과의 극대화를 바라지만 실업, 사생활 침해, 계층 양극화 등 AI 기술 오남용에 따른 부(負)의 효과에도 대비해야 한다는 것이다. 미래의 AI가 인간의 존엄성을 해치지 않고 공생할 수 있는 윤리와 법제도 마련이 필요하다는 지적이다. 


이규열 기자(본지 발행인 겸 편집인)

※ 머니플러스 2020년 11월호에 실린 기사입니다.

<저작권자ⓒ 재테크 전문지 머니플러스 무단전재 & 재배포 금지>

이 콘텐츠에 대해 어떻게 생각하시나요?