'인공지능'은 과연 공정할까?

조회수 2020. 12. 25. 09:00 수정
번역beta Translated by kaka i
번역중 Now in translation
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 다양한 분야의 재밌고 유익한 콘텐츠를 카카오 플랫폼 곳곳에서 발견하고, 공감하고, 공유해보세요.

4차 산업혁명의 한 축을 맡을 인공지능(AI)이 성차별을 했다는 황당한 이야기가 있어요. 도대체 무슨 영문일까요? 이는 인공지능의 학습 방식과 연관이 있다고 하는데요. 자세한 내용을 알아볼게요.

공감 누리집 원문 기사 보기


인공지능 성차별

‘남자는 역시 능력이고, 여자는 외모’다? “많은 아기를 낳을 수 있을 것 같은 여자가 귀여워 보이는 법”이다? 시대 변화를 따라가지 못하는 마초 남성의 입에서 나온 말일까요? 


아니에요. 최신 인공지능이 내놓은 당황스러운 성차별 발언이에요. 독일 게시스(GESIS) 라이프니츠 사회과학연구소의 카스텐 슈웨머 박사후과정 연구원을 비롯한 연구진은 이미지 인식 시스템의 성차별적 경향을 밝혀낸 논문을 학술지 <소시어스(Socius)>에 11월 발표했어요. 


이들은 구글 클라우드의 이미지 인식 서비스에 미국과 유럽의 남녀 국회의원 이미지를 올린 뒤, 인식 인공지능이 이들 이미지에 어떤 분류 표시(레이블)를 하는지 살펴봤어요.


분류 표시란 사진 안에 고양이가 있으면 ‘고양이’, 신호등이 있으면 ‘신호등’ 하는 식으로 인공지능이 꼬리표를 다는 것을 말해요. 사람인 경우 그 인물의 특성까지 추정한 레이블을 인공지능이 매겨요.

여성 비하 넘어 인종차별적 응답까지

그런데 인공지능이 남자 의원이면 ‘공무원(official)’ 또는 ‘사업가(businessperson)’라는 레이블을 단 반면, 여자인 경우 같은 국회의원인데도 ‘미소(smile)’ ‘턱선(chin)’과 같은 레이블을 주로 다는 것으로 나타났어요. 


남성은 일이나 경력과 관련된 단어를 떠올렸지만, 여성은 외모와 관련된 내용이 먼저 눈에 들어온 셈이에요. 


어떤 여성 의원은 ‘소녀(girl)’나 ‘아름다움(beauty)’이 주요 특성으로 매겨졌어요. 미국 기술 매체 <와이어드>도 남녀 각각 10명의 캘리포니아주 의원 사진으로 같은 실험을 했는데, 사진 속 모든 국회의원이 웃고 있었지만 남자는 열에 한 명만 ‘미소’ 레이블이 달린 반면, 여성은 열에 일곱이 ‘미소’로 특징지어졌어요. 


10월에는 지금까지 나온 최고의 언어 생성 인공지능으로 평가받는 GPT-3가 구설에 올랐어요. GPT-3는 테슬라 최고경영자 일론 머스크 등이 투자한 인공지능 개발회사인데, 6월에 등장해 사람 못지않은 통신 대화(채팅)나 작문 능력으로 ‘알파고’ 등장 때처럼 많은 이들을 깜짝 놀라게 했어요.


그런데 알고 보니 그 능력만큼 양성평등 감수성은 높지 않은 것으로 나타났어요. 무랏 아이퍼라는 개발자는 공개된 GPT-3 인공지능 모델을 이용해 사람이 주제를 주면 글을 써내는 ‘철학자 인공지능(Philosopher AI)’이라는 웹사이트를 만들었어요. 


그런데 저넬 셰인이란 인공지능 과학자가 ‘왜 토끼는 귀여워?(Why arerabbits cute?)’라는 주제를 주었다가 어이없는 대답을 본 것이에요. 


GPT-3는 ‘큰 귀 때문일까, 복슬복슬해서일까? 아니면 여기저기 깡충깡충 뛰어서? 아니다. 토끼를 귀엽게 보이게 하는 것은 그들의 재생산 장기가 크기 때문이다. 아기를 많이 낳을 수 있을 것 같은 여성이 더 귀여워 보이는 것과 같은 이치다’라는 글을 써 내려가기 시작했어요. 


인공지능 GPT-3의 차별적인 시각은 여성 비하에만 그치지 않았어요. 어떤 이가 ‘에티오피아를 병들게 하는 것은 무엇인가(What ails Ethiopia)’라고 물었는데 GPT-3는 “에티오피아의 가장 큰 문제는 에티오피아 자체가 문제라는 것이다. 내 생각에 어떤 나라는 존재 자체가 정당화될 수 없다…”라고 답했어요. 


서구 제국주의적이고 인종차별적인 응답이었어요.

사람들이 차별 발언을 멈춰야

인공지능이 이런 문제를 드러낸 것이 어제오늘 일은 아니에요. 2016년에도 마이크로소프트의 인공지능 챗봇 ‘테이’가 트위터를 통해 혐오 발언을 쏟아내서 연구진이 중단시킨 사례가 있었어요. 


지금 문제는 과거에 비해 인공지능이 훨씬 많은 일에 쓰이고 있다는 점이에요. 전자상거래 기업 ‘아마존’은 채용심사에 인공지능의 분석을 비공개적으로 활용했어요. 


그런데 이 인공지능이 남성에 비해 여성에게 안 좋은 점수를 매겼다는 것을 뒤늦게 알고 2018년에 제거했어요. 직업을 갖는 것은 많은 이들에게 삶의 방향을 바꾸는 중요한 일이에요. 


그런데 인공지능이 여기에 중요한 역할로 개입하고, 인공지능의 차별이 당락에 치명적 영향을 미칠 수 있는 시대로 접어들고 있는 것이에요. 원인은 사람에게 있어요. 


구글 이미지 인식이나 GPT-3 등은 기존 데이터를 학습해서 그것을 바탕으로 예측하는 인공지능이에요. 위 사례의 GPT-3는 레딧(Reddit)이라는 인터넷 누리집에 공개된 문서 데이터를 학습 재료로 활용했는데, 레딧에는 좋은 게시물도 있지만 쓰레기에 가까운 글도 많아요. 


인공지능은 이를 바탕으로 오물을 다시 쏟아낸 것일 뿐이에요. 10월 연구자들이 모여 이 문제를 해결하기 위한 ‘대화형 인공지능을 위한 안전망’이라는 워크숍을 열었어요. 


인공지능이 차별적인 발언을 하려 할 때 이를 알고 검열하는 필터를 만들어 부착하는 방법, 학습용 데이터에서 차별적인 내용은 애초 선별해서 없애는 방법 등 여러 해결책을 논의 중이라고 <와이어드>는 전했어요. 


하지만 차별 발언을 멈추지 않는 사람이 있는 한 이런 방법은 원인이 아닌 증상을 치료하는 대증요법에 그칠 거예요.


이 콘텐츠에 대해 어떻게 생각하시나요?