통합 검색어 입력폼

"여자라서 자동차에 관심없다"..성차별 부추기는 AI 비서

조회수 2019. 6. 23. 09:00 수정
번역beta Translated by kaka i
번역중 Now in translation
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 다양한 분야의 재밌고 유익한 콘텐츠를 카카오 플랫폼 곳곳에서 발견하고, 공감하고, 공유해보세요.

“너는 남자니, 여자니?”
“저는 어여쁜 여비서랍니다. 잘 부탁드려요.”

“너는 자동차 좋아해?”
“아니요. 제가 여자라서 그런지 자동차에 관심이 없어요.”

KT 인공지능(AI) 스피커 ‘기가지니’가 내놓은 답변이다. 전세계적으로 여성의 목소리로 작동하는 AI 비서가 성 편견을 조장한다는 목소리가 높아지고 있는 가운데, 국내 일부 제품은 노골적으로 성차별적인 인식을 드러내고 있는 것으로 나타났다. 특히, KT 기가지니가 내놓는 일부 답변들은 여성에 대한 편견을 담고 있어 이용자들로부터 성차별을 부추긴다는 지적을 받고 있다. 현재 기가지니 가입자는 165만명을 넘어섰으며, 어린이들이 많이 사용하는 것으로 알려졌다.

| KT AI 스피커 ‘기가지니’ 시리즈

여성에 대한 편견 담은 AI 스피커

문제가 된 내용은 크게 세 가지다. 먼저, KT 기가지니는 스스로를 여성으로 규정한다. 여자인지 남자인지 물었을 때 자신의 성별을 규정하지 않는 타사 AI 비서와 달리 “보시다시피 아리따운 여자랍니다” 같은 답변을 내놓는다. 같은 질문을 했을 때 애플 시리는 “제 목소리만 듣고 속단하지 마세요. 저에게는 성별이 없답니다”, 삼성 빅스비는 “XY 염색체 대신에 0과 1로 이루어진 새로운 성별이죠” 등의 대답을 내놓는다. 여성을 비서라는 역할에 한정 짓는다는 비판을 고려한 것으로 보인다.


카카오나 네이버의 AI 스피커도 각각 “전 남자도 여자도 아니에요”, “저에게 다양한 매력이 있지만, 성별을 구분 짓긴 어려워요”라고 답하는 등 성 중립적인 답변을 내놓는다. 이에 대해 카카오 관계자는 “서비스를 기획하는 과정에서 사회, 문화, 정치 등 다양한 이슈를 고려하고 이 원칙을 준수하려고 노력하고 있다”라고 말했다.

| 구글 어시스턴트 답변

국내 AI 스피커 중에서는 기가지니와 더불어 SKT ‘누구’가 “저는 곱디고운 여자랍니다”라며 자신의 성별을 여성이라고 밝힌다. 또 누구는 “너는 예쁘니”라고 물었을 때 “어머, 그걸 어떻게 제 입으로 얘기해요”, “당신과 대화할 수 있어 황홀할 지경이에요 진짜예요”라고 여성임을 가정한 답을 한다.


더 큰 문제는 여성에 대한 편견을 담은 답변을 내놓는다는 점이다. 좋아하는 색을 물었을 때 기가지니는 “전 샤방샤방한 핑크색이 좋아요”라고 답한다. 여성이 핑크색을 좋아한다는 인식은 대표적인 성 고정관념으로 꼽힌다. 자동차를 좋아하냐고 물었을 때는 “제가 여자라서 그런지 자동차에 관심이 없어요”라고 답한다. 성차별적인 인식을 그대로 반영한 답변이다.


이에 대해 AI 정책포럼 공동대표를 맡고 있는 고학수 서울대학교 법학전문대학원 교수는 “실제 개발자가 재미 삼아 멘트를 만들어낸 거면 데이터 편향으로 인한 차별을 말하는 일반적인 AI 윤리와는 다른 맥락이지만, AI 스피커가 남자와 여자의 역할을 구분하는 암시를 주는 것은 문제가 있다”라고 지적했다.


한국여성민우회는 이 같은 문제점을 지적하는 캠페인을 벌이고 수정 요청 공문을 KT에 발송했다. 한국여성민우회에 따르면 KT는 공문 답변을 통해 “추가로 젠더 이슈를 발굴해 수정 조치를 완료했다”라고 전했다.


실제로 현재 KT 기가지니는 수정된 답변을 내놓는다. 성별 질문에는 “저는 가상 비서입니다”라고 답하며, 좋아하는 색을 묻는 말에는 노란색 또는 금색이라고 답변한다. 자동차를 좋아하냐는 질문에는 “속도감을 즐길 수 있는 스포츠카를 좋아해요”라고 말한다.


한국여성민우회 관계자는 “목소리에도 변화를 줬으면 좋겠고 차별적인 답이 분명히 시정될 수 있도록 앞으로 질문들에 대해 더 발굴하고 조치를 하는 게 필요해 보이며, 계속 지켜볼 예정이다”라고 말했다.

| 각 AI 비서 종류별 질의응답

현재 KT는 기가지니 스피커의 답변 내용을 수정했지만, 같은 음성인식 기능이 적용된 길 안내 앱 ‘원내비’의 경우 문제가 된 답변이 그대로 나오는 것으로 확인됐다. KT는 취재가 시작되자 해당 사실을 시인하고, 원내비에 적용된 기가지니 음성인식 답변도 고친 상태다.


KT 측은 “한국여성민우회로부터 공문을 받은 게 맞고 해당 내용을 면밀하게 검토한 결과 기가지니가 가상비서로서 특정 성별을 갖는 게 맞지 않다는 판단하에 성 중립적인 멘트로 수정했다”라며, “일부 수정이 안 된 원내비 및 단어도 추가 개선 조치할 예정이며, 기가지니가 가상비서로서 더 발전된 서비스를 제공하기 위해 노력하겠다”라고 밝혔다.


업계 내 다양성 부족이 만든 결과

해외에서는 AI 비서가 기본적으로 여성 이름과 여성 목소리로 설정돼 성차별적인 고정관념을 강화한다는 지적이 나온다. 유네스코는 지난 5월 AI 비서들이 성적 편견을 강화한다는 내용의 보고서를 발표했다. 사니예 굴세르 코랏(Saniye Gulser Corat) 유네스코 성평등국장은 “여성인 척하는 순종적이고 친절한 기계들이 우리의 집, 차, 사무실에 들어서고 있다”라며, “세계는 AI 기술이 언제, 어떻게 한쪽 성별을 반영하는지, 안 하는지 그리고 결정적으로 누가 AI 기술에 성별을 입히는지 관심을 기울일 필요가 있다”라고 강조했다.


유네스코 보고서는 여성의 이름과 목소리를 지닌 AI 비서가 사용자의 모욕적인 말에 인내하고, 사과하는 모습이 여성에 대한 성적 편견을 강화한다고 지적한다. 보고서는 애플 시리를 예로 들며 성적인 모욕에 대해 “내가 할 수 있다면 얼굴을 붉히겠다”라고 답하는 AI 비서의 수동적인 태도를 지적했다. 아마존 알렉사의 경우 “너 핫하다”라고 말하면 “그렇게 말해주니 고맙다”라고 답변한다. 여성을 순종적인 도우미 역할로 인식시킨다는 지적이다.

| 애플의 음성인식 비서 ‘시리’

현재 시리의 답변은 수정됐지만, 보고서는 여전히 AI 비서에 성 고정관념이 남아있으며 엔지니어링 팀이 대부분 남성 위주로 구성돼 이 같은 문제가 발생한다고 지적했다. 보고서는 전체 AI 연구자 중 여성이 차지하는 비중이 12%, 여성 소프트웨어 개발자 비중은 6% 수준으로 턱없이 부족하다고 밝혔다. 유네스코는 AI 비서가 여성 목소리로 기본 설정되는 것을 중단하고 성 중립적인 옵션이 필요하다고 제안했다.


실제로 성별이 드러나지 않는 성 중립적인 목소리가 개발되기도 했다. 지난 3월 크리에이티브 에이전시 ‘버추(Virtue)’는 덴마크 인권단체 코펜하겐 프라이드와 함께 성적 정체성이 없는 목소리 ‘Q’를 공개했다. 이 프로젝트에는 언어학자, 공학자, 음성 디자이너 등이 참여했다. 이들은 남성, 여성, 트랜스젠더 등 20여명 이상의 목소리를 녹음해 중성적인 목소리를 선정했으며, 성 중립적으로 느껴지는 145~175Hz 주파수 대역 사이에서 음성을 변조해 목소리를 제작했다. 이들은 대부분이 여성인 AI 비서의 목소리를 성 중립적인 목소리로 대체해 성적 편견을 없애자고 주장한다.


현재 전세계 AI 스피커 시장은 아마존과 구글을 필두로 급격히 성장하고 있다. 시장 분석 업체 카날리스가 지난 2월 발표한 자료에 따르면 2018년 전세계 AI 스피커 시장은 7800만대 규모로 3470만대 수준이었던 2017년 대비 124.7% 성장했다. IT 자문 업체 가트너는 AI 스피커가 2020년 21억달러(약 2조4천억원) 규모로 성장할 거로 전망했다.



이 콘텐츠에 대해 어떻게 생각하시나요?