통합 검색어 입력폼

[CES는 블로터로]AI 윤리, 학계 넘어 CES에 전시됐다

조회수 2021. 1. 14. 10:30 수정
번역beta Translated by kaka i
번역중 Now in translation
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 다양한 분야의 재밌고 유익한 콘텐츠를 카카오 플랫폼 곳곳에서 발견하고, 공감하고, 공유해보세요.

인공지능(AI) 윤리가 최근 화두가 되고 있다. 세계 최대 국제 가전·IT 전시회 CES에서도 관련 논의가 나왔다. CES2021에서는 인공지능(AI)이 성·인종 편향을 벗어나 포용성을 갖춰야 한다는 주장이 제기됐다. 백인 남성 등 특정 성별과 인종을 과소 대표하는 데이터가 의도하지 않은 나쁜 AI 모델을 만든다는 얘기다. AI 윤리에 대한 담론이 학계를 넘어 소비자 제품 전시의 장에서도 화두로 떠오르는 모습이다.


CES에 전시된 AI 윤리


한국시간으로 13일 온라인으로 진행된 CES2021에서는 컨퍼런스 세션 중 하나로 ‘AI에서 성·인종적 편향’을 주제로 다뤘다. 이날 행사에는 애니 장바티스트 구글 제품포용성 총괄, 타니야 미슈라 마이슈어스타트 CEO, 킴벌리 스털링 레즈메드 보건 경제 및 결과 연구 시니어 디렉터가 참여해 AI의 편향성에 대해 논의했다. 사회는 셸리 젤리스 피메일 쿼션트 CEO가 진행했다.

(왼쪽 위부터 시계방향으로) 셸리 젤리스 피메일 쿼션트 CEO, 애니 장바티스트 구글 제품포용성 총괄, 타니야 미슈라 마이슈어스타트 CEO, 킴벌리 스털링 레즈메드 보건 경제 및 결과 연구 시니어 디렉터

애니 장바티스트 구글 제품포용성 총괄은 AI 개발에 있어 포용성의 중요성을 강조했다. 애니 장바티스트 총괄은 “포용적 입력(데이터)이 포용적 출력(AI 모델)으로 이어진다는 점이 중요하다”라며 “사람들에게 물어보고, 함께 만들고, 구축하지 않으면 사람들이 뭘 필요로 하는지 알 수 없는데 이는 AI에도 마찬가지로 적용된다”라고 말했다. 이어 “특히 다양한 관점을 갖는 게 중요한데, 역사적으로 대표성이 낮거나 AI 생성의 가장자리에 있는 것들을 중심으로 끌어올리고 확실하게 입력해 오늘날 우리 세계의 다양성을 정확하게 반영하도록 해야 한다”라고 강조했다.


구글은 2017년부터 제품포용성 팀을 운영하며 제품 설계 과정 전반에 편향성이 발생하지 않도록 들여다보고 있다. 예를 들어 AI 비서 ‘구글 어시스턴트’가 이용자들이 질문을 던졌을 때 혐오 발언을 하지 않도록 인종, 성별, 연령, 성적 지향 등 제품에 반영되지 않은 것들을 검토하는 제품 적대적 테스트를 진행하는 식이다. 포용성을 도덕적인 문제에 국한시키지 않고 더 많은 잠재적 이용자·구매자를 위한 개념으로 전환해야 한다는 게 구글 측의 입장이다.


다양한 AI 인력 구축을 위한 교육 지원 기업인 마이슈어스타트의 설립자 겸 CEO인 타니야 미슈라는 AI 분야에서 여성 인력의 부족 문제를 꼬집었다. AI 개발자들의 인력 구성이 다양해져야 AI의 편향성을 걷어낼 수 있다는 지적이다. 의료 기기 업체 레즈메드의 킴벌리 스털링 시니어 디렉터는 의료적 맥락에서도 다양한 인구에 기반을 둔 다양한 데이터셋이 없다면 나쁜 AI 모델이 만들어진다고 말했다.


해묵은 AI 편향성 문제 해소 나선 업체들


AI 윤리, AI 편향성에 대한 얘기는 학계에서 오래된 담론이다. 공정성이 중요한 사회적 가치로 떠오르면서 AI에 의한 합리적인 의사결정이 이뤄질 거라는 기대가 커지고 있지만, AI 알고리즘은 학습한 데이터에 편향이 있을 경우 이를 그대로 반영하게 된다.


아마존의 성차별적 AI 고용 추천 시스템이 대표적인 사례다. 이 AI 고용 시스템은 소프트웨어 개발자나 기술직군에서 여성 지원자를 배제했다. 아마존은 지난 10년간 회사에 접수된 입사 지원서를 기초로 훈련 데이터를 구축했는데, 당시 지원자 대부분이 남성이었던 점을 반영해 데이터 편향이 발생한 탓이다. 안면 인식 기술에서도 흑인 여성의 인식 오류율이 높게 나타나는 등 백인 남성 위주로 구성된 데이터 편향 문제가 부각됐다. 이용자들이 AI에 사회적 차별을 담은 데이터를 학습시킨 사례도 발생했다. 지난 2016년 마이크로소프트가 개발한 챗봇 ‘테이’는 인종 차별, 성 차별적 혐오 발언을 학습해 공개 16시간 만에 운영 중단됐다. 국내에서는 최근 스캐터랩이 개발한 AI 챗봇 이루다를 둘러싸고 비슷한 논란이 재현됐다.

성 중립적 답변을 지향하는 구글 어시스턴트

훈련 데이터의 편향성과 AI 의사결정 과정의 불투명성 등이 문제로 지적되면서 윤리적 AI에 대한 연구가 늘고 있다. 구글, MS, IBM 등 기업들도 사회적 편견을 걷어낸 AI 개발에 나서겠다고 선언하고 있는 상황이다. 포용적인 인력 구성을 통해 훈련 데이터셋에 잠재된 편향 원인이 있는지 평가하고, 문제가 될 수 있는 편향을 제거 또는 수정하는 모델을 훈련하고, 머신러닝 모델의 성능 차이를 평가하고, 완성된 시스템이 불공정한 결과를 내지 않는지 시험하는 식이다.


이날 애니 장바티스트 구글 제품포용성 총괄은 AI 편향성 문제의 해법으로 교육의 중요성을 강조했다. 그는 제각각의 배경과 경험을 지닌 조직 구성원들이 공통된 언어로 생각하는 게 중요하다며, 지난해 약 12000명의 구글 엔지니어에 대한 교육을 진행했다고 전했다. 조직이 AI 윤리 문제에 대해 공통적인 의식을 가져야 한다는 얘기다. 애니 장바티스트 총괄은 “우리가 다양한 관점을 가졌을 때 역사적으로 소외된 그룹뿐만 아니라 모두에게 더 나은 결과물을 가져올 것”이라며 “포용이 혁신을 촉진한다”라고 강조했다.

이 콘텐츠에 대해 어떻게 생각하시나요?