페이스북, 성적 편견 분류하는 AI 모델 연구

편견이 담긴 텍스트로 인한 AI 학습 데이터셋 오염 방지

컴퓨팅입력 :2020/05/08 17:42

페이스북이 성적으로 불쾌감을 줄 수 있거나 편견이 담긴 단어를 분류하는 인공지능(AI) 연구를 진행 중이다.

북마 IT전문 매체인 벤처비트 등 외신은 페이스북 연구원이 텍스트에서 성별에 따른 편견은 구분할 수 있는 AI 관련 논문을 발표했다고 6일(현지시간) 보도했다.

페이스북 연구원은 성별에 따라 불쾌감을 주는 텍스트를 감지하고 이를 바탕으로 다른 업무를 처리할 때 성별 편향이 발생하는 것을 통제하는 AI를 개발 중이다.

페이스북 AI팀

연구팀은 언어와 성별 정체성이 편견에 미치는 영향을 알아보기 위해 말하는 사람과 대상의 성별에 따라 편견이 담긴 단어가 어떻게 달라지고 비중의 변화가 있는지 분석했다.

또한 AI 학습을 위한 데이터셋을 위키피디아, 펀피기아, 옐프, 오픈서브타이틀 등의 사이트에서 주로 특정 인물에 대한 전기를 다룬 텍스트로 구축했다.

해당 텍스트를 AI 학습에 적용한 이유는 AI의 의사 결정에 영향을 줄 수 있는 글의 작성자와 평가받는 인물의 성별에 대한 정보가 포함돼 있기 때문이다.

페이스북 AI 연구팀은 “화자의 성별이나 남자, 여자 등 성별 정체성을 가진 텍스트 사이에 편견이 포함되지 않는다면 없다면 해당 데이터로 학습하는 AI도 성별에 따른 차이가 없을 것이다”라며 “하지만 현실은 그렇지 않기 때문에 텍스트 기반 학습 데이터에서 성편견 사례를 분석하고 제거하는 과정이 필요하다”고 주장했다.

관련기사

최근 편견이 포함된 데이터로 학습한 AI가 문제로 지적되는 사례가 발생하고 있다. 대표적으로 지난 구글 비전AI가 편견이 포함된 결과를 제시해 개발사인 구글이 사과 후 수정한 사례가 있다.

당시 구글 비전 AI는 체온기를 들고 있는 비슷한 이미지임에도 피부색에 따라 밝은 피부는 전자기기, 어두운 피부는 총을 들고 있다는 다른 결과를 냈다.