'이루다' 사례 피하려면…AI 윤리 자율점검표 등장

각계, 기업 활용 촉진책 마련&투명성·프라이버시 항목 강조 제안

컴퓨팅입력 :2021/11/23 17:14    수정: 2021/11/24 09:02

인공지능(AI) 기반 서비스를 기획, 개발, 운영하는 과정에서 지켜야 할 윤리 원칙과 그에 대한 실천사항을 정리한 'AI 윤리 기준 자율점검표'가 발간됐다. 혐오 발언, 개인정보 노출 등의 사건을 일으킨 대화형 챗봇 '이루다' 같은 사례 재발 방지가 목적이다.

각계는 이번 자율점검표에 대해 기업 활용을 촉진하는 노력이 뒤따라야 한다고 강조했다. 사업자들이 자발적으로 수용해야 하는 자율규제인 만큼, 적극적인 안내와 홍보가 필요하다는 지적이다.

23일 정보통신정책연구원(KISDI)은 '인공지능 신뢰성 제고를 위한 공개 정책 세미나'를 개최하고 AI 윤리 기준 자율점검표를 발표했다.

문아람 KISDI 박사

발표자인 문아람 KISDI 박사에 따르면 이번 점검표는 지난 5월 정부가 관계부처 합동으로 발표한 '신뢰할 수 있는 인공지능 실현 전략'에서 제시된 기술적, 법적, 측면의 3대 전략과 10대 실행과제를 중심으로 47개 문항이 포함됐다. 공공, 민간을 포함해 AI 시스템 개발 운영을 위한 의사결정을 수행하는 개인 혹은 조직을 대상으로 만들어졌으며, 의사결정과 점검 과정에서 이번 점검표를 반영해 내부 지침을 수립하는 것을 실천 방법으로 제시했다. 

신뢰할 수 있는 인공지능 실현 전략의 비전·목표·추진전략r

개별 문항들은 ▲인간 기본권과 자율성을 다루는 '인권 보장' ▲사생활 침해 우려 완화를 위한 '프라이버시' ▲AI의 편향, 차별 방지 조치 유무를 묻는 '다양성 존중' ▲AI가 본래와 다른 목적으로 활용돼 발생한 피해의 사전·사후 대응 관련 '침해 금지' ▲AI의 공익 저해 여부를 보는 '공공성' ▲사회 구성원, 미래 세대, 국제 사회와의 조화를 보는 '연대성' ▲활용한 데이터를 평가하는 '데이터 관리' ▲AI 관련 피해를 최소화하고, 피해에 따른 책임 소재 구분과 보상을 평가하는 '책임성' ▲AI가 합리적이고 타당하게 추론하는지 따지는 '안전성' ▲알고리즘에 따른 결과와 그 과정에 대해 알리고, AI 사용 여부를 알리는 '투명성' 등 10가지 항목으로 분류된다.

문항들과 함께 항목별 문항 제시 이유, 참고 사례 등도 점검표에 포함됐다. 

문아람 박사는 "향후 자율점검표를 활용한 우수 사례를 발굴해 제공할 예정"이라며 "자율점검표의 접근성과 편의성을 높이기 위해 온라인 점검 도구도 만들어 배포할 계획이고, 지속적으로 현장 의견을 받아 문항도 보완하려 한다"고 첨언했다.

이날 세미나 패널 토론에서는 자율점검표에 대한 보완 의견들이 제시됐다. 먼저 투명성, 책임성 항목에 대한 중요성을 강조하면서, 이를 보다 구체화하자는 제안이 나왔다.

김명주 서울여대 교수는 "AI 사용 여부를 사전 고지하는 것을 넘어 AI가 서비스에서 어떤 영역을 담당하고, 어느 정도의 기술 수준인지, 어떤 유형의 기술을 사용하는지도 밝힐 필요가 있다"며 "사용자 민원에 대응해 정보를 공개하는 데 그치지 않고, 기업이 선제적으로 AI에 대한 정보를 투명하게 밝히도록 해야 한다"고 말했다.

김종욱 동아대 교수는 "AI의 투명성과 책임성이 매우 중요해질 것"이라며 "추후 AI가 인간에게 피해를 끼칠 경우, 해당 사건의 조사관이 시간에 따라 역추적할 수 있도록 정보를 제공하는 문구를 책임성 항목에 보완했으면 한다"고 했다.

김종욱 동아대 교수

윤명 소비자시민모임 사무총장은 "기업이 투명성 차원에서 공개한 AI 정보를 전체 이용자가 적절히 판단하고, 소화할 능력이 있을지 우려된다"며 "단순히 정보를 공개하는 데 목적을 두지 않고, 이용자가 그런 정보를 활용할 수 있도록 기업에서 노력해줬으면 하는 바람"이라고 덧붙였다.

이용자 피해가 커질 수 있는 프라이버시 항목도 보다 큰 관심이 필요하다는 주장이 나왔다. 노태영 김앤장 변호사는 "프라이버시 보호나 침해 금지, 책임성, 안전성 등의 항목은 잠재적인 피해 규모와 성격을 고려할 때 다른 항목보다 조금 더 자발적 이행할 수 있는 다양한 동기나 이행 기회를 제공할 수 있는 방법을 고민해야 한다"고 의견을 냈다.

기업이 자율점검표를 적극적으로 수용하게 하는 촉진책들도 제시됐다.

노태영 변호사는 "기업에 다양한 동기를 제공하고 발굴하는 게 이번 점검표 개발 못지 않게 상당히 중요할 듯하다"며 "충분한 자원을 갖춘 대형 사업자와 달리, 특히 새롭고 전례 없는 AI 서비스를 내놓는 스타트업이나 벤처는 오히려 이런 점검표를 미리 인지하고, 검토하지 못할 가능성이 높을 것"이라고 지적했다.

노태영 김앤장 변호사

임선경 지능정보산업협회(AIIA) 사무국장도 "스타트업의 경우 서비스 개발, 기획까지 대표가 다 하는 경우도 존재할 정도"라며 "점검표 외 교육 과정을 마련하는 것도 유용할 수 있다"고 첨언했다.

관련기사

최성진 코리아스타트업포럼 대표는 "각 기업이 AI 알고리즘과 서비스를 커스터마이징하는 과정을 거칠텐데, 그 과정에서 점검표 내용을 어떻게 고민하고 반영했는지를 알리는 노력이 필요할 것"이라며 "스타트업 등 소기업은 이런 점검표를 내부적으로 잘 고려하고 적용할 여력이 없는데, 이런 부분은 공공에서 충분히 지원하면 좋을 듯하다"고 말했다.

AI를 개발, 기획, 운영하는 기업 외 이를 이용하는 소비자에 대한 윤리 지침이 필요하다는 지적도 나왔다. 윤명 사무총장은 "이용자 관점에서의 AI 윤리에 대한 안내나 정보 제공도 필요해보인다"고 제안했다.