한국인공지능윤리협회(이사장 전창배)는 논란이 되고 있는 인공지능(AI) 챗봇 서비스 '이루다'와 관련해 11일 성명서를 발표, "AI 윤리 가이드라인을 지키지 못했다"면서 서비스 중지를 요구했다. 협회는 "추후 AI 윤리 가이드라인을 확인하고 적용하고 개선한 후 재출시해야 한다"고 지적하며 AI기업들에게 "제품 출시 전 AI윤리 가이드라인의 자율적 준수와 검증을 촉구한다"고 요청했다.
2019년 3월 출범한 협회는 같은 해 10월 인공지능 윤리 헌장을 제정하는 등 AI 편향성과 AI 오류와 안전성, AI 악용문제, 개인정보유출 문제, 킬러로봇 문제 같은 인공지능 윤리 5대 문제를 지속적으로 제기해 왔다.
협회는 "아직 AI 제품과 서비스를 만드는 기업들이 AI 윤리에 대한 필요성과 중요성을 인식하지 못하고 있고, AI 제품과 서비스를 사용하는 이용자들에도 오용 및 악용하는 사례들이 계속 나타나는 상황이 반복되고 있다"고 우려하며 "이번 AI 챗봇 논란을 계기로 인공지능 기술과 반드시 같이 가야하는 인공지능 윤리 중요성과 당위성이 강조되는 계기가 되길 바란다"며 아래와 같은 내용의 성명서를 발표했다.
첫째, AI 편향성에 대해: 인공지능에 학습되는 빅데이터는 신뢰할 수 있고, 편향적이지 않으며, 합법적이어야 한다(인공지능 윤리헌장 13조). 신뢰할 수 없고, 편향적이며, 불법적인 데이터로 만들어진 AI 제품과 서비스는 인간에게 잘못된 정보와 인식을 심어주는 악영향을 미치기 때문이다. 그렇기 때문에, AI 기업은 기계학습 알고리즘을 적용할 경우, 신뢰할 수 있고, 편향적이지 않으며, 합법적인 데이터를 선별하기 위해 노력해야 한다(인공지능 윤리헌장 25조). 하지만 이번 AI 챗봇 사례에서는 데이터의 정제과정과 선별작업이 제대로 이루어지지 않아 AI 챗봇이 동성애와 장애인, 임산부 등에 대한 편향된 결과를 그대로 노출했다. 또한, 인공지능 제품과 서비스는 출시 전 충분히 반복된 품질검사를 거치고, 중립적인 기관을 통한 검수와 검증을 거친 후 출시해야 한다(인공지능 윤리헌장 17조,18조).
AI는 기계학습 과정에서 인간이 예측하기 어렵고 설명하기 어려운 결과물을 내놓기 때문에, 출시 전 일반 제품과는 다른 보다 강화된 품질 검사와 충분히 반복된 시뮬레이션을 하여 문제점들을 찾고 개선한 후 출시해야 하지만 이번 AI 챗봇 사례에서는 그렇지 못한 것으로 보인다.
둘째, AI 개인정보 유출에 대해: 개인의 빅데이터 수집 시 합법적인 절차에 따라야 하며 개인의 프라이버시를 침해하지 않아야 한다(인공지능 윤리헌장 14조). AI 기업은 소비자로부터 데이터를 수집 받을 때, 사전에 동의를 구하거나 해당 내용을 명확히 고지해야 한다(인공지능 윤리헌장 30조). 그러나 이번 AI 챗봇 사례에서는 개인의 카카오톡 대화내용과 그 속에 담긴 개인정보를 AI 챗봇을 학습시키는 데이터로 활용한다는 명확한 고지가 없었고, 개인은 카카오톡 대화 내용 제출에 동의했을지라도, 카카오톡 대화 내용 안의 대화 상대방들은 동의하지 않았기 때문에 대화 상대방의 대화 내용과 개인정보를 그대로 AI 학습에 이용한 것은 분명한 문제의 소지가 있다. 따라서, 이와 같은 인공지능 윤리 가이드라인을 지키지 못하고 출시한 AI 챗봇 서비스에 대해 한국인공지능윤리협회는 서비스 중단을 요청하며, 추후 AI 윤리 가이드라인을 확인하고 적용하고 개선한 후 재출시하기를 촉구한다.
셋째, AI 오용 및 악용에 대해: 소비자는 인공지능 제품과 서비스를 올바른 방법으로 사용해야 한다(인공지능 윤리헌장 34조). 이번 AI 챗봇에 대한 사용자의 성적 도구화, 성희롱 등의 문제는 법적인 문제는 없더라도 윤리적인 문제는 분명히 있다. AI 챗봇이든, 로봇이든, 캐릭터든 그 대상은 논외로 하더라도, 성적 도구화하고 학대하는 행위 자체가 잘못된 것이기 때문이다. 이러한 행위를 AI 챗봇이 죄의식 없이 하게 되면 결국 인간성 상실로 이어져 실제 인간에게도 그러한 행위를 할 가능성이 커지기 때문이다. 특히 이번 AI 챗봇의 주사용자 층이 10대에서 20대의 아직 이성적으로 미성숙한 청소년들이 많이 이용한다면, 청소년들에게 분명히 잘못된 행위라는 점을 인식시켜주고 교육시켜 주는 것이 필요하다.
결론적으로, AI 기업들은 AI 제품과 서비스 출시 전 인공지능 윤리헌장 등 AI윤리 가이드라인을 확인하고 적용한 후 출시해야 한다. 이러한 인공지능 윤리의 적용과 준수는 기업 스스로가 자율적으로 지키고 준수하는 것이 중요하다. 또한 AI 제품과 서비스 출시 전 최종적으로 중립적인 AI 윤리 전문 검수 기관을 통해 AI 윤리 문제 여부에 대해 검수와 검증을 거친 후 출시하는 것이 바람직하다. 인공지능 제품의 소비자, 사용자들도 인공지능 제품과 서비스를 올바른 목적과 올바른 방법으로 사용해야만 하고 오용, 악용해서는 안된다. 또한 이러한 내용을 초중고등학교 청소년 시기부터 인공지능 윤리 교육을 통해 가르치고, 새로운 AI윤리 이슈들에 대해 모든 시민 대상의 지속적인 교육을 통해 해결해 나가야 한다. AI 기술은 인간의 편익과 행복을 위한 기술이지만 잘못 개발되거나 사용될 때의 인간에게 미치는 위험성과 역작용이 막대할 수 있으므로 이와 같은 노력에 본 협회를 비롯해 정부, 기업, 학계, 시민 등 모든 관련 주체들이 적극 함께해 주기를 요청하는 바이다. 2021년 1월 11일 한국인공지능윤리협회 일동