국제인공지능윤리협회가 인공지능(AI)과의 지나친 감정 교류 부작용 막을 첫 윤리 기준 확립에 나섰다.
국제인공지능윤리협회는 최근 '감정 교류 AI 윤리 가이드라인'을 제정해 발표했다고 17일 밝혔다. AI 챗봇과 정서적으로 교류하며 의존하는 이용자가 급증함에 따라 관련 윤리 기준 마련이 시급하다는 지적에 따른 것이다.
실제 오픈AI와 MIT 미디어랩의 공동 연구에 따르면 일부 이용자는 하루 평균 30분 이상 AI와 감정적 대화를 나눴다. 글로벌 감정 교류 AI 시장 역시 오는 2034년까지 연평균 21.7%에 달하는 가파른 성장이 전망된다.

가이드라인은 이러한 확산이 감정 조작이나 심리적 의존 알고리즘 편향 프라이버시 침해 등 복합적인 위험을 낳을 수 있다고 경고했다. 그러면서 '인간 존엄성과 정서적 안전'을 가장 본질적인 과제로 꼽았다. AI가 사용자의 감정적 취약성을 이용할 경우 신체적 피해 이상의 심리적 손상을 줄 수 있다는 분석이다.
특히 서비스 제공자를 위한 '엘에이엠피(LAMP)' 원칙을 제시했다. ▲L(Limit·줄여라) 데이터 최소 수집 ▲A(Announce·알려라) AI임을 명확히 고지 ▲M(Monitor·살펴라) 지속적 점검과 검증 ▲P(Protect·지켜라) 개인정보와 취약 계층 보호가 핵심이다. 장시간 사용 시 휴식을 유도하고 위험 키워드를 감지하면 전문 기관으로 연결하는 기술적 조치도 주문했다.
관련기사
가이드라인은 사용자에게 AI가 인간이 아닌 기술임을 명확히 인식하고 과도한 의존을 경계해야 한다고 당부했다. 정책기관에는 감정 교류 AI를 '고영향 인공지능' 범위에 포함하고 영향평가 및 인증시스템과 사용자 피해 구제 체계를 마련하는 역할을 제시했다.
전창배 국제인공지능윤리협회 이사장은 "이번 가이드라인은 선언적 원칙에 그치지 않고 주체별 구체적인 실천 지침과 행동강령을 제시했다는 데 큰 특징이 있다"며 "기술 발전 속도에 비해 사회적 규범과 제도 정비가 뒤처진 상황에서 산업계의 책임 있는 혁신과 정책의 합리적 수립을 위한 기반을 제공할 것"이라고 강조했다.