AI은행원 등 생성형AI 주시하는 금융권…"거버넌스 미리 구축해야"

딜로이트 "편향적 답변·개인정보보호 및 관리 필요"

금융입력 :2024/02/11 09:40

금융권들이 인공지능(AI)은행원 도입은 물론이고 가상현실(VR) 기기 보급에 맞춘 금융서비스를 고안 중인 가운데, 선제적으로 생성형 AI에 대한 거버넌스를 구축해야 한다는 진단이 나왔다.

11일 딜로이트 아시아태평양규제전략센터는 AI가 사전 정의도니 지침이나 전략에 따라 특정 과업을 수행하도록 설계된 시스템인 반면 생성형AI는 일정 부분의 창의력 등이 가미돼 리스크가 상존하는 만큼 업무 사용 전 규제와 거버넌스를 사전적으로 마련해야 한다고 밝혔다.

생성형AI의 경우 모델이 복잡하고 정보가 독점적이 다보니 불투명성이 지적될 수 있다. 또, 데이터에서 편견 등을 학습할 경우 차별적이거나 오해의 소지가 있는 콘텐츠를 생성할 수 있기 때문에 주의가 필요하다는 지적이다.

(사진=이미지투데이)

딜로이트 센터 측은 "AI 기술을 둘러싼 규제 환경이 계속 진화함에 따라 AI 기술의 채택을 고려하는 금융사는 AI위험을 이해하고 식별 및 관리하기 위한 조치를 취해야한다"고 언급했다.

특히 대부분의 국가서 AI 규제 및 법률은 개발 전이거나 시행 초기 단계다. AI 규제가 마련되면 생성형AI에 대한 규제도 명확해지지만, 기술 발전 속도가 빠르다 보니 규제가 이를 모두 고려하지 못할 수 있어 기업 자체 AI 거버넌스 프레임워크를 구축이 필요하다는 것이다.

관련기사

금융사들은 생성형AI를 통한 가상 금융서비스 경험 등을 검토하고 있다. 가상공간에서의 생성형AI는 금융사와 VR 등을 통한 금융서비스를 제공할 수 있기 때문이다. 일방향적인 AI와 다르게 서로 소통할 수 있기에 상담 직원 비용 절감, 개인 맞춤형 서비스 제공이 가능하다. 하지만 이런 서비스가 고객 차별적인 발언을 하거나 답변으로 얻은 개인 정보가 유출될 가능성도 상존한다.

딜로이트 측은 "금융사는 금융서비스 취약 고객계층에 영향을 미치는 요인, 예를 들어 학력이나 소득 득을 파악하고 생성형 AI가 의도 또는 의도하지 않은 결과로 인해 생길 수 있는 고객 편향 및 차별을 피해야 한다"며 "생성형AI를 이용하는 금융회사는 고객 데이터의 수집·저장·처리하는 내부 부서와 외부 업체에 대한 데이터 보호 가이드라인을 확립 및 준수 여부에 대한 관리감독을 해야 한다"고 진단했다.