첨단 AI모델, 극단주의 단체 악용 우려

허위정보, 거짓말 학습 시켜 가짜뉴스 제작 등 부정행위 가능성 있어

컴퓨팅입력 :2020/09/21 22:38

GPT-3 등 첨단 자연어처리(NLP)기술에 허위 정보, 거짓말을 학습 시켜 가짜뉴스를 배포하는 등 악용할 수 있다는 우려가 제기되고 있다.

미국 IT전문매체인 벤처비트 등 외신은 미들버리 국제학연구소의 크리스 맥거피와 알렉스 뉴하우스 연구원이 ‘GPT-3와 고급 신경언어모델의 위험’이라는 논문을 공개했다고 최근 보도했다.

논문을 발표한 두 연구원은 테러리즘 및 기타 형태의 극단주의에 대한 심층 연구를 진행하는 CTEC 소속이다.

(이미지=pixabay)

크리스 맥거피와 알렉스 뉴하우스 연구원은 GPT-3와 같은 높은 수준의 인공지능(AI) 언어모델을 사용하면 다양한 주제와 철학적 스레드를 기반으로 이념적으로 일관되고 설득력 있는 글을 작성할 수 있다고 설명했다.

GPT-3는 오픈AI가 개발한 언어 모델이다. 인간이 쓴 것과 구별이 안 될 만큼 정확한 문장을 생성할 수 있다고 알려져 주목받고 있다.

이를 악용할 경우 극단주의 이데올로기와 행동에 영향을 줄 수 있는 문서 작성도 가능하다는 것이다.

이들은 11월 미국 대통령 선거를 앞두고 GPT-3를 이용해 극단주의 단체의 행동을 활성화하기 위한 가짜뉴스 작성이 활발해질 것으로 전망했다.

특히 AI기술의 발전으로 학습을 위해 요구되는 데이터와 시간, 전문지식이 줄어들면서 이를 악용하려는 극단주의 단체의 진입장벽이 낮아지고 있다고 덧붙였다.

두 연구원은 “이전에도 AI와 봇을 활용해 잘못된 정보를 확산시키거나 논란의 여지가 있는 관점을 확대해 혼란을 가중하는 사례가 세계적으로 있었다”며 “하지만 GPT-3 등 첨단 기술의 등장으로 이러한 혼란이 더욱 확대되려 한다"며 대안 마련이 시급하다고 주장했다.

GPT-3 악용 위험이 제기되자 오픈AI는 유해한 언어 생성을 제한하기 위해 언어필터를 포함한 API 수준의 보호장치를 실험하고 있다고 밝혔다.

오픈AI가 개발 중인 언어필터는 특정 단어가 아닌 단어와 연관된 문장을 통해 혐오 포현이나 비하 내용 등을 검출하는 방식으로 출시 일정은 공개되지 않았다.

관련기사

CTEC 연구원은 기술적 대안만으로는 해결이 쉽지 않을 것이라며 GPT-3와 같은 신규 기술의 남용을 막기 위해선 정부와 업계 및 시민이 협력해 기술사용에 대한 표준을 구축해야 한다고 주장했다.

크리스 맥거피와 알렉스 뉴하우스 연구원은 “언어모델 개발자와 배포자는 결과물이 어떤 영향을 미칠 수 있는지 수용해야 한다”며 “시민과 공무원은 합성된 언어가 어떻게 만들어지고 배포되는지 정확하게 알리는 단체를 지지해야 할 것”이라고 말했다.