중국과 러시아, 이란, 이스라엘이 여론 조작을 위해 오픈AI의 챗GPT를 사용한 것으로 전해졌다. 생성형 인공지능(AI)으로 가짜 기사와 댓글을 생성해 정치적 영향력을 은밀히 행사한 것이다.
30일(현지시간) 뉴욕타임스(NYT) 등 주요 외신은 오픈AI가 이런 사실을 공식 블로그를 통해 알렸다고 보도했다. 오픈AI는 "지난 3개월 동안 여론 조작 목적으로 활용된 사례 5건을 발견했다"며 "현재 이를 모두 중단시킨 상태"라고 밝혔다.
NYT에 따르면 해당 국가에서 챗GPT로 거짓 댓글과 기사를 생성한 사례가 나타났다. AI로 가짜 소셜미디어 계정 이름과 약력을 구성하거나 코드를 디버깅하는 작업도 수행했다.
오픈AI는 이런 사례를 러시아에서 두 건, 중국에서 한 건, 이란에서 한 건, 이스라엘에서 한 건을 확인했다. 현재 해당 작업은 모두 중단됐다. 회사는 "이는 러시아 우크라이나 침공, 가자지구 분쟁, 인도 선거, 유럽·미국 정치 공작, 중국 반체제 인사와 관련한 내용"이라고 설명했다.
예를 들어 이스라엘 사용자가 가자지구 전쟁에 대한 짧은 텍스트를 작성해 가짜 소셜 미디어에 게시한 뒤 이와 관련한 댓글과 답글을 AI로 작성하는 식이다. 해당 내용이 큰 주목을 받는 것처럼 꾸며내기 위해 AI를 활용한 셈이다.
관련기사
- 오픈AI 前 이사 "알트먼, 수년간 이사회 의견 묵살"2024.05.29
- 안전문제 지적하며 사임한 오픈AI 임원, 앤트로픽 합류2024.05.29
- 오픈AI "GPT-4 능가할 새 모델 훈련…수년 후 출시할 수도"2024.05.29
- 'AI 안전팀' 해체 후 韓서 입 연 오픈AI…무슨 말 했나2024.05.23
오픈AI는 "자체 AI 기술로 사례를 추적했다"며 "덕분에 며칠 만에 이런 조사를 모두 마칠 수 있었다"고 밝혔다.
챗GPT 등 자사 제품에 안전 방어 기능을 사전에 갖췄다는 점도 강조했다. 오픈AI는 "다수 사례에서 오픈AI 도구는 행위자의 악의적 사용 시도에 결과물을 생성하지 않았다"고 설명했다.