BBC "생성형 AI가 뉴스 왜곡"... 절반 이상 답변서 심각한 오류

컴퓨팅입력 :2025/02/12 15:09

BBC가 생성형 AI(Generative AI)의 뉴스 왜곡 문제를 지적하며 기술기업들과의 협력을 촉구했다. BBC 미디어센터에 11일(현지 시간) 발표된 내용에 따르면, BBC 뉴스·시사 부문의 데보라 터니스(Deborah Turness) CEO는 "생성형 AI가 정보를 수집해 답변하는 과정에서 사실과 다르거나 오해의 소지가 있는 위험한 콘텐츠를 제공하고 있다"고 밝혔다.

BBC는 챗GPT(ChatGPT), 퍼플렉시티(Perplexity), 마이크로소프트 코파일럿(Microsoft Copilot), 구글 제미나이(Google Gemini) 등 주요 AI 챗봇을 대상으로 BBC 뉴스 기사를 바탕으로 100개 질문에 대한 답변을 분석했다. 연구 결과 절반 이상의 답변에서 '심각한 문제'가 발견됐다. 약 20%의 답변은 BBC 자료를 인용하면서도 명백한 사실 관계 오류를 포함했으며, BBC 기사 인용문의 10% 이상이 원문과 다르거나 존재하지 않는 내용이었다.

터니스 CEO는 "AI 어시스턴트들이 뉴스 보도에서 사실과 의견을 구분하지 못하고, 과거 자료와 현재 기사를 구별하지 않으며, 답변에 자체적인 의견을 주입하는 경향이 있다"고 지적했다. 한 예로 퍼플렉시티는 중동 분쟁 관련 BBC 보도를 인용하면서 BBC가 사용하지 않은 '자제'나 '공격적' 같은 표현을 임의로 추가했다. 챗GPT와 코파일럿은 2024년 12월 당시 이미 퇴임한 리시 수낙(Rishi Sunak)과 니콜라 스터전(Nicola Sturgeon)을 현직자로 잘못 표기했다.

애플(Apple)은 BBC 뉴스 알림을 왜곡하는 문제가 발견되자 AI 뉴스 요약 기능을 선제적으로 중단했다. 한 사례로 LA 산불 당시 '약탈자 체포' 뉴스가 AI에 의해 'LA 공무원들이 약탈로 체포됐다'는 완전히 다른 내용으로 왜곡된 바 있다. 터니스 CEO는 "신뢰할 수 있는 정보를 찾으려는 소비자들에게 왜곡되고 결함 있는 콘텐츠를 제공하는 것이 AI 발전의 대가가 되어서는 안 된다"며 뉴스 산업계, 기술 기업, 정부가 함께 이 문제를 해결해야 한다고 강조했다.

■ 기사는 클로드 3.5 소네트와 챗GPT-4o를 활용해 작성되었습니다.

관련기사