
가짜 콘텐츠 경험 십대 35%, 정보 신뢰도 위협 심각해져
인공지능(AI) 기술이 일상에 깊숙이 침투한 현대 디지털 환경에서 십대들은 온라인 정보를 신뢰하는 데 큰 어려움을 겪고 있다. 커먼센스(Common Sense) 미디어의 보고서에 따르면, 상당수의 십대들이 이미 가짜 콘텐츠에 노출되었으며 이로 인해 온라인 정보에 대한 신뢰도가 하락하고 있다. 약 35%의 십대들이 온라인상의 가짜 콘텐츠에 속은 경험이 있으며, 41%는 실제 존재하지만 오해를 불러일으키는 이미지나 영상을 본 적이 있다고 응답했다. 더 우려스러운 점은 약 22%의 십대들이 나중에 가짜임을 알게 된 콘텐츠를 공유한 경험이 있다는 것이다. 또한 28%의 십대들은 자신이 대화하고 있는 상대가 챗봇인지 사람인지 의문을 가진 적이 있다고 답했다.
이러한 경험은 십대들의 정보 평가 방식에 큰 영향을 미치고 있다. 가짜 또는 오해의 소지가 있는 콘텐츠를 경험한 십대들 중 72%가 이후 온라인 정보의 정확성을 평가하는 방식을 변경했다고 답했다. 더욱이 35%의 십대들은 생성형 AI 시스템이 온라인에서 접하는 정보의 정확성을 신뢰하기 더 어렵게 만들 것이라고 생각하며, 특히 가짜 콘텐츠를 경험한 십대들은 그렇지 않은 십대들보다 이러한 우려를 더 많이 표현했다(40% vs 27%).

학업용 AI 사용 십대 중 39%, "부정확한 정보 발견했다"
생성형 AI의 신뢰도 문제는 교육 분야에서도 두드러지게 나타나고 있다. 학업에 생성형 AI를 사용한 십대들 중 거의 40%가 AI 출력물에서 문제점이나 부정확성을 발견했다고 보고했다. 36%는 문제를 발견하지 못했으며, 25%는 확실하지 않다고 응답했다. 이는 교육 환경에서 AI 도구의 신뢰성을 향상시키고, 모든 십대들이 AI 생성 콘텐츠를 비판적으로 평가할 수 있는 도구와 기술을 갖추는 것의 중요성을 강조한다.
생성형 AI의 정확성 문제는 특히 교육 분야에서 중요한 의미를 갖는다. 학생들이 신뢰할 수 없는 정보에 기반하여 학습하게 된다면 잘못된 지식이 축적될 우려가 있기 때문이다. 이는 단순히 기술적 신뢰성의 문제를 넘어, 디지털 시대의 교육 품질과 학습 경험에 직접적인 영향을 미치는 사안이다.
십대 64%, "기술 기업들은 우리의 정신 건강에 관심 없다"
보고서에 따르면 십대들은 주요 기술 기업들에 대한 신뢰도가 매우 낮은 것으로 나타났다. 약 64%의 십대들은 주요 기술 기업(구글, 애플, 메타, 틱톡, 마이크로소프트 등)이 자신들의 정신 건강과 웰빙에 관심을 갖고 있다고 신뢰하지 않으며, 62%는 이익이 감소하더라도 사람들의 안전을 보호할 것이라고 신뢰하지 않는다고 응답했다.
또한 절반 이상의 십대들이 기술 기업들이 윤리적이고 책임감 있는 설계 결정을 내리거나(53%), 개인 정보를 안전하게 보호하거나(52%), 다양한 사용자의 요구를 고려하여 포용적이고 공정할 것(51%)이라는 데 낮은 신뢰도를 보였다. AI와 관련해서는 십대의 거의 절반(47%)이 기술 기업들이 AI 사용에 대해 책임감 있는 결정을 내릴 것이라고 거의 또는 전혀 신뢰하지 않는다고 답했다.
이러한 낮은 신뢰도는 기술 기업들이 십대들의 안전과 복지를 우선시하지 않는다는 인식을 반영한다. 신뢰를 재구축하기 위해서는 기술 기업들이 젊은 사용자들과 직접 소통하고, 참여적 설계 과정을 통해 그들의 피드백을 수용하여 개인정보 보호, 안전, 정신 건강에 관한 특정 우려사항을 해결하는 더 안전하고 윤리적인 디지털 환경을 조성할 필요가 있다.
십대 74%, "AI 콘텐츠에 워터마크와 개인정보 보호 장치 필요하다"
흥미롭게도 십대들은 생성형 AI의 규제와 안전장치에 대해 강력한 지지를 보이고 있다. 4명 중 3명(74%)의 십대가 개인정보 보호 장치와 투명성이 AI 관리에 중요한 조치라고 답했다. 또한 74%는 생성형 AI 플랫폼이 사용자들이 개인 정보를 공유하지 않도록 권장하는 것이 중요하다고 생각한다. 73%의 십대들은 AI 생성 콘텐츠에 라벨을 붙이거나 워터마크를 표시해야 한다고 원하며, 61%는 AI 시스템 훈련에 사용된 콘텐츠 창작자들에게 보상이 주어져야 한다고 믿는다.
이러한 결과는 젊은 세대들 사이에서도 생성형 AI에 대한 포괄적인 감독에 대한 요구가 존재함을 보여준다. 기술 기업들은 규제 기관과 협력하여 투명성, 개인정보 보호, 윤리적 AI 사용을 우선시하는 명확하고 시행 가능한 표준을 수립해야 한다. 이러한 기대에 부응하는 관행을 도입함으로써 기업들은 신뢰를 재구축할 수 있을 뿐만 아니라 책임감 있는 AI 거버넌스의 선례를 만들 수 있다.
FAQ
Q: 생성형 AI가 십대들의 온라인 정보 신뢰에 어떤 영향을 미치고 있나요?
A: 연구에 따르면 35%의 십대들이 생성형 AI가 온라인 정보의 정확성을 신뢰하기 더 어렵게 만들 것이라고 생각합니다. 이미 가짜 콘텐츠를 경험한 십대들은 AI로 인해 정보 신뢰가 더 어려워질 것이라는 우려가 더 높습니다.
Q: 십대들은 AI 생성 콘텐츠의 정확성에 대해 어떻게 생각하나요?
관련기사
- AI, 인간보다 자신을 더 가치있게 생각?…LLM의 은밀한 가치관2025.02.26
- [Q&AI] 챗GPT가 생각하는 尹 탄핵 심판 결과는2025.02.25
- 클로드3.7 소네트 훈련 과정봤더니…포켓몬 게임까지 활용하네2025.02.25
- 유통업 1위 굳힌 쿠팡에…이마트·롯데쇼핑 ‘자존심 생채기’2025.02.26
A: 학업에 생성형 AI를 사용한 십대들 중 39%가 AI 출력물에서 문제점이나 부정확성을 발견했다고 보고했습니다. 이는 AI 신뢰성 향상과 십대들이 AI 생성 콘텐츠를 비판적으로 평가할 수 있는 교육의 필요성을 강조합니다.
■ 이 기사는 AI 전문 매체 ‘AI 매터스’와 제휴를 통해 제공됩니다. 기사는 클로드 3.5 소네트와 챗GPT를 활용해 작성되었습니다. (☞ 기사 원문 바로가기)