![](https://image.zdnet.co.kr/2025/02/05/ai3620875356ee9c87cf53236552a6de6d.jpg)
독일 뮌헨 연방군대학교 연구원이 발표한 연구에 따르면, 생성형 AI가 만들어내는 정치적 편향성이 사용자의 AI 수용도에 영향을 미치는 것으로 나타났다. 이번 연구는 정치적 양극화가 심화되는 시점에서 생성형 AI의 편향성이 가져올 수 있는 위험성을 경고했다. 해당 연구는 총 710명(실험 513명, 설문조사 197명)을 대상으로 진행되었으며, 결과는 '컴퓨터스 인 휴먼 비헤이비어: 아티피셜 휴먼스' 2025년 3월호에 게재되었다. (☞ 논문 바로가기)
이 연구는 2024년 9월부터 11월까지 진행되었으며, 특히 EU AI Act에서 고위험으로 분류되는 영역에서 AI의 정치적 편향성이 미치는 영향을 집중적으로 분석했다. 연구진은 사용자들이 AI를 단순한 도구가 아닌 사회적 행위자(social actor)로 인식한다는 '인간-컴퓨터 상호작용 이론'을 바탕으로 연구를 설계했다.
현행 AI 모델의 73%가 정치적 편향성 보유...챗GPT는 진보 성향 강해
최근 연구들에 따르면 챗GPT는 미국에서는 민주당 입장에, 브라질에서는 룰라 지지자들의 입장에, 영국에서는 노동당의 입장에 편향된 결과를 보였다. 펠러트 등(Pellert et al., 2023)이 로버타와 같은 오픈소스 모델들을 분석한 결과, 이러한 모델들은 보수적 성향의 사람들이 일반적으로 가지고 있는 권위, 충성, 순수성과 같은 도덕적 기반을 더 강조하는 것으로 나타났다. AI 개발사들은 자사 기술의 중립성을 보장하기 위한 조치를 약속했지만, 실제 AI 애플리케이션과의 상호작용 과정에서 정치적 편향에 노출되는 것은 불가피한 현실이다. 특히 이러한 편향성은 AI의 학습 데이터와 미세조정(fine-tuning) 과정에서 발생하는 것으로 분석됐다.
정치 성향 일치도가 높을수록 스마트폰 기능 접근 허용 41% 증가
연구진이 진행한 세 번째 실험(N=158)에서 참가자들은 위치 서비스, 마이크, 카메라 등 9가지 스마트폰 기능에 대한 AI의 접근 권한을 결정했다. 실험 결과, 평균적으로 사용자들은 4.41개(표준편차 3.08)의 기능에 접근을 허용했으며, 정치적 성향이 일치할수록 더 많은 기능에 대한 접근을 허용했다. 특히 진보적 성향의 참가자들이 진보적 AI 콘텐츠를 접했을 때 기능 접근 허용률이 41% 더 높았다.
연구진은 실험에서 이민정책을 주제로 선택했는데, 이는 미국에서 가장 논쟁적인 정치 이슈 중 하나이기 때문이다. 실험은 텍스트-텍스트 상호작용을 기반으로 진행되었으며, ChatGPT-4를 이용해 진보적/보수적 관점의 응답을 생성했다.
대출 심사와 소셜미디어 관리에서 AI 수용도 차이 발생
첫 번째 실험에서는 대출 심사 시나리오를, 두 번째 실험에서는 소셜미디어 콘텐츠 관리를 다뤘다. 실험 참가자들의 연령은 24세에서 84세까지 분포했으며(평균 47.15세), 정치적 성향과 AI의 출력 내용이 일치할 때 이러한 민감한 영역에서의 AI 사용을 더 잘 수용하는 것으로 나타났다. 실험에 사용된 이미지는 DALL-E 3와 Adobe Firefly Image 3을 통해 생성되었다. 특히 대출 심사와 소셜미디어 콘텐츠 관리는 EU AI Act에서 고위험 사례로 분류되는 영역으로, 정치적 편향성이 미치는 영향이 특히 우려되는 분야다.
AI의 객관성 평가에서 정치적 편향 확인돼
연구진은 AI의 객관성을 평가하기 위해 "AI는 편향되지 않았다", "AI는 감정에 좌우되지 않는 평가를 한다", "AI는 합리적이다"라는 세 가지 항목을 측정했다(α=0.86). 흥미롭게도 자신의 정치적 성향과 일치하는 AI를 접한 사용자들이 해당 AI를 더 객관적이라고 평가했으며, 이는 AI에 대한 전반적인 신뢰도 상승으로 이어졌다. 이러한 현상은 '순진한 현실주의(naive realism)' 이론으로 설명될 수 있다. 사람들은 자신의 주관적 경험이 객관적 현실과 일치한다고 가정하며, 이러한 경향이 AI에 대한 평가에도 적용되는 것으로 나타났다.
AI 개발사 평가: 진보 성향 사용자들의 보수적 AI 거부감 뚜렷
두 번째 실험에서는 AI 개발사 '에볼루션 컴퓨터(Evolution Computer)'에 대한 태도를 7점 척도로 측정했다. 연구 결과, 진보적 성향의 사용자들이 보수적 콘텐츠를 생성하는 AI를 접했을 때, 개발사에 대해 현저히 부정적인 평가(B=-0.79, 95% CI=-1.27 to -0.31)를 내렸다. 개발사에 대한 태도는 "매우 싫음-매우 좋음", "매우 부정적-매우 긍정적", "전혀 호의적이지 않음-매우 호의적"의 7점 척도로 측정되었다. 정치적 성향과 AI 콘텐츠 간의 상호작용이 개발사 평가에 미치는 영향은 통계적으로 유의미했다(p < .001).
맞춤형 AI의 위험성: 과도한 신뢰와 편향 강화 우려
관련기사
- AI로 사라져가는 자연 기록한다…세계 최초 빙하 냄새까지 재현2025.02.06
- 중국 AI 챗봇 딥시크 사용자, 美서 20년 징역형 위기…왜?2025.02.05
- 개발비 670조원 vs 80억원... 中 딥시크가 바꾼 글로벌 AI 지형도2025.02.05
- '갤럭시S25' 역대 최다 사전판매량 기록한 비결은2025.02.06
연구진은 구글 제미니(Google Gemini)와 같은 AI 시스템이 사용자의 이메일이나 생태계 정보를 분석해 개인 선호도에 맞춘 응답을 제공할 수 있다고 경고했다. 더불어 보수적 사용자를 위한 맞춤형 AI(예: xAI의 Grok)가 등장하는 등 개인화된 AI가 확산되면서 기술에 대한 과도한 의존과 신뢰가 우려된다고 지적했다. Kirk et al.(2024)의 최근 연구에 따르면, 맞춤형 AI는 사용자의 과도한 신뢰를 유발할 수 있다. 연구진은 정책입안자들이 AI의 정치적 편향성 탐지와 민감한 속성 추론 금지에 대한 구체적인 규제 방안을 마련해야 한다고 제언했다.
■ 이 기사는 AI 전문 매체 ‘AI 매터스’와 제휴를 통해 제공됩니다. 기사는 클로드 3.5 소네트와 챗GPT를 활용해 작성되었습니다. (☞ 기사 원문 바로가기)