AI 기술로 민주주의 강화할 수 있을까

컴퓨팅입력 :2026/05/07 14:03

MIT 테크놀로지 리뷰가 5월 5일(현지시간) 'AI를 활용해 민주주의를 강화하는 청사진(A blueprint for using AI to strengthen democracy)'을 공개했다. 필자는 에릭 슈미트 사무실 소속 앤드류 소로타(Andrew Sorota)와 조시 헨들러(Josh Hendler). AI가 시민이 정보를 얻고 공론장에 참여하는 핵심 인터페이스로 자리 잡는 가운데, 그 설계가 민주주의를 강화할 수도, 더 망가뜨릴 수도 있다는 문제의식이 출발점이다.

청사진은 AI의 역할을 세 개 레이어로 나눠 본다. 첫째는 정보 레이어(Informational Layer)다. AI 회사들이 모델 출력의 사실성을 끌어올리는 노력을 강화해야 한다는 것이 핵심이다. 흥미로운 실증 결과도 인용됐다. X(트위터)의 커뮤니티 노트(Community Notes)에 적용된 AI 사실 확인은 정치 성향이 다른 사람들 모두에게서 사람이 쓴 노트보다 더 도움이 된다는 평가를 받았다. 사람 진영 어느 쪽도 신뢰하기 어려운 매뉴얼 팩트체크와 달리, AI가 양당파에서 동시에 신뢰를 얻을 수 있는 가능성을 보여준 셈이다.

둘째는 에이전트 레이어(Agentic Layer)다. AI 에이전트가 점점 더 사용자를 대신해 결정을 내리는 시대가 오는데, 이 에이전트가 진짜 사용자의 가치관을 충실히 대변하는지 검증할 메커니즘이 필요하다는 주장이다. 단순한 '정확한 답변'을 넘어 '내 의도와 일치하는 행동'을 평가할 새로운 벤치마크가 필요하다.

셋째는 집단 레이어(Collective Layer)다. 모든 사람이 자기 의견에 맞춰진 개인화 에이전트만 갖게 되면, 사회 전체로 보면 그것은 더 이상 공론장이 아니라 '사적 세계의 모음'이 된다는 경고다. 민주주의가 요구하는 공동 토론(shared deliberation)에 적대적인 환경이 만들어진다는 것이다.

이 글은 단순한 칼럼이 아니라 정책 권고에 가깝다. AI 회사들에는 출력 사실성 강화와 양당파 신뢰성 확보라는 책임을, 규제 당국에는 에이전트 검증 표준 마련을 요구한다. 한국 맥락에서도 시사점이 크다. 2026년 1월 시행된 한국형 AI 기본법과 EU AI 법, 미국에서 검토 중인 트럼프 행정부의 'AI 워킹그룹' 행정명령(5월 5일 NYT 단독)이 모두 비슷한 질문에 답하고 있다. AI가 공공 인프라가 되는 시점, 누가 무엇을 책임지고 어떻게 검증하는지가 다음 5년의 핵심 과제로 떠올랐다.

▶ 자세한 내용은 MIT 테크놀로지 리뷰에서 확인할 수 있다.

▶ 이미지 출처: 이디오그램 생성


■ 이 기사는 AI 전문 매체 ‘AI 매터스’와 제휴를 통해 제공됩니다. 기사는 클로드 3.5 소네트와 챗GPT를 활용해 작성되었습니다. (☞ 기사 원문 바로가기)