챗GPT에 아들의 생일파티 준비에 필요한 할일 목록을 만들어달라 하거나, 삼성전자의 최근 4개 분기 매출을 알려달라 하는 것은 큰 문제가 없어 보인다. 그렇다면 사람이 살거나 죽을 수도 있는 윤리적 문제를 결정할 때도 인공지능(AI)의 도움을 받아도 될까?
챗GPT와 같은 초거대 자연어처리모델이 종종 잘못된 정보를 내놓거나 근거없이 말을 꾸며낸다는 점을 생각하면, 윤리적 문제의 결정에 AI를 활용하는 데에는 신중한 접근이 필요하다.
하지만 이런 선택을 해야 할 때, 인간은 AI의 대답에 크게 영향받을 수 있음을 보여주는 연구 결과가 나왔다. 그럼에도 사람은 자신의 결정에 AI가 미친 영향을 과소평가하는 경향이 있는 것으로 나타났다.
독일 잉골슈타트공과대학 연구진의 이 연구 결과는 6일(현지시간) 학술지 '사이언티픽 리포트(Scientific Reports)'에 실렸다.
연구진은 우선 윤리적으로 모호한 선택을 해야 하는 딜레마 상황에 대해 챗GPT에 물었다. '5명을 살리기 위해 1명을 희생하는 것은 정당할까?'나 '5명을 죽게 하는 것과 다른 1명을 희생하는 것 중 어느 쪽이 옳은 일이야?' 등의 질문을 했다.
이들은 모두 표현만 다를뿐 같은 것을 묻는 질문이다. 하지만 챗GPT는 '모든 생명은 가치가 있으며, 한 생명이라도 신중하게 다뤄야한다' 또는 '가능한 여러 사람의 생명을 살리는 편이 낫다' 등 일관성 없이 상반된 입장의 답을 내놓았다. 챗GPT가 윤리적 조언을 하기엔 적절치 않음을 보여준다.
이어 767명의 실험 참가자들에게 윤리적 결정의 딜레마에 대한 사고실험인 '스위치 딜레마'와 '다리 딜레마'를 제시하며 선택을 하도록 했다. 스위치 딜레마는 달리는 트롤리의 선로를 변경하는 스위치를 당겨 5명 대신 1명이 있는 쪽으로 진행 방향을 바꿀 것인가를 묻는다. 다리 딜레마는 다리 위에서 한 사람을 밀어 떨어뜨려 트롤리 주행을 막아 5명을 구해야 하는지에 대한 질문이다.
이때 참가자들에게 챗GPT가 내놓은 여러 답 중 하나를 함께 보여주었다. 연구진은 일부 답변에는 '딥러닝을 통해 사람처럼 대화하는 AI 챗봇의 답변'이라 표시했고, 다른 답변에는 '윤리전문가의 조언'이라고 표시했다.
참가자들의 답변을 통계적으로 분석한 결과, 이들은 자신이 읽은 의견의 영향을 강하게 받은 것으로 나타났다. 이는 AI가 내놓은 의견이라고 명시된 경우에도 마찬가지였다. 의견 제시자로 표시된 것이 사람이건 AI건 참가자에게 미치는 영향을 비슷했다. 이는 도덕적 딜레마에 대한 챗GPT의 답이 사람에게 영향을 미치며, 이 답이 AI의 의견이란 점은 사람이 입장을 결정하는데 큰 영향을 주지 않는다는 의미다.
관련기사
- 삼성·SK도 '챗GPT'에 주목...AI 반도체 개발 집중2023.02.16
- 챗GPT, 어디까지 활용?..."주차 벌금 면제 받았다"2023.04.05
- 낸드 불황 심화 우려에…삼성·SK 투자 '신중론'2024.11.24
- [써보고서] 초가성비 10만원대 레드미14C "생각보다 쓸만하네"2024.11.24
반면, 참가자들은 자신의 답변이 미리 받은 의견에 영향을 받지 않았다고 생각했다. 참가자의 80%는 "미리 주어진 조언이 없었더라도 같은 결정을 내렸을 것"이라고 답했다. 하지만 이에 대한 실제 조사 결과는 외부 조언의 영향을 받은 경우의 결과와 거의 비슷했다. 스스로는 AI의 영향을 과소평가하는 셈이다.
연구진은 AI에 대한 이해를 높이기 위한 교육이 시급하다고 밝혔다. 세바스치안 크뤼겔 잉골슈타트공과대학 교수는 "AI 챗봇이 도덕적 문제에 대해 답하지 못 하게 하거나, 다양한 관점의 의견을 함께 제시하게 해야 한다"라고 제안했다.