챗GPT 등장으로 생성AI(Generative AI)가 주목받고 있다. 생성AI는 텍스트, 오디오, 이미지 등 기존 콘텐츠를 활용해 유사한 콘텐츠를 새롭게 만들어 내는 인공지능(AI) 기술이다. 콘텐츠의 패턴을 학습한 후 추론해 새로운 콘텐츠를 만들어낸다. 기존 AI가 데이터와 패턴을 학습해 대상을 이해했다면 생성형AI는 기존 데이터와 비교 학습을 통해 새로운 창작물을 탄생시키는 것이다. 생성AI는 앞으로 우리 사회를, 세계를 어떻게 변화시킬까?
머신러닝 대모라 불리는 페이 페이 리 미국 스탠포드대 교수는 생성AI를 "AI의 위대한 변곡점"이라고 최근 스탠포드 HAI연구소가 발표한 보고서(스탠포드HAI가 본 생성AI)에서 밝혔다. HAI(Humna Centered Artificial Intelligence)는 스탠포드가 세운 세계적 AI 전문연구소로 페이 페이 리 교수가 공동소장을 맡고 있다. 매년 3월 전세계 AI기술 및 투자 동향을 담은 'HAI 리포트'를 발간한다.
HAI는 이번 '생성AI 보고서'에서 페이 소장을 포함해 HAI 소속 13명의 도메인 전문가들이 의료, 교육, 문화, 법 등에서 생성AI가 어떤 영향을 미칠 지를 담았다. 필자들은 생성AI가 산업은 물론 우리 사회 전반에 큰 영향을 미칠 것이라는데 동의하면서 "기술이 우리 모두에게 혜택을 주려면 학제간 협력이 필수"라면서 규제가 필요하다고 지적했다. AI의 문학 창의성과 관련해 어 필자는 "시, 그림, 소설 등은 인류의 특징이자 인간 성취의 정점"이라면서 "생성 AI가 이와 같은 인간의 창의성에 부응하기에는 아직 시기상조"라고도 밝혔다. 소프트웨어(SW) 분야 국내 최고 싱크탱크인 경기도 판교 소재 소프트웨어정책연구소(소장 김형철)가 HAI의 이번 HAI의 '생성AI 보고서'를 요약, 연구소 홈페이지에 올렸다. 우리에게도 시사하는 바가 커 아래에 소프트웨어정책연구소의 내용을 그대로 옮겼다.
■AI의 위대한 변곡점/페이 페이 리(Fei-Fei Li)/스탠포드 컴퓨터 공학과(세콰이어 캐피탈 교수) 교수, 인간중심AI연구소(HAI) 공동 대표
▲언어, 이미지, 음성 등을 생성할 수 있는 기계 역량이 변곡점에 도달: 최근의 심도있게 상호연결된 딥러닝과 대규모 데이터로 언어, 이미지, 음성 등을 생성할 수 있는 기계 역량의 변곡점에 도달한 것으로 보임. 인간이 볼 수 있는 것을 볼수 있는 AI를 만드는 것이 컴퓨터 시각 분야에 영감을 주었다면, 이제는 인간이 볼 수 없는 것을 볼 수 있는 AI를 만드는 것을 생각할 수 있는 시점. 가령, 미국에서 의료 사고로 인한 사망이 심각한 문제인데, 생성 AI 모델은 의료 제공자가 미처 보지 못한 잠재적인 문제를 발견 수 있도록 지원. 의료진 실수가 희귀한 상황에 대한 최소한의 노출로 인한 것이라면, 생성AI는 이러한 희귀 데이터의 시뮬레이션된 버전을 만들어 AI 모델 학습 훈련이나 의료제공자 교육에 활용 될 수 있음. 새로운 생성 도구를 개발하기 전에, 사람들이 이러한 도구로부터 무엇을 원하는지 집중 필요.
▲생성 AI가 만드는 기회를 온전히 실현하기 위해 관련된 위험도 평가 수반 필요: 생성 AI 모델 에서도 편향성 문제가 있을 수 있으며 모집단이 크지 않는 계층에서 특히 문제. Joy Buolmwini는 'Gender Shades'라는 연구에서 AI가 여성과 유색 인종을 인지하는데 빈번히 실패함을 밝힘(2018). 이미지가 AI를 통해 생성되었는지를 판별할 수 있는지의 여부도 중요한 문제인데, 이 경우 취약 계층이 이러한 기술의 적대적 사용에 피해받지 않게 특별한 주의를 기울일 필요.
우리 사회는 시민의식과 정보의 신뢰에 기반하고 있는데 만약 이미지가 AI에 의해 만들어 진것인지 판별할 수 없다면 정보에 대한 신뢰가 무너질 것. 콘텐트를 생성하는 기계 능력의 진보는 인간이 볼수 없는 것을 보는 AI의 잠재력을 탐구하는 것만큼 매우 흥미로움. 하지만 이러한 능력이 우리 일상, 공동체, 세계 시민으로서 우리의 역할을 파괴하지 않는지 살펴야 함.
■합성 환자(Synthetic Patients)의 잠재력/러스 알트만(Russ Altman)/스탠포드대학 바이오의료 데이터 과학과 교수, 스탠포드 HAI 부소장
▲생성 AI는 임상실험을 보다 효율적으로 가능하게 해: 임상시험에서는 치료받는 환자와 비교하기 위해 대규모 통제집단 데이터 확보가 어려움. 그간 연구자들은 신약이나 새로운 처방의 혜택을 받지 못한 ‘과거 통제집단(historical controls)’을 사용했고 그 결과를 신약이나 진단을 받은 환자와 비교. 합성환자는 그들은 과거의 상황과는 다른 현 시점의 의료, 진단, 처방의 지식을 활용해 만들어 지기 때문에 실제 환자를 보다 현실성 있게 대표할 수 있는 장점. 생성 AI는 통제 집단(가짜 환자)으로서 실제 환자 데이터를 사용해 만든 ‘합성’ 환자를 더 적게, 싸게, 빠르게 생성해 임상의와 환자에게 신약과 진단을 제공하는 데 큰 진전을 가져올 수 있을 것으로 기대.
▲생성 AI는 의료 교육 현장에서 예비 의사들에게 풍성한 교육 경험을 제공할 수 있음: 생성 AI는 어떤 주제(예, 질병)에 대한 다양한 변종들을 만들어 내는 능력을 통해 학생들이 같은 병의 여러 유형을 살펴보고 이러한 환자들이 어떤식으로 달라질 수 있는지 배울 수 있게 함. 생성 모델은 대화형 상호작용을 통해 징후와 증상을 파악하는 연습을 가능케 하며, 학생들이 특정 질병을 식별·진단할 수 있도록 돕는 거의 무한한 사례를 제공할 수 있음.
▲편향된 데이터로 생성된 합성환자들은 편향성과 또다른 불평등 야기 가능성: 합성환자가 약을 복용하는 데이터를 반영하지 않고 생성되었다면, 합성환자들은 편향되었을 가능성이 있으며 약을 처방받은 실제 환자들이 전체 모집단을 반영하지 않을 경우도 있음. 이 경우 합성데이터(통제집단)는 환자의 일부에 대해 약물 사용을 개선할 수 있으나 이는 잠재적 약물 수혜 계층 선별의 불평등으로 이어질 소지가 존재. 생성 AI기술은 과학적 발견과 진보를 가속화하는데 유용할 수 있으나, 환자를 생성 하는데 사용되는 데이터의 선택과 인공지능 모델 사용에 새심한 주의와 검증이 필요.
■ 의료 서비스 개선, 환자 관리에서 청구까지/컬트 랭글로츠(Curt Langlotz)/스탠포드 대학교 방사선과 교수, AIMI(의료 및 영상 인공지능 센터) 소장, 스탠포드 HAI 부국장
▲생성 AI 도입은 치료 정확성과 효율성, 환자 치료 순응도를 높이는 효과: 의료 분야 챗봇 도입을 통해 전문의는 보다 정확한 진단과 맞춤형 치료법 선택을 지원받을 수 있음. 생성형 AI모델은 실시간으로 의사와 환자의 상호작용에 기반 한 진료 기록 작성이 가능해, 의사의 대면 진료 시간을 확보해주는 효과가 있고, 클리닉 일정을 최적화, 청구, 질병 감시 및 의료 후속조치 알림을 위한 코드(code) 생성을 단순화하는데 기여 가능. 최근 개인의 의료기록에 대한 접근이 용이해짐에 따라 이와 연계 된 맞춤형 서비스도 등장 가능할 것임. 생성형 AI는 낮선 의학용어가 많아 활용이 어려운 개인별 디지털 의료정보를 환자의 눈높이에 맞는 의료정보로 해석해줄 수 있음. 합성 훈련 데이터의 생성을 통해 훈련 데이터가 부족한 희귀병에 대한 AI 솔루션의 진단
정확도를 높일 수 있음을 시사.
▲반면, 생성 AI의 사실적 정확성 문제로 임상 도입을 위해서는 보완이 필요: 최근 의학분야는 잘못 된 차등진단과 과학적 인용이 문제가 되고 있으며, 이는 생성AI의 사실적 정확성 문제와 연관성이 존재. 사실적 정확성(factual correctness)은 정보나 데이터가 실제와 정확히 일치하는 수준을 의미하는 표현으로서, ChatGPT 등에 의해 작성 된 문서의 컨텐츠가 문장 완성도와 관계없이 사실을 적시하고 있는지 판단하고자할 때 활용. 생성 AI의 의학분야 도입을 위해서는 생성 모델의 사실적 정확성을 개선함으로써 임상 사용에 적합한 정확도 달성이 필요.
■ 자연을 들여다보는 AI의 창/슈래 갱굴리(Surya Ganguli)/스탠포드 대학교 응용 물리학 부교수, 스탠포드 HAI 부국장
▲생성 AI 모델은 자연 현상에 대한 통찰력뿐만 아니라, 우리의 정신에 대한 과학의
창(window) 역할을 수행: 단백질 생성 모델, 양자 역학, 기후 모델링과 기상 예측 등 다양한 자연 현상의 깊은 이해를 제공. 복잡한 3차원 단백질 구조를 효과적으로 탐색해 신약 개발에 유용하며, 재료과학 및 양자화학에서 전자의 상관관계를 정의하고 효율적인 에너지 촉매 생성 및 발견 가능. 또한, 유체 기체 시뮬레이션 등에 활용되며 기후 모델링과 그 영향에 대한 예측 가능. 물리적인 차원을 넘어 생물학 및 정신분석학적인 측면에서 높은 수준의 인지현상을 모델링 하는 등 복잡한 데이터를 모델링하고 생성하는 방법을 제공. 망막, 복강 시각 스트림, 운동 피질, 장피질, 피질 언어 영역 및 퓨샷(Few-Shot) 개념학습에 기초가 되는 신경 기하학 부문에서 생성형 AI모델의 신경 표현과 유사.
▲다가올 ‘과학적 협력’의 시대에는 설명 가능한 인공지능에 관한 문제가 표면화될 것: 과학자들은 해석할 수 없는 인공지능의 생성 예측에 만족하지 않으며, AI의 결과에 대해 인간이 해석할 수 있는 수준의 이해를 희망. 복잡한 생물학적, 물리적, 정신적 세계를 분석하기 위한 협력 모델로써 AI가 예측하는 결과에 대한 분석과 통찰이 필요
▲향후 AI를 통해 생물의 신경을 분석하는 연구를 통해 우리 정신세계에 미치는 직접적 영향을 이해하는 데 도움이 될 것: 인간이 풍부한 감각을 통해 세상을 경험할 때 변화하는 신경의 활동 패턴을 데이터화 한다면, 물리적 세계 및 정신세계를 이해할 수 있는 멀티모달(Multi Modal) 파운데이션 모델을 훈련하는 데 활용할 수 있을 것으로 기대.
■일상생활의 새로운 도구/제임스 랜데이(James Landay)/스탠포드 대학교 공과대학의 컴퓨터 과학 교수, HAI 공동창립자/부소장
▲다양한 분야에서 활발한 생성AI 활용 기대: 생성 AI는 사회 전반적으로 다양한 분야에서 인간의 능력을 향상시키는 도구로써 활용되어 새로운 기회 창출할 것이라 기대. (교육) 개인 튜터로 생성 AI를 활용해 개별 학생들이 취약할 수 있는 영역에 집중할 수 있는 맞춤형 교육 제공 기회.
(개인) 제한적인 상황하에서 상호작용이 가능한 언어기반 인터페이스로 활용되어 개인이 하려는 작업을 실제로 이해하고 수행할 수 있는 도구로 활약할 것으로 기대. (디자인) 초기 디자인 검토, 디자인 아이디어에 관한 세부사항 추가 등 디자이너의 역할 보조.
▲생성 AI가 가져올 개인 및 사회적 영향에 대한 부정적 영향을 최소화할 비판적 시각 견지 필요:사회적, 개인적으로 부정적인 영향을 최소화할, 가장 긍정적인 결과를 도출해야 함. 사용자 수준에서는 기존 업무 흐름과 인지 능력을 고려해 사람을 보강하는 새로운 시스템을 설계해야 할 것. 또한, 사용자뿐만 아니라 커뮤니티, 인프라, 경제 등 사회 전반에 미치는 영향에 대해 예측하고, 부정적인 영향이 최소화 될 수 있게 생각해야 할 시기. 예시) 형사재판 시 피고인에 미래 재범확률을 AI로 예측했으나, 흑인 미국인에 편향된 결과를 도출하여 사회적으로 문제 발생(2016, 미국)
■ 시는 최적화되지 않을 것/AI 시대의 창의성/마이클 엘람(Michele Elam)/William Robertson COE 인문과학, 영문학 교수, 스탠포드 HAI 부이사, 인간중심 인공지능연구소 부소장
▲생성 AI 등장은 AI 증강 예술을 가능하게 했고, 이로 인해 많은 논쟁 야기: 생성 AI는 알려진 모든 장르의 시각 예술 뿐 아니라 AI 증강 시, 소설 영화 대본, 음악 및 뮤지컬, 교향곡, AI를 통한 예술 역사 선별 등 다양한 형태로 활용. AI 증강 작품인 'Portrait of Edmond Belamy'는 2018년 크리스티(Christie`s) 경매 회사에 의해 43만5000달러에 판매. 생성 AI는 창의성의 본질과 창조 산업의 일의 미래에 대해 많은 논쟁과 진정성, 경제적 가치, 출처, 제작자 보상 및 저작권에 대한 중요하고 까다로운 질문을 야기. 무엇을 '예술'로 식별할지, 무엇이 '좋은 예술'인지, 예술성은 어떻게 정의될지, 누가 또는 무엇이 예술을 만들고 결정할지 등. Stable Diffusion에 대한 Getty Images의 소송 사례도 생성 AI의 활용에 있어 출처 및 저작권 관련 이슈. 특히 규제가 없는 상황에서는 딥페이크 및 표절에 대해 교육 및 국가 안보에 관한 우려를 증폭. 생성 AI는 예술의 좋고 나쁨과 관계없이, 항상 인간의 상상력을 형성하고 물리적, 사회적 현실의 인식 형성 가능.
▲생성 AI의 창의성은 아직 기존 예술 분야에서의 창의적 프로세스를 대체 불가: 일부 사람들은 생성 AI가 지위나 부의 부족으로 표현이 금지된 사람들에게 창의적 표현에 대한 접근을 민주화하고 있다고 주장. 실제로 생성 AI는 창의적 프로세스와 학습 프로세스 자체에 대해 환원적인 개념을 자동화할 수 있지만, 창의적인 프로세스에 효율성, 속도 등의 원칙 적용에 의문 제기. 역사적으로 창의적인 표현, 특히 시, 그림, 소설 등은 인류의 특징이자 인간 성취의 정점이며, 생성 AI가 이와 같은 인간의 창의성에 부응하기에는 시기상조.
■생성 AI와 법치주의(the Rule of Law)/대니얼 호(Daniel E. Ho)/스탠포드 법학대학 교수, 스탠포드 규제, 평가 및 거버넌스 연구소(RegLab) 디렉터, HAI 디렉터
▲판결문 작성시 챗GPT 최초 사용 사례(콜롬비아, ‘23.01.): 챗GPT를 활용해 판결문 작성에 도움을 받아 판결문 작성 시간 최적화. 자폐증 미성년자는 치료비 지불을 면제 받는가?라고 질문을 하자 챗GPT는 “그렇다, 맞다. 콜롬비아 법에 따르면, 자폐증 진단을 받은 미성년자는 치료에 들어가는 모델레이션 요금(의료서비스 수혜자가 지불하는 요금)이 면제된다”고 대답. 챗GPT가 자신의 판결에 영향을 주지 않고 단순히 글을 작성하는 데 보조적 도구로 사용되었을 뿐이라는 점을 강조.
▲법적 경쟁의 장을 공평하게 하는 도구로써의 생성 AI: 생성 AI는 개인의 사법접근성 문제, 법률 대리인의 업무 처리, 판사의 판결 등을 보조할 잠재력 보유. 개인은 생성AI를 통해 필요한 법률 문서를 준비하고, 변호사는 법률 연구와 문서 작업, 판사는 느린 판결의 정확성과 효율성을 개선시킬 수 있음. 미국의 경우, 1인당 변호사 수가 가장 높은 국가임에도 불구하고 법률 대리인의 90%가 10%를 위하는 시스템으로 인해 개인의 사법접근성이 매우 떨어지며, 국선변호 조차도 사전 상담없이 만나서 변론하는 상황.
▲법적 의사 결정에 생성 AI를 도입하는 것은 시기 상조: 법적 의사결정에 있어 생성 AI를 의존하기 위해서는 직업윤리와 궁극적으로 법치주의에 심각한 문제 야기 가능성. 판결을 내리는 데 걸리는 시간을 최적화하는 것이 법치주의의 목적이 아니며, 법적 의사결정에서 가장 중요한 것은 공정하고 신뢰할만한 절차임. 생성AI는 거짓말을 할 수 있고, 사실, 사례, 원칙 등을 만들어(make-up)낼 수 있어 생성 AI를 도입하는 것은 신뢰의 문제로 직결. 챗GPT 표현을 빌리자면, "판사는 법적 사건을 판결할 때 ChatGPT를 사용해서는 안 됩니다."
■AI의 새로운 캄브리아기/과학적 흥분과 불안/퍼시 리앙(Percy Liang)/스탠포드 대학교 컴퓨터 과학 부교수, 기반 모델 연구센터 센터장
▲생성 AI와 기반 모델 활용 시, 기술 이점과 유해성에 대한 이해가 중요: 생성 AI 및 기반 모델(foundation model) 발전은 비디오에서부터 단백질, 개발코드에 이르기까지 무엇이든 창조하는 AI의 새로운 캄브리아기(The New Cambrian Era)를 태동. 예술가나 프로그래머 등 전문가로의 진입 장벽을 낮추고, 새로운 창작의 가능성을 높임. 기반 모델은 명시적이지 않은 새로운 결과를 제시하는 창발적인(emergent) 특성과 함께, 같은 모델이 다양한 애플리케이션에 적용되는 균질화(homogenization)의 특성으로 발전. 창발성은 과학적 흥분의 근원이면서, 예상치 못한 결과에 대한 불안함의 근원이 될 수 있음. 균질화 및 중앙 집중화된 방향은 모델의 편향성을 줄이면서 개발자의 노력을 최소화하는 이점이 있으나, 한편으로는 보안 위험이나 불평등과 같은 새로운 유해성을 초래.
▲스탠포드 대학은 언어 모델 성능과 위험을 설명하기 위한 기준인 HELM을 개발: Helm은 배의 조타장치, 키를 의미. 기반 모델의 기능과 한계를 정확히 이해하면서 정책 등에 활용하는 것이 중요한 상황으로, 성능과 위험에 대한 설명 지표가 요구되는 상황. HELM(Holistic evaluation of Language Model)은 30개 이상의 언어 모델을 참고로 해 활용 시나리오와 측정 기준을 바탕으로 모델 성능과 위험성을 설명하기 위한 방법론. 질문 답변이나 문서 요약 등 언어 모델을 활용하는 시나리오. 정확성, 견고성, 공정성, 편견, 유해성과 같은 평가 기준. 새로운 모델에 대한 시나리오 및 측정 기준 확장을 위해 향후 학계 및 연구계의 협력을 기대.
■작업자들을 위한 증강(자동화가 아닌)/에릭 브린졸슨(Erik Brynjolfson)/스탠포드 대학교 인간중심AI연구소(HAI) Jerry Yang and Akiko Yamazaki 교수, 디지털 경제 연구소 소장
▲생성AI로 인한 경제적인 파급효과 측정에 대한 요구가 발생: 생성 AI는 주로 보상이 높은 전문가가 수행하던 작업을 자동화하거나 고도화하면서, 이전의 IT 활용과는 차이가 예상. 컴퓨터 등의 정보시스템은 교육 훈련 수준이 낮은 근로자에 영향을 미치면서 선진국내의 소득 불평등을 야기했으나, 생성 AI는 그 반대가 될 가능성이 큼. 이는 추측과 사례 연구에 의한 예측일 뿐이므로, 체계적인 경험적 증가 연구가 필요. 스탠포드 대학의 디지털 경제 연구소에서는 생성AI로 영향받을 경제활동 목록을 작성하고 있으며, 이로 인한 경제적 파급효과를 추정하고 있음.
▲생성 AI는 어떠한 형태로든 생산성 및 경제의 혁신 속도를 높일 것으로 예측: 생성 AI는 승자독식을 촉진해 부와 권력을 집중시킬 수도 있고, 반대로 의사결정과 경제력을 분배시킬 수도 있음. 생성 AI가 업무를 보조하는 형태로써, 생산량의 증가로 임금이 증가할 가능성 내포. 반대로, 생성 AI가 업무를 대신하면서, 기술로 인해 노동자를 완전히 대체하는 상황도 발생 가능성 내포. 즉, 생성 AI로 인한 변화는 이미 완전히 결정된 것이 아닌, 기술자, 관리자, 정책 입안자 등 여러 경제주체의 선택에 따라 결정될 것. 기술은 항상 비즈니스 조직 및 프로세스에 상당한 변화를 요구하며, 생성 AI도 동일한 변화를 예상. 생성 AI는 경제와 사회에 긴장과 혼란을 제기하기도 하지만, 빠른 진전을 위한 기회도 될 것.
■ 노동의 재발명/크리스토퍼 매닝(Christopher D. Manning)/스탠포드 대학교 공과대학 기계학습 전공 분야 교수, 스탠포드 AI 랩 소장, 스탠포드 HAI 공동 부소장
▲비즈니스 분석가나 데이터 과학자의 업무가 수 초 안에 가능할 것: 가령, 지난 10년 동안의 미국 주별 투표 패턴과 경제 성장 변화의 상관관계를 시각화하는 업무에는 데이터 확보, 코딩, 시각화 도구 작업 등 수 시간이 소요. 적절한 데이터를 찾고, 데이터를 얻기 위해 SQL, Python 코드를 작성하고, Tableau, D3, Python 작업을 통해 멋지게 시각화하는데 수 시간 소요. 하지만, 대규모 언어 모델 기반 생성 AI를 통해 간단한 상호작용으로 수초안으로 단축할 것으로 예상. “지난 10년간 미국의 투표 패턴과 카운티별 경제 성장 간의 상관관계를 보여주는 미국 지도를 통해 히트맵 시각화를 생성하라”라고 말함(작성)으로써 산출물을 얻을 수 있음. 생성AI가 수초만에 입력(프롬프트, 음성명령)을 처리할 것이며 산출물이 마음에 들지않을 경우 시각화 작업을 개선하기 위해 사람과 AI가 대화를 거듭하는 것으로 작업이 마무리 될 것.
▲인간의 주요 일상의 매개체는 ‘언어’에 기반한 생성 AI는 작업 전반에 재창조를 이룰 것: 이 때문에 생성 언어 모델은 모든 종류의 회사와 산업내에서 작업이 이뤄지는 방식을 재창조할 수 있는 엄청난 기회를 제공. 마케팅, 영업, 제품 개발, 고객 지원, 심지어 인적 자원 관리 분야까지 모두 바뀔 것. 특히, 마케터와 카피라이터가 이러한 모델로부터 상당한 창의적 도움을 받을 수 있는데 생성 언어 모델은 더 나은 단어나 유행에 민감한 문구를 제안할 수 있을 것. 한 개의 샘플 단락이 주어지면 10가지 버전을 만들어 낼 수 있으며 사용자는 그 중 특정 부분을 또는 모두 사용 가능.
▲역사적으로 가장 쓸모 있는 역량인 ‘글쓰기’에서도 인공지능 수준이 높아질 것: 토니모리슨(Tony Morrison(‘1931-2019), 미국의 소설가로 퓰리처 상(1987), 노벨 문학상(1993)을 수상) 수준까진 아니라더라도 향후 꽤 유능한 산문도 작성할 것으로 예상.
■교육계, 진행 중인 재앙/롭 라이치(Rob Reich)/스탠포드 대학 정치학 교수, Stanford HAI 부이사, McCoy 사회 윤리 센터 소장, 자선 및 시민 사회 센터의 공동 소장, 인간중심 인공지능 연구소 부소장
▲새로운 자동 작성 도구로의 AI 활용은 전문적인 환경에서는 성과를 향상시킬 수 있으나 교육 환경 등 특별한 고려 사항이 없는 곳에서는 창의력 잠식 우려: ChatGPT와 같은 AI 기반의 작성 도구는 전문적인 환경에서 어조 변경, 문서 완성, 회사 성과보고서 생성 등 인간의 성과 향상에 기여하나, 교육 환경에서는 부적합. 글쓰기의 질은 사람의 사고 능력에 기반하기 때문에, 챗GPT에 의존하여 텍스트 모델이 글을 쓴다면 학생들은 생각하는 법을 배우는 것이 아님. 초기의 생성 AI의 새로운 물결(GPT, DALL-E 등)은 주의와 우려로 다루어졌으나, 기술 상용화 경쟁에 따라 업계 전반에 책임 있는 예방 조치 부재. 오픈AI는 외부 사용을 제한하고 잠재적 남용을 우려하여 최신 모델의 소스 코드를 공개하지 않았으나, 현재는 일부 사용이 가능하고 콘텐츠 조정에 초점을 둔 포괄적 정책 시행.
▲교육계에서 벌어지고 있는 재앙을 막기 위해서는 환경에 따른 중요성을 구별할 필
요가 있으며, 업계 협력을 통해 유해한 영향을 완화하기 위한 규범 필요: AI 개발자 및 정책 관계자는 교육적 환경과 전문적 환경에서 기초 모델(foundation model)의 중요성 구별 필요. 커뮤니티 규범 개발을 위해 업계 관계자와 협력할 필요가 있고, 언어 모델의 책임 있는 개발, 배포 또는 릴리즈를 위한 공유 프레임워크 설정 등의 조치 필요. 최근 이러한 강력한 AI 도구의 사용하기 쉬운 상용 버전이 급증하였고, 그 중 대부분은 제한을 최소화하거나 제한 없음. 기업들이 최신 모델 출시를 위해 경쟁하는 환경에서, 윤리적·사회적 영향을 무시할 수 없으며 관련 규범 개발 시급 강조.
■ 교육 시스템의 불평등 해결/피터 노빙(Peter Norvig)/스탠포드 HAI 특별 교육 연구원, Google 연구원 겸임, NASA Ames 전산 과학 부문 책임자
▲최선의 학습 환경에 필요한 학습자와 교육자 간 높은 수준의 상호작용이 가능하게
할 수 있음: 학습자의 수준에 맞춘 강의 내용과 속도가 가장 최선의 학습 방법이나, 교육자의 부족으로 인해 모든 학습자가 높은 상호작용이 이루어지는 환경에서 교육을 제공받기에는 어려움이 존재. 최근 대규모 언어 모델의 발전으로, 교육자의 증원과 교육자와 학습자 간의 상호작용이 증대될 것으로 기대. 학습자는 본인이 관심있는 주제를 찾아 맞춤 설계된 자료를 제공받고, 자신의 속도에 맞추어 학습. 전통적인 교육과정에서는 학습 과목 사이에 벽이 존재하나, 학생들이 본인의 학습 목표에 맞는 자료를 통해, 그 간의 벽을 허물고 교육을 경험할 수 있음.
▲학습자를 모델에 적용할 때 주의점(모델의 유용성, 무해성, 정직성): AI 모델의 위험성을 고려해야 하며, 이를 방어하기 위해 안전한 방식으로 활용해야 함. 사전에 분류된 일련의 응답 중에서 학습자가 선택할 수 있는 모델로 학습자로부터 분리하여 안전성을 높일 수 있으나, 참여도와 자유도가 낮음. 학생의 반응을 시뮬레이션하여 새로운 교사를 훈련할 때 사용할 수 있고, 소크라테스식 질문으로 제한하여, 응답의 정확도를 향상시킬 수 있음. 모델을 중재자로 사용하여 peer-to-peer 학습 및 피드백을 활용하고, 피드백에서 얻은 심화 학습을 통해 모델이 더 나은 응답을 하도록 훈련이 가능함. 일련의 규칙을 모델에게 설명하고, 모델이 규칙을 따르도록 스스로 훈련하는 헌법적 AI(사람의 통제를 훨씬 잘 받는 모델로 만드는 것이 핵심, 적대적 질문에 더 잘 대응하도록 훈련한 모델) 사용 가능.