구글이 기초과학과 일상생활을 넘나드는 인공지능(AI) 활용 사례를 공개하며 '에이전트화된 다중모달 AI'가 차세대 기술 진화의 핵심임을 강조했다. 단순 언어 처리에서 벗어나 시각·음성·코드 등 다양한 입력을 통합적으로 이해하고 실질적인 조력을 제공하는 AI의 가능성을 직접 시연했다.
구글코리아는 2일 서울 조선팰리스에서 '구글 포 코리아 2025' 행사를 열고 AI 기술이 창작·산업·과학 분야 전반에 걸쳐 어떻게 실용화되고 있는지를 소개했다. 이날 간담회에는 구글 딥마인드 및 랩스 디렉터가 함께 참석해 연구 중심의 기술과 서비스로 구현의 흐름을 중심으로 발표를 진행했다.
이 행사에서는 딥마인드의 핵심 프로젝트 소개와 구글 랩스의 프로젝트가 순차적으로 설명됐으며 행사 이후에는 AI 기반 콘텐츠 제작 툴과 연구성과에 대한 전시존 체험도 제공됐다.

딥마인드 "다중모달·에이전트형 모델로 전환…제품화 전략이 핵심"
이날 행사에서는 마니쉬 굽타 구글 딥마인드 시니어 디렉터가 '이론에서 현실로(From Research to Reality)'라는 주제를 중심으로 회사의 AI 연구 전략과 최신 기술을 공유했다.
굽타 시니어 디렉터는 구글이 개발한 기초모델 '팜(PaLM)' 사례를 소개하며 문제별로 매번 모델을 새로 학습해야 했던 기존 방식에서 벗어나 범용적 문제 해결 능력을 갖춘 '파운데이션 모델'의 중요성을 강조했다.
'팜'은 58개 벤치마크 테스트 중 다수에서 기존 특화모델을 능가했으며 이는 이후 '제미나이(Gemini)' 시리즈로 진화해 텍스트·음성·영상·코드까지 모두 다룰 수 있는 멀티모달 모델로 확장됐다.
굽타 디렉터는 '프로젝트 아스트라(Project Astra)' 역시 소개했다. 이 프로젝트는 '제미나이 모델'을 기반으로 구현된 에이전트형 AI로, 실제 사용자 음성 명령에 따라 자전거 수리, 이메일 검색, 유튜브 조회, 매장 재고 확인까지 일관된 조력 흐름을 실시간으로 수행하는 예시가 시연됐다. 기존 챗봇을 능가하는 대화 유지력과 멀티태스킹 수행력을 기반으로 차세대 AI 비서의 전형을 제시했다.
기초과학 영역에서는 딥마인드의 '알파폴드(AlphaFold)'를 중심으로 생물학적 문제 해결 사례를 소개했다. '알파폴드'는 아미노산 서열을 기반으로 수초 내 단백질 3차원 구조를 예측할 수 있으며 현재 전 세계 2백억 종 이상의 단백질 구조 예측 데이터를 공개하고 있다.

굽타 디렉터는 이 기술이 약물 개발, 플라스틱 분해 효소 설계, 병충해 저항 종자 개발 등 다양한 영역에서 활용 중이며 국내에서도 많은 연구자들이 알파폴드 기반 연구를 진행 중이라고 밝혔다.
특히 그는 암 치료를 위해 알파폴드를 활용 중인 서울대 송지준 교수의 연구를 직접 언급하며 국내 연구진의 기여도에 주목했다. 송 교수는 알파폴드를 활용해 암세포 표적 단백질 구조를 분석하고 있으며 굽타는 이같은 실제 임상 접목이 과학적 진보의 상징이라고 평가했다.
창작과 콘텐츠 영역에서는 ▲'이마젠4(Imagen 4)' ▲'뮤직 AI 샌드박스(Music AI Sandbox)' ▲'비디오 생성 모델 비오3(Veo 3)' ▲'음성 기반 음악 생성기 리리아(Lyria)' 등이 공개됐다.
'이마젠4'는 현재 업계 최고 수준의 텍스트-이미지 생성 모델로 평가받고 있으며 실제 프레임을 기반으로 동영상을 확장하는 '비오3' 모델도 함께 시연됐다. 이 모델은 영상에 자동으로 배경 음향을 삽입하는 오디오 생성 능력도 갖춰 무성 영상 한계를 넘어서고 있다.
영상 생성 기술은 '플로우(Flow)'라는 툴로 연결돼 영화 제작자를 위한 실제 프로덕션 환경에서도 쓰일 수 있도록 제품화되고 있다. 음악 분야에선 '리리아'를 통해 곡을 생성하고 이를 크리에이터가 활용할 수 있도록 뮤직 AI 샌드박스 툴킷이 함께 제공된다.
글로벌 확장성을 위해 구글은 '멀티컬처·멀티링구얼(Multicultural Multilingual)' 모델 개발도 병행 중이다. 영어 등 서구권 언어 중심의 성능 편향을 극복하기 위해 힌디어·한국어·중국어 등 다양한 언어의 이해력 격차를 줄이고 단순 번역이 아닌 '문화적 맥락 기반 생성'이 가능하도록 학습 방향을 조정 중이다.
마니쉬 굽타 구글 딥마인드 시니어 디렉터는 "우리는 대담한 혁신을 추진하는 동시에 책임 있는 개발과 배포를 최우선 가치로 두고 있다"며 "헬스케어 등 고위험 분야에 AI를 적용하는 만큼 각국 파트너들과의 협력을 통해 기술의 실질적 활용성과 안전성을 함께 담보하겠다"고 밝혔다.
구글 랩스 "실험을 제품으로…AI가 일하는 시대 온다"
이날 행사에서는 구글 랩스의 제품 전략도 함께 공개됐다. 발표는 사이먼 토쿠미네 구글 랩스 프로덕트 매니지먼트 디렉터가 맡았다. 그는 구글 랩스가 기술을 사용자 중심 제품으로 전환하는 임무를 가진 조직이라고 소개하며 AI 설계 키워드로 '변환'과 '협업'을 제시했다.
토쿠미네 디렉터가 첫 번째 사례로 소개한 사례는 '노트북LM'이었다. 이 도구는 대량의 문서를 분석해 요약, 마인드맵, 오디오, 영상 형태로 변환하는 리서치 보조 도구다.
이 툴은 입력된 정보를 기반으로만 작동하며 결과물마다 정보의 출처를 명시해 생성형 AI의 신뢰성 문제를 구조적으로 보완했다. 구글은 이 제품을 통해 실험적 AI 기술이 사용자 실생활에 적용되는 전환 사례를 구축하고 있다.
더불어 '오디오 오버뷰(Audio Overview)' 기능은 문서를 음성 콘텐츠로 자동 변환해주는 기능으로, 이날 행사에서는 KBO 올스타전 기록을 주제로 한 한국어 팟캐스트 형식의 오디오가 시연됐다.

감탄사나 여백 같은 비효율적 요소를 일부러 삽입해 실제 대화처럼 자연스럽게 들리도록 설계된 것이 특징이다. 구글은 이러한 음성화 전략이 오히려 정보 전달의 몰입도와 이해도를 높이는 데 효과적이라고 판단하고 있다.
아울러 '비디오 오버뷰(Video Overview)'는 이미지와 슬라이드 등 시각 자료를 기반으로 AI가 실시간으로 설명을 제공하는 기능이다. 이 과정에서 AI는 화면 속 콘텐츠를 보고 이해한 뒤 설명하는 방식을 택하고 있어 일반적인 텍스트 기반 요약 기능과는 몰입감에서 차별점을 둔다. 이 기능은 '비오3(Veo 3)' 기반의 고해상도 영상 생성 기술과 연동돼 교육, 회의, 여행 기록 요약 등에서 활용 가능성이 제시됐다.
토쿠미네 디렉터는 AI의 '에이전트화' 가능성을 설명하며 두 가지 협업형 AI도 함께 공개했다. 하나는 개발자 보조용 '줄스(Jules)'로, 코드 수정과 버그 해결을 자동화하는 도구다.
관련기사
- 구글 창업자·딥마인드 CEO "2030년 전후 인간 넘는 AI 온다"2025.05.25
- "살아 있는 아인슈타인, AI와 손잡았다"…테런스 타오, 딥마인드와 '수학 난제' 도전2025.05.18
- 구글, AI로 전력망 병목 해소한다…딥마인드도 참여2025.04.11
- 오픈AI, 챗GPT '기억 기능' 전면 개편…자동화로 진화한 'AI 개인화'2025.04.11
또다른 하나는 '마리너(Mariner)'로, 웹브라우저 환경에서 사용자를 대신해 온라인 쇼핑, 예약, 일정 정리 등을 수행하는 소비자용 AI 에이전트다. 두 제품 모두 '제미나이 2.5 프로' 기반으로 설계됐으며 구글은 이를 통해 AI를 단순 도구가 아닌 디지털 동료로 진화시키는 방향성을 실험하고 있다.
사이먼 토쿠미네 구글 랩스 프로덕트 매니지먼트 디렉터는 "에이전트형 AI는 단순한 기능 수행을 넘어 사용자와 함께 일하는 협업자로 자리 잡을 것"이라고 강조했다.