2025년 5월, 캘리포니아 마운틴뷰에서 개최된 Google I/O 2025는 단순한 기술 컨퍼런스를 넘어, 구글이 그려나갈 미래 기술 지도를 명확히 제시한 자리였습니다. 순다 피차이 CEO의 기조연설에서부터 개발자 세션에 이르기까지, 모든 발표의 중심에는 **'AI'**가 있었습니다. 특히, '이론이 현실이 되다'라는 슬로건처럼, 과거 상상 속에만 존재하던 AI 기술들이 우리 삶에 깊숙이 파고드는 구체적인 모습들이 공개되며 'AI 우선' 시대의 서막을 알렸습니다.
Google I/O 2025
Solve the I/O puzzle Guide, reflect, and split beams of light to illuminate beacons and advance through new challenges. Get started
io.google
1. 인공지능 (Artificial Intelligence) - '제미나이 시대'의 개막
이번 I/O의 최대 화두는 단연 제미나이(Gemini) 모델의 비약적인 발전과 그 적용 범위의 확장입니다. 구글은 제미나이를 단순한 AI 모델을 넘어, 사용자의 삶 전반을 혁신하는 **'범용 AI 어시스턴트'**로 자리매김하겠다는 비전을 제시했습니다.
제미나이 2.5 및 차세대 모델의 등장
- 제미나이 2.5 프로 공개 -
기존의 제미나이 모델 보다 더욱 향상된 추론 능력과 압도적인 멀티모달 기능이 강화 되었습니다.
이는 텍스트, 이미지, 오디오, 비디오 등 다양한 형태의 정보를 동시에 이해하고 복합적으로 처리하는 능력을 의미합니다. 단순히 정보를 나열하는 것을 넘어, 맥락을 파악하고 복잡한 문제에 대한 심층적인 해결책을 제시하는 데 특화되었습니다.

또한 기존 검색보다 훨씬 복잡한 쿼리를 처리할 수 있게 되었는데요. 여기에는 더 깊이 있는 분석을 위해 질문을 여러 개의 검색으로 분할하는 '질의 팬-아웃' 기법이 사용됩니다.
예를 들어, 특정 행사의 가장 싼 티켓을 찾는 데 활용할 수 있는데 수백 개의 티켓 옵션을 다양한 웹사이트에서 실시간 가격과 재고 정보를 기준으로 분석해 줍니다.
- '제미나이 라이브(Gemini Live)'
이번 I/O에서 가장 인상 깊었던 시연 중 하나입니다. 스마트폰이나 태블릿의 카메라 및 화면 공유 기능과 실시간으로 연동되어, 사용자의 눈으로 보고 듣는 것을 기반으로 상호작용하는 진정한 개인 비서의 모습을 보여주었습니다. 면접 준비 시 사용자의 표정이나 제스처를 분석하여 피드백을 제공하거나, 마라톤 훈련 중 달리기 자세를 실시간으로 교정해 주는 등, 일상생활의 다양한 상황에서 개인 맞춤형 지원을 제공합니다. 이는 물리적 환경을 AI가 직접 인지하고 반응하는 새로운 차원의 상호작용을 예고합니다.
- 미디어 생성 AI 모델의 진화와 새로운 창작 도구
- Veo 3: 더욱 사실적이고 고품질의 동영상 생성 AI 모델입니다. 프롬프트 하나로 복잡한 장면과 캐릭터, 움직임을 포함한 동영상을 생성할 수 있으며, 기존 모델 대비 디테일과 일관성이 크게 향상되었습니다. 영화 제작, 광고, 교육 콘텐츠 등 다양한 분야에 혁신을 가져올 잠재력을 보여주었습니다.
- Imagen 4: 이미지 생성 AI 모델인 Imagen 4는 더욱 향상된 이미지 품질과 세밀한 제어 능력을 제공합니다. 특정 스타일, 색상, 구도 등을 정확히 반영하여 사용자가 원하는 이미지를 정교하게 생성할 수 있습니다.
- Flow: 텍스트 프롬프트 기반으로 AI 영화 제작을 지원하는 새로운 도구가 공개되었습니다. 간단한 스토리 라인이나 콘셉트를 입력하면, Flow는 스토리보드, 캐릭터 디자인, 장면 연출, 심지어 대략적인 카메라 워크까지 제안하여 창작자가 복잡한 기술 없이도 영상 콘텐츠를 쉽게 만들 수 있도록 돕습니다. 이는 콘텐츠 제작의 진입 장벽을 낮추고 창의성을 극대화할 것입니다.
- 네이티브 오디오 생성 기능: 생성된 비디오 콘텐츠에 사실적인 배경음악, 효과음, 대화 등을 자동으로 추가하는 기능이 강화되었습니다. 이는 영상 콘텐츠의 완성도를 높이고, 음향 작업에 대한 부담을 줄여줍니다.

2. 개발자 도구 및 플랫폼 - AI 기반의 개발 혁신
구글은 AI가 개발자들의 생산성을 획기적으로 높이고, 새로운 애플리케이션 개발을 가속화할 것이라고 강조했습니다.
- AI 기반 개발 도구의 전방위적 통합
- 안드로이드 스튜디오 내 제미나이 통합: 개발자들은 이제 안드로이드 앱 개발의 핵심 도구인 안드로이드 스튜디오 내에서 제미나이의 지원을 받을 수 있습니다. 코드 생성, 디버깅, 성능 최적화, 테스트 자동화 등 개발 과정 전반에 걸쳐 AI의 도움을 받아 생산성을 극대화할 수 있습니다.

- 크롬 개발자 도구 내 제미나이 통합: 웹 개발자들을 위한 크롬 개발자 도구에도 제미나이가 통합됩니다. 이를 통해 웹 성능 분석, 웹 UI/UX 최적화, 프런트엔드 코드 개선 제안 등 웹 개발의 복잡한 작업을 AI의 도움을 받아 효율적으로 처리할 수 있게 됩니다.
- 'Jules' (비동기 코드 에이전트): 'Jules'는 개발자의 작업을 지능적으로 자동화하는 비동기 코드 에이전트입니다. 깃허브와 연동하여 코드 수정 제안, 단위 테스트 자동 생성, 풀 리퀘스트 생성 등 반복적이고 시간이 많이 소요되는 개발 작업을 자동화하여 개발자가 더 창의적인 작업에 집중할 수 있도록 돕습니다.
- 'Stitch' (대화형 UI/UX 디자인 에이전트): 'Stitch'는 자연어 프롬프트 기반으로 UI/UX 디자인을 자동 생성하는 혁신적인 도구입니다. 개발자나 디자이너가 텍스트로 원하는 인터페이스를 설명하면, Stitch는 자동으로 UI 컴포넌트를 배치하고 CSS/HTML 코드를 생성하며, Figma 파일로 내보내기까지 지원합니다. 이는 디자인-개발 워크플로우를 획기적으로 단축시키고 협업 효율성을 높일 것입니다.
3. 검색 및 정보 탐색 - 지능형 검색의 미래
구글은 검색이 단순히 정보를 찾는 행위를 넘어, '지능'으로 진화해야 한다고 강조하며 AI 기반의 새로운 검색 경험을 제시했습니다.
- 구글 검색의 'AI 모드' 정식 도입:
지난해부터 시험적으로 선보였던 'AI 모드'가 구글 검색에 정식으로 도입되었습니다. 제미나이 2.5를 핵심 엔진으로 사용하는 이 모드는 사용자의 복잡하고 다단계적인 쿼리를 완벽하게 이해하고 처리하는 데 중점을 둡니다. 예를 들어, "다음 달 유럽 여행 계획을 세우는 데 필요한 항공권, 숙소, 현지 활동 추천과 예산 요약"과 같은 복합적인 질문에도 단순히 링크를 나열하는 것이 아니라, 다양한 웹 소스, 비디오, 이미지 등으로부터 정보를 종합하고 구조화된 답변을 제공합니다. 이는 사용자가 원하는 지식을 빠르게 습득하고 다음 행동을 결정하는 데 도움을 줍니다.

AI 모드는 20일부터 미국 사용자가 이용 할 수 있게 되는데요. 구글 검색에도 ‘제미나이 라이브’와 유사한 기능이 추가돼 사용자가 스마트폰 카메라를 통해 보고 있는 내용에 대해 질문할 수 있게 된다고 합니다.그 중 새로운 쇼핑 기능을 지원하는데, 자신의 사진을 업로드하면 가상의 나에게 어떤 옷이 어울릴지 미리 볼 수 있게 해줍니다. 또, 원하는 상품이 원하는 가격에 할인 판매될 때 알려줄 수도 있습니다 .
개인화된 정보 요약 및 심층 분석 기능이 강화되어, 사용자의 과거 검색 기록이나 선호도를 바탕으로 더욱 맞춤화된 검색 결과를 제공합니다.
- 'AI 오거나이저(AI Organizer)' (구글 앱 전반 통합):
- Gmail, 구글 캘린더, 구글 문서, 구글 드라이브 등 구글의 핵심 생산성 앱 전반에 걸쳐 AI 오거나이저가 통합됩니다. 이 기능은 사용자의 이메일, 문서, 일정 등에서 정보를 자동으로 분류하고, 핵심 내용을 요약하며, 관련 정보들을 지능적으로 연결합니다. 예를 들어, 메일함에서 특정 프로젝트 관련 문서들을 자동으로 묶어주거나, 일정에 맞춰 필요한 자료를 미리 준비해주는 등, 사용자의 생산성을 획기적으로 향상시킬 것입니다.
4. 하드웨어 및 XR (확장 현실) - AI 기반의 몰입형 경험
구글의 하드웨어는 AI를 통해 더욱 스마트하고 개인화된 경험을 제공하며, 확장 현실(XR) 분야로의 진출을 가속화합니다.
- 안드로이드 XR 플랫폼 확장과 생태계 강화:
구글은 하드웨어 파트너사들과의 협력을 통해 안드로이드 기반의 XR(확장 현실) 헤드셋 및 글래스 생태계 확장 계획을 발표했습니다. 이는 가상현실(VR)과 증강현실(AR)을 아우르는 새로운 컴퓨팅 플랫폼으로, 더욱 몰입감 있고 인터랙티브한 경험을 제공할 것입니다.
AI 기반의 정교한 제스처 인식, 시선 추적 등 새로운 인터페이스 기술이 공개되어, 사용자가 XR 환경에서 더욱 자연스럽고 직관적으로 상호작용할 수 있게 됩니다. 이는 게임, 교육, 원격 협업 등 다양한 XR 애플리케이션의 발전을 가속화할 것입니다.

또한 구글은 안드로이드 XR을 기반으로 헤드셋과 스마트 안경 개발을 위해 삼성전자와 협업 중이라고밝혔습니다. 그리고 구글이 삼성과 함께 만들고 있는 첫 번째 안드로이드 XR 헤드셋은 올해 말 출시될 예정이라고 합니다.
이번 Google I/O 2025는 AI가 더 이상 먼 미래의 기술이 아니라, 이미 우리의 삶 속으로 깊숙이 들어와 다양한 방식으로 혁신을 만들어내고 있음을 명백히 보여주었습니다. '제미나이 시대'의 본격적인 개막과 함께 구글은 AI 분야에서 누구도 넘볼 수 없는 강력한 리더십을 다시 한번 확인시켰습니다. 앞으로 구글이 AI를 통해 만들어갈 미래는 더욱 놀라울 것으로 기대되며, 우리의 일상과 산업 전반에 어떤 변화를 가져올지 귀추가 주목됩니다.
'테크 > 정보' 카테고리의 다른 글
| 새로운 인터넷Web3 인프라 - 기술, 규제, 그리고 시장의 미래 (15) | 2025.07.27 |
|---|---|
| MCP란 무엇인가 (ai 모델 통신 방법 ) (4) | 2025.06.03 |