구글은 연례 개발자 회의(I/O) 이틀째인 15일 캘리포니아주 마운틴뷰 쇼어라인 엠피씨어터에서 ‘프로젝트 아스트라'(Project Astra) 체험행사를 가졌다.

개발자 회의 첫날인 전날 공개된 ‘프로젝트 아스트라’는 구글의 최신 AI 모델인 제미나이와 구글의 음성 모델을 기반으로 미래 AI 어시스턴트를 구현하기 위한 구글의 비전을 말한다.

AI가 사람처럼 보고 듣고 음성으로 대화하면서 이용자의 개인 비서 역할을 하는 기능이다.

앞서 구글이 공개한 시연 영상에는 휴대전화 카메라로 주변 상황을 보여주고 안경이 어디에 있는지를 묻자 이를 즉각 알려주고, 현재 위치를 묻자 정확하게 파악해 음성으로 이를 대답하는 모습이 담겼다.

이는 오픈AI가 지난 13일 공개한 보고 듣고 말하는 새로운 AI 모델인 ‘GPT-4o'(GPT-포오)와 앞으로 치열한 경쟁을 예고했다.

기자는 이날 구글이 마운틴뷰 쇼어라인 엠피씨어터에 마련한 부스에서 ‘프로젝트 아스트라’를 체험했다.

부스 안에는 벽에 대형 스크린이 걸려 있었고, 천장에는 스크린 앞에 있는 사물을 인식할 수 있는 카메라가 달려 있었으며, 스크린 앞에는 테이블이 마련돼 있었다.

테이블에 파인애플을 놓고 “이것이 무엇이냐?”(What is this?)라고 묻자, “파인애플”이라는 답이 돌아왔다. 대답은 음성과 함께 스크린 자막에도 나타났다.

파인애플 옆에 팽이를 올려놓으니 “파인애플이 친구를 찾은 것 같다”며 “다양한 색깔의 팽이”라고 말했다.

AI가 카메라로 테이블 위에 있는 사물을 인식해 대답한 것이다.

이번에는 스크린에 빨간펜으로 자동차를 그려 놓고 무엇인지 물으니 “빨간색 자동차”라고 답했다.

바다에 비스듬하게 빠진 배를 그렸더니 “침몰하는 것 같다”고 말했고, “이 영화를 알아 맞혀보라”고 했더니 “타이태닉”이라고 대답했다.

피아노와 강아지, 꽃게 등 여러 인형을 올려놓고 이야기를 만들어 달라고 하니 서로 공통점이 없는 듯한 이 사물을 연계해 간단한 동화도 금방 들려줬다.

또 테이블에 파인애플 등을 올려놓고 치운 뒤 방금 어떤 물건이 있었는지 말해달라고 하니 정확하게 얘기하며 ‘기억력’도 과시했다.

가끔 대답을 장황하게 늘어놓기도 했지만, 대화에 큰 지장이 없을 정도로 반응 속도도 느리지 않았다.

구글은 이 AI의 정확한 반응 속도를 공개하지는 않았지만, “자연스럽게 대화가 가능하다”고 설명했다.

다만, “안녕”이라는 한국어를 적고 무엇을 뜻하는 것인지를 알려 달라고 했으나 답변하지 못했다. 한국어라고 알려주니 “나는 한국어를 모른다”고 했다.

아직 한국어는 인식하지 못했다.

오픈AI의 ‘GPT-4o'(GPT-포오)는 한국어를 포함해 50개 언어로 인식한다.

전날 시연 때에는 휴대전화로 했던 것과 달리 이날 체험에서는 스크린으로 시연해 AI 어시스턴트로서 실감은 다소 떨어졌다.

‘GPT-4o’의 경우 수학 문제를 보여주면 풀이 과정을 설명해주는 기능이 있었으나 구글의 ‘프로젝트 아스트라’에 대해선 테스트해 보지 못했다.

오픈AI는 ‘GPT-4o’를 수주 내에 출시할 계획이라고 밝혔다.

구글은 프로젝트 아스트라의 시각과 청각 등 일부 기능을 올 하반기 출시할 예정이다.

<연합뉴스>

0
0
Share:

Leave a Reply

Your email address will not be published. Required fields are marked *