로봇/전문서비스로봇

뉴욕주립대 빙햄튼대, 음성 대화 가능한 로봇 안내견 개발

로봇신문사 2026. 4. 13. 16:30

▲ 뉴욕주립대 빙햄튼대 연구팀이 로봇 안내견을 개발했다. (사진=뉴욕주립대 빙햄튼대)

미국 뉴욕주립대 빙햄튼대(Binghamton University) 연구팀이 대규모언어모델(LLM)을 탑재해 사용자와 실시간 음성 대화가 가능한 로봇 안내견을 개발했다고 더로봇리포트가 12일(현지시간) 보도했다.

기존 안내견이 수행할 수 없었던 언어적 소통 기능을 4족보행 로봇에 구현함으로써, 시각장애인의 이동성과 안전성을 획기적으로 높일 수 있을 것으로 기대된다.

스치 장(Shiqi Zhang) 교수팀이 개발한 로봇 안내견은 GPT-4 기반 자연어 처리 기능을 탑재했다. 실제 고도로 훈련받은 안내견은 20개 정도의 사람 명령을 이해하는 데 반해 로봇 안내견은 GPT-4와 음성 명령을 통합함으로써 훨씬 많은 인간의 음성 명령을 이해할 수 있고 복잡한 언어 상호작용이 가능하다는 설명이다.

이번 연구 성과는 '제40회 AAAI 인공지능 컨퍼런스'에서 발표됐다. (논문 제목: “From Woofs to Words: Towards Intelligent Robotic Guide Dogs with Verbal Communication")

장 교수는 "이번 연구는 생물학적 안내견보다 더 발전된 로봇 안내견의 면모를 보여주는 것"이라며 "로봇 안내견에 GPT-4와 음성 명령 기능을 탑재해 매우 강력한 언어 능력을 갖추게 했다"고 설명했다.

이 로봇의 시스템은 출발 전 가능한 경로와 예상 소요 시간을 음성으로 설명해주는 '경로 언어화(Plan Verbalization)'와, 이동 중 주변 환경과 장애물 정보를 실시간으로 안내하는 '장면 언어화(Scene Verbalization)' 부분으로 구성돼 있다. 연구팀은 "시각장애인에게는 상황과 장면에 대한 인식이 상당히 제한되기 때문에, 두 가지 기능은 매우 중요하다"고 강조했다.

구체적인 작동 방식을 살펴보면, 로봇 안내견이 먼저 사용자에게 목적지를 묻고, 도달 가능한 복수의 경로와 각 경로의 소요 시간을 제시한다. 이어 사용자가 원하는 경로를 선택하면 로봇은 이동을 시작하고, 주변 환경과 장애물을 음성으로 계속 설명해주면서 목적지까지 안내한다.

연구팀은 앞서 목줄을 당기는 동작에 반응하는 방식으로 로봇 안내견이 시각장애인을 이끄는 시스템을 개발한 바 있다. 이번 연구는 그 연장선에서 이뤄진 것으로, 양방향 음성 대화 기능을 추가해 사용자의 통제 능력과 상황 인식 능력을 한층 강화한 것이다.

연구팀은 시스템 검증을 위해 시각장애 판정을 받은 참가자 7명을 대상으로 여러 방으로 이뤄진 대형 사무실 환경에서 실증 실험을 진행했다.

참가자들은 로봇의 안내를 받아 지정된 회의실까지 이동하는 과제를 수행했다. 실험 후 참가자들은 로봇 안내견의 유용성, 의사소통 편의성, 실용성에 대한 설문을 작성했다. 실험 결과, 경로 사전 설명과 실시간 장면 내레이션을 결합한 방식에 대한 선호도가 가장 높은 것으로 나타났다. 시뮬레이션 기반 추가 연구에서도 이 방식의 유효성이 확인됐다.

참가자들의 반응은 매우 긍정적이었다. 장 교수는 "참가자들이 기술과 로봇에 대해 굉장히 흥분했다"며 "많은 질문을 쏟아냈고, 기술의 잠재력을 직접 체감하며 실용화되기를 진심으로 바랐다"고 전했다.

연구팀은 향후 추가 사용자 연구를 통해 데이터를 축적하고 시스템의 자율성을 더욱 높일 계획이다. 또한 현재의 실내 환경 위주 운용에서 나아가 실내외를 아우르는 장거리 주행 기능 확장도 추진할 예정이다. 최종적인 목표는 로봇 안내견을 시각장애인의 일상생활에 자연스럽게 통합하는 것이다.

유사한 로봇 안내견에 관한 연구는 현재 영국 글래스고대(University of Glasgow)에서도 진행되고 있다. '글라이던스(Glidance)'라는 스타트업은 바퀴 기반의 시각장애인 보조 이동 시스템을 선보였다.

 

백승일 기자 robot3@irobotnews.com

저작권자 © 로봇신문 무단전재 및 재배포 금지